هوش مصنوعی از نظر ریاضیاتی ضعیف است!

هوش مصنوعی

این مقاله که هنوز مورد بررسی همتایان قرار نگرفته است توسط ویشال سیکا (CTO سابق غول نرم افزاری آلمانی SAP) و پسرش Varin Sikka نوشته شده است. ویشال سیکا متخصص در زمینه هوش مصنوعی است. او شاگرد «جان مک کارتی» (دانشمند برنده جایزه تورینگ و بنیانگذار رشته هوش مصنوعی که خود اصطلاح هوش مصنوعی را ابداع کرد) بود.

ویشال سیکا صراحتاً گفت: “به هیچ وجه این مدل ها قابل اعتماد نیستند.” وی همچنین تاکید کرد که باید وعده های اغراق آمیز طرفداران هوش مصنوعی درباره سپردن مدیریت نیروگاه های هسته ای و کارهای حساس به عوامل را فراموش کنیم.

محدودیت های ذاتی در معماری هوش مصنوعی

برخلاف سخنان مدیران عامل فناوری در سخنرانی های خود، تحقیقات نشان می دهد که محدودیت های اساسی برای معماری فعلی هوش مصنوعی وجود دارد. حتی محققان این صنعت نیز با این موضوع موافق هستند.

در ماه سپتامبر، دانشمندان OpenAI اعتراف کردند که “توهمات” هنوز یک مشکل فراگیر در سیستم های پیشرفته است و مدل ها “هرگز” به دقت 100 درصد نمی رسند.

برخی از شرکت‌هایی که سال گذشته با هدف کوچک‌سازی به سراغ عوامل هوش مصنوعی رفتند، به سرعت متوجه شدند که این عوامل اصلاً قادر به جایگزینی انسان نیستند. زیرا به شدت دچار توهم هستند و به سختی می توانند وظایف محوله را به پایان برسانند.

آیا راه حلی وجود دارد؟

رهبران صنعت هوش مصنوعی اصرار دارند که توهمات را می توان با ایجاد “نرده های محافظ” خارج از مدل های اصلی فیلتر کرد. محققان OpenAI در همان مقاله ای که اعتراف کردند که به دقت 100٪ دست نمی یابند، ایده “اجتناب ناپذیر بودن توهم” را رد کردند و ادعا کردند که اگر مدل ها مطمئن نیستند می توانند از پاسخ دادن خودداری کنند. با این حال، در واقعیت، چت ربات‌های محبوب کنونی به ندرت چنین رفتار می‌کنند تا جذابیت خود را حفظ کنند.

اگرچه او معتقد است که مدل های زبانی بزرگ سقف کارایی غیرقابل عبوری دارند، سیکا با این ایده موافق است که می توان توهمات را مهار کرد. او می‌گوید: «یک مدل بزرگ زبان «خالص» این محدودیت ذاتی را دارد. اما در عین حال، درست است که می‌توانید اجزای دیگری را حول این مدل‌ها بسازید که بر آن محدودیت‌ها غلبه کند.»

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیشنهادات سردبیر:

تبلیغات متنی