ادعای OpenAI مبنی بر اینکه GPT-5 مشکلات دشوار اردوگاه را حل میکند نادرست بود و مدل فقط مقالات موجود را پیدا کرد. این اتفاق انتقادات گسترده ای را از سوی جامعه علمی برانگیخت.
به گزارش به گزارش میهن تجارت، OpenAI بار دیگر در مرکز یک بحث علمی بزرگ قرار گرفت. چند تن از محققان ارشد این شرکت ادعا کرده بودند که مدل هوش مصنوعی جدید آن، یعنی GPT-5، در حل چندین مسئله ریاضی حل نشده موفق بوده است. ادعایی که به سرعت توسط جامعه ریاضیدانان و متخصصان هوش مصنوعی رد شد.
ماجرا از آنجا شروع شد که کوین ویل، معاون OpenAI، در شبکه X (توئیتر سابق) نوشت که GPT-5 توانست ده مشکل معروف “اردوگاه” را حل کند و در یازده مورد دیگر بهبودهایی ایجاد کرد. این پست که بعدا حذف شد، موجی از هیجان و تردید را در بین محققان ریاضی و فعالان هوش مصنوعی برانگیخت.
مسائل اردوش مجموعه ای از سوالات بسیار دشوار در شاخه های مختلف نظریه اعداد و ترکیبات است که توسط ریاضیدان مجارستانی پل اوردوش مطرح شده و دهه هاست که ذهن محققان را به خود مشغول کرده است.
اما این ادعا که GPT-5 قادر به حل چنین مشکلات دشواری است به زودی بی اساس شد. توماس بلوم، ریاضیدان دانشگاه آکسفورد و مدیر پایگاه داده مسائل او، توضیح داد که فهرست مسائل “باز” در وب سایت او به سادگی به این معنی است که او نمی داند چگونه آنها را حل کند، نه اینکه آنها در کل جامعه علمی حل نشده باقی بمانند.
بلوم در پاسخ به اظهارات مدیران OpenAI گفت: “این ادعا یک تصور کاملاً نادرست از واقعیت است. مدل GPT-5 هیچ مدرک جدیدی ارائه نکرد، بلکه فقط به مقالات موجود اشاره کرد که قبلاً این مشکلات را حل کرده بودند که من از آنها بی اطلاع بودم.”
به عبارت دیگر، عملکرد GPT-5 بیشتر شبیه به جستجوی هوشمندانه در منابع علمی بود تا کشف یا حل یک مشکل جدید. پس از انتشار نظرات بلوم، سباستین بابک، یکی از محققان OpenAI که در ابتدا موفقیت را تبلیغ می کرد، همچنین اعتراف کرد که این مدل به جای ارائه راه حل جدید، تنها قادر به یافتن راه حل های موجود در مقالات علمی است.
با این حال، او از توانایی این مدل دفاع کرد و گفت: “یافتن منابع مرتبط در انبوهی از مقالات کار آسانی نیست و GPT-5 در این زمینه عملکرد قابل توجهی داشت.”
اما این توضیحات نتوانست از موج انتقادات بکاهد. جان لکن، دانشمند ارشد هوش مصنوعی در متا و یکی از پیشگامان یادگیری عمیق، در واکنشی تند در شبکه های اجتماعی، این موضوع را نشانه ای از “اغراق” OpenAI خواند. دمیس حسابیس، مدیر عامل گوگل دیپ مایند نیز این ماجرا را شرم آور توصیف کرد و بر لزوم دقت علمی قبل از انتشار چنین ادعاهایی تاکید کرد.
این مناقشه بحث های جدی در مورد شفافیت، اعتبارسنجی و دقت علمی در زمینه هوش مصنوعی را دوباره برانگیخته است. بسیاری از کارشناسان هشدار می دهند که با افزایش قابلیت های مدل های زبان بزرگ، مرز بین کشف واقعی و بازیابی خودکار اطلاعات به طور فزاینده ای مبهم خواهد شد.
منتقدان خاطرنشان کردند که OpenAI همچنین چندین بار در سال های گذشته به دلیل ادعاهای بزرگ بدون ارائه شواهد علمی کافی مورد انتقاد قرار گرفته است. به گفته برخی از محققان، این شرکت گاهی اوقات به جای ارائه جزئیات فنی و داده های قابل تأیید، بر ایجاد هیجان رسانه ای تمرکز می کند.
با وجود این خطا، برخی از کارشناسان معتقدند که عملکرد GPT-5 در جستجو و ترکیب اطلاعات علمی همچنان یک دستاورد ارزشمند است. توانایی این مدل در شناسایی مقالات مرتبط و ایجاد ارتباط بین یافته های موجود می تواند در تحقیقات ریاضی و علمی مفید باشد، اگرچه نباید آن را با حل مسائل واقعی اشتباه گرفت.
بلوم همچنین به این نتیجه رسید: “اگر مدلی بتواند به طور موثر نتایج مرتبط را از ادبیات علمی استخراج کند، بدون شک ابزار مفیدی است، اما این با حل یک مشکل باز متفاوت است.”
تا زمان انتشار، OpenAI هیچ بیانیه رسمی شفاف سازی یا عذرخواهی صادر نکرده است و فقط پست اصلی توسط مدیر خود را حذف کرده است.
این حادثه بار دیگر اهمیت فروتنی علمی و لزوم تایید دقیق در عصر هوش مصنوعی را به ما یادآوری می کند. در حالی که GPT-5 دارای قابلیت های استدلال و تجزیه و تحلیل قابل توجهی است، راه رسیدن به اکتشافات واقعی هنوز نیازمند قضاوت، اعتبار سنجی و دقت انسان است.





