تحقیقات جدید OpenAi ، توسعه دهنده چت چت مصنوعی GPT ، نتایج عجیبی به همراه داشته است.
به گزارش Business News ، اوپای در هفته گذشته با انتشار تحقیقات تیم خود جهان را برکنار کرد. براساس نتایج منتشر شده توسط این شرکت روز دوشنبه ، به نظر من مدل های هوش مصنوعی قادر به نقشه برداری و خراشیدن کاربران هستند. این بدان معنی است که مدلهای هوش مصنوعی می توانند به گونه ای رفتار کنند که حقیقت را مخفی نگه می دارد.
تحویل و خرابکاری عمدی از هوش مصنوعی
مقاله ای که با همکاری آپولو منتشر شده است ، نشان می دهد که بسیاری از مدل های مشهور هوش مصنوعی ، از جمله O3 ، O4 Mini Chat Chat و Jina 2.5 Peru GP و Antopic Claud Claud Claud ، همه نشانه هایی از رفتارهای “ترسیم” را نشان می دهند. به عنوان مثال ، این مدل های هوش مصنوعی خروجی های کاذب و نادرست را ارائه می دهند ، سرپرستان خود را با تعطیلی خود تهدید می کنند و عمداً کارهای ارزیابی را از بین می برند.
با این حال ، محققان ادعا کردند که چنین رفتاری چندان خطرناک نیست و محدود به ترفندها و فریب های ساده است. به عنوان مثال ، هوش مصنوعی ممکن است ادعا کند که اگر این کار را نکرده است ، به طور کامل کاری انجام داده است.
هدف از این تحقیق چیست؟
براساس اطلاعات منتشر شده ، کارشناسان در حال آزمایش تکنیک های ضد اسکلی در مدل های هوش مصنوعی بودند و موفق شدند. با این حال ، نتایج این مطالعه نشان داد که توسعه دهندگان هوش مصنوعی هنوز راه حلی برای مدل های خود پیدا نکرده اند. زیرا اگر این مدل ها آموزش داده شوند ، آنها حتی بهتر از قبل از نحوه ترسیم یاد می گیرند ، به طوری که قابل تشخیص نباشد.
هوش مصنوعی برای آگاهی بیشتر
یکی از چالش های موجود آگاهی موقعیتی ، مدل های هوش مصنوعی است. یعنی آنها در حال تشخیص موقعیت هایی هستند که رفتار را توسط متخصصان آزمایش یا تطبیق می دهند. OpenAi به توسعه دهندگان این زمینه پیشنهاد کرده است تا شفافیت را از طریق روش زنجیره ای-اونو برای شناسایی محرکهای مخفی هوش مصنوعی حفظ کنند.





