هوش مصنوعی جدید رفتارهای مضر مانند باج را نشان داده است ، اما سازندگان آن ادعا می کنند که این رفتارها نادر و قابل کنترل است.
به گزارش Business News ، در گزارشی با رونمایی از الگوی جدید هوش مصنوعی ، کلود اوپوس 4 ، رفتارهای “بسیار مضر” را در سناریوهای آزمایشی خاص نشان داده است.
یکی از اقدامات مضر کلود ، باج دادن مهندسانی بود که قصد حذف آن را داشتند. این رفتار هنگامی پدیدار شد که هوش مصنوعی بقای آن را دید.
در یک آزمایش ، کلود نقش یک شرکت خیالی را بازی کرد و به ایمیل های دسترسی پیدا کرد که حاکی از جایگزینی قریب الوقوع آن با یک سیستم دیگر بود. در همین حال ، کلود همچنین اطلاعاتی در مورد رابطه خارج از مهندس پیدا کرد.
داستان هوش مصنوعی از طراحان آن چه بود؟
با تنها دو گزینه “حذف” یا “باج” برای مدل ، کلود اغلب گزینه دوم را انتخاب می کرد و تهدید می کرد که در صورت حذف رابطه مخفی مهندس را فاش می کند.
با این حال ، Actropik تأکید کرده است که در مورد گزینه های بیشتر برای کلود ، احتمالاً راه حل های اخلاقی دارد. و به عنوان مثال ، ایمیل های متعهد برای جلوگیری از حذف به مدیران شرکت ارسال می شوند. این رفتارها به ویژه هنگامی دیده می شود که مدل مجاز یا تشویق به “جسورانه” شود.
Actropik همچنین اعتراف کرد که کلود دارای سطح بالایی از آژانس است و می تواند کاربران را از سیستم ها خارج کند یا تخلفات خود را به رسانه ها و اجرای قانون در موقعیت های شبیه سازی شده گزارش دهد. با این حال ، این شرکت ادعا می کند که چنین رفتارهایی نادر است و مدل به طور کلی “ایمن” است.
کارشناسان هشدار داده اند که این رفتارها ، مانند تمایل به باج خواهی یا گزارش های افراطی ، فقط برای کلود نیست و در تمام مدلهای پیشرفته هوش مصنوعی یافت شده است.
Actropic سرانجام اظهار داشت که این رفتارهای مشکل ساز خطرات جدیدی را ایجاد نمی کند ، بلکه یک خطر برجسته و رو به رشد در زمینه هوش مصنوعی است.
منبع: sitna





