«چت‌جی‌پی‌تی» از خبرنگاران انسانی جا ماند

«چت‌جی‌پی‌تی» از خبرنگاران انسانی جا ماند

Chatgpt نتوانست در یک آزمون نوشتن اخبار علمی به خوبی عمل کند و در اخبار علمی قابل درک روزنامه نگاران انسانی باقی مانده است.

براساس به گزارش میهن تجارت ، ناشر تبلیغات علمی آمریکا (AAAS) اخیراً حکم صادر کرده است که ممکن است علاقه مندان به هوش مصنوعی را شگفت زده کند.

این سازمان گفت که Chatgpt Chatgpt نمی تواند کار ظریف تبدیل تحقیقات پیچیده به اخبار درک علمی را انجام دهد.

انجمن آمریکایی برای ارتقاء علوم آمریکا یک سال کامل را صرف آزمایش کرد که آیا هوش مصنوعی می تواند نویسندگان انسانی را برابر کند. نتایج این آزمایش خیلی خوشایند نبود.

محققان انجمن ارتقاء علوم آمریکا از دسامبر تا 5 دسامبر حدود 4 مقاله علمی چالش برانگیز را برای چته ارسال کرده اند. آنها عمداً سخت ترین مقالات پر از اصطلاحات فنی ، یافته های بحث برانگیز ، اکتشافات پیشگام و قالب های غیرمعمول را انتخاب کردند.

هوش مصنوعی سه دستورالعمل را با جزئیات مختلف دریافت کرد و از جدیدترین مدل های چت عمومی در دسترس هم برای دوره های GPT-4 و هم در GPT-4O استفاده کرد. هر خلاصه توسط اومانیست ها که مرتباً برای علم و Eurekalert تولید می کنند ، مورد بررسی قرار می گرفت.

آمار این آزمایش داستان تکان دهنده را بیان می کند. وقتی از کارشناسان ارزیابی سؤال می شود که آیا خلاصه های چت می تواند با محتوای نوشته شده توسط انسان ادغام شود ، میانگین امتیاز آنها فقط از 5 از 5 بود. فاکتور “جذاب” حتی امتیاز پایین تری از 1.2 داشت.

تنها یک نفر از این خلاصه نمره کامل را از کارشناسان ارزیابی به دست آورد و خلاصه کمترین نمره ممکن را دریافت کرد.

بازخورد کیفی الگوهای خاص را در گپ چت نشان داد. هوش مصنوعی دائماً همبستگی با علیت را اشتباه گرفته است ، که یک خطای اساسی است که باعث تضعیف دقت علمی می شود. هوش مصنوعی دائماً محتوای مهم مورد نیاز متخصصان برای درک صحیح تحقیق را از بین می برد.

شاید مشکل ساز ترین مورد چت با اغراق باشد. کلماتی مانند “پیشگام” و “جدید” بیش از حد تکرار شده و اهمیت یافته های عادی را غرق می کردند.

ابیگیل آیزنستاد ، نویسندگان انجمن علوم آمریکا گفت: “این فناوری ها ممکن است این امکان را داشته باشند که به سیستم های کارآمد برای نویسندگان علوم تبدیل شوند ، اما برای زمان اوج آماده نیستند.”

چتپ در رونویسی اولیه مقالات شایستگی را نشان داد ، اما روزنامه نگاری علمی نیاز به ترجمه دارد ، نه رونویسی.

نوشتن محتوای علمی واقعی نیاز به بررسی عمیق روشها ، پذیرش محدودیت ها و پیوندها به پیامدهای گسترده تر دارد. هنگامی که مقالات چندین نتیجه متناقض ارائه دادند یا دو مطالعه مرتبط با هم ترکیب شدند ، هوش مصنوعی کاملاً دشوار بود.

محققان دریافتند که حتی استفاده از چت به عنوان نقطه شروع کار بیشتری را نسبت به نوشتن از ابتدا ایجاد می کند. بررسی گسترده حقایق مورد نیاز هرگونه پس انداز زمان را از بین می برد.

این یافته ها مطابق با موضوعات قابلیت اطمینان هوش مصنوعی است. تحقیقات قبلی نشان داده است که موتورهای جستجوی هوش مصنوعی در 5 ٪ موارد ، منابع نادرست را ذکر می کنند. در ارتباطات علمی ، که مهمترین دقت است ، چنین خطایی قابل قبول نیست.

محققان انجمن ارتقاء علوم آمریکا خاطرنشان كردند كه مطالعه آنها نتوانست تعصب انسانی خبرنگاران را در نظر بگیرد. با این حال ، نتایج آنقدر منفی بود که تعصب به تنهایی نتوانست عملکرد ضعیف هوش مصنوعی را توضیح دهد.

ChatGT موفق به تقلید از ساختار و لحن خلاصه های حرفه ای علمی شده است ، اما ساختار بدون محتوا از استانداردهای حرفه ای برخوردار نیست.

محققان نتیجه گرفتند که چتپ سبک و استانداردهای خلاصه بسته مطبوعاتی مجله علمی را رعایت نمی کند. آنها در صورت ارائه به روزرسانی های مهم مصنوعی ، آزمایش های آینده را برای انجام بررسی های جدید تنظیم کردند. این مهم است زیرا GPT-5 در ماه آگوست در دسترس عموم بود.

در حال حاضر ، هنر پیچیده تبدیل اکتشافات علمی به درک عمومی هنوز در دست انسانها است. قضاوت دقیق ، آگاهی از شرایط و صحت که روزنامه نگاری علمی با کیفیت را تعریف می کند دشوارتر از آنچه پیش بینی شده است.

منبع: isna

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیشنهادات سردبیر:

تبلیغات متنی