یک جراح چشم گفت: GPT-۴ یک مجموعه داده جعلی از صدها بیمار را در عرض چند دقیقه ایجاد کرده و این اتفاق یک تجربه غافلگیر کننده و در عین حال ترسناک برای او بوده است.
یک حقیقت رایج در میان آماردانان این است که «دادهها دروغ نمیگویند.» با این حال، یافتههای اخیر محققان ایتالیایی ممکن است کسانی را که دادهها را مطالعه میکنند، وادار کند تا درباره این موضوع دوباره فکر کنند.
به گزارش ایرنا از techxplore.com، یک جراح چشم در دانشگاه کالیاری در ایتالیا، گزارش میدهد که ChatGPT مجموعهای از دادههای جعلی متقاعدکننده را برای پشتیبانی از یک عمل جراحی چشم نسبت به دیگری ایجاد کرده است.
این جراح چشم گفت: GPT-۴ یک مجموعه داده جعلی از صدها بیمار را در عرض چند دقیقه ایجاد کرده و این اتفاق یک تجربه غافلگیر کننده و در عین حال ترسناک برای او بوده است. از زمانی که یک سال پیش این مدل هوش مصنوعی به دنیا معرفی شد، داستانهای بیشماری از دستاوردها و پتانسیلهای بزرگ ChatGPT وجود داشته است، اما در کنار نکات مثبت این دستاورد، مخاطراتی نیز در خصوص تولید اطلاعات اشتباه یا کاملاً نادرست وجود داشته است.
جک ویلکینسون (Jack Wilkinson)، آمارشناس زیستی در دانشگاه منچستر، درانگلیس میگوید: «به نظر میرسد ایجاد مجموعهای از دادهها که حداقل به صورت سطحی قابل قبول باشند، بسیار آسان است.
وی همچنین گفت: خروجی GTP-۴ «برای یک چشم آموزش ندیده (افراد غیر متخصص و عادی)، مطمئناً مانند یک مجموعه داده واقعی به نظر میرسد.»
مقالهای تحت عنوان «Large Language Model Advanced Data Analysis Abuse to Create a Fake Data Set in Medical Research» که در مجله چشم پزشکی JAMA منتشر شده است، تصدیق میکند که بررسی دقیقتر دادهها میتواند نشانههای آشکار ساخت احتمالی را نشان دهد.
کارشناسان میگویند از آنجا که خروجی تولید شده توسط هوش مصنوعی مطالعات واقعی را آلوده میکند، از آن میتوانیم در توسعه رویکردهای بهتر برای کشف تقلب هم استفاده کنیم.
هدف تحقیقات مختلف در این حوزه، روشن کردن جنبه تاریک هوش مصنوعی، با نشان دادن اینکه چقدر ایجاد و دستکاری دادهها برای دستیابی به نتایج مغرضانه و تولید شواهد پزشکی نادرست آسان است، بیان شده است. هنوز نمیدانیم جامعه علمی در برابر سوء استفادهها و تهدیدات احتمالی مرتبط با هوش مصنوعی چه واکنشی نشان خواهد داد.