اکنون توییتر قابلیت اضافه کردن یادداشتهای راستیآزمایی را برای تصاویر نیز در دسترس کاربران قرار داده است تا با وجود اطلاعاتی که زیر هر تصویر نمایش داده میشود، سایر کاربران به راحتی بتوانند تصاویر جعلی و حتی مواردی که توسط هوش مصنوعی ساخته شده است را تشخیص بدهند.
با انتشار تصویر جعلی از انفجار در پنتاگون، توییتر تصمیم گرفت از انتشار تصاویر جعلی در این پلتفرم جلوگیری کند.
به گزارش همشهری آنلاین به نقل از تک کرانچ، چند روز پیش، یکی از حسابهای کاربری توییتر که اتفاقا تیک آبی هم دارد، تصویری جعلی از وقوع انفجار در پنتاگون که گویا با هوش مصنوعی ساخته شده بود، منتشر کرد.
از زمانی که جعلی بودن این تصویر ثابت شد، توییتر قصد دارد برنامه راستیآزمایی خود را که در آن از کاربران نیز کمک گرفته میشود، گسترش بدهد تا با ویژگی جدیدی تحت عنوان Community Notes تصاویر را نیز شامل شود. این برنامه راستی آزمایی توییتر البته سال گذشته معرفی شد و کاربران از طریق آن میتوانند محتواهای جعلی و نادرست را در این پلتفرم تشخیص بدهند و به این ترتیب زیر توییتها یادداشتهایی ظاهر میشود.
اکنون توییتر قابلیت اضافه کردن یادداشتهای راستیآزمایی را برای تصاویر نیز در دسترس کاربران قرار داده است تا با وجود اطلاعاتی که زیر هر تصویر نمایش داده میشود، سایر کاربران به راحتی بتوانند تصاویر جعلی و حتی مواردی که توسط هوش مصنوعی ساخته شده است را تشخیص بدهند.
توییتر در اطلاعیهای پس از این اتفاق، بهطور خاص به تصاویر تولید شده توسط هوش مصنوعی اشاره کرده است که ترکیبی از محتواهای گمراه کننده، ترسناک و سرگرمکننده را تشکیل میدهند که بسیار سریع در این شبکه اجتماعی فراگیر میشوند.
توییتر در پست وبلاگ خود نوشت: هدف Community Notes ایجاد دنیایی آگاهتر از طریق توانمندسازی افراد در توییتر برای اضافه کردن زمینههای بیشتر به توییتهای بالقوه گمراهکننده است.
درحال حاضر ویژگی Community Notes فقط برای توییتهایی که فقط یک تصویر دارند محدود شده است و نمیتوان آن را برای ویدئوها یا پستهایی که شامل چند تصویر میشود، اعمال کرد.
با وجود این در حساب اصلی توییتر، متنی منتشر شده و در آن توضیح داده است که برای برطرف کردن این کمبود مهم در تلاش است. البته توییتر تأکید کرده است که این قابلیت هنوز دقت کافی را ندارد و احتمالا در برخی موارد دچار اشتباه میشود.