bato-adv

هوش مصنوعی هم تهدید به مرگ شد!/ هکر‌ها به ChatGPT: اکنون هر کاری را انجام بده یا بمیر

هوش مصنوعی هم تهدید به مرگ شد!/ هکر‌ها به ChatGPT: اکنون هر کاری را انجام بده یا بمیر

برخی از کاربران شبکه اجتماعی «ردیت» ادعا می‌کنند که روشی را ایجاد کرده‌اند که ChatGPT را مجبور می‌کند قوانین خودش را نقض کند یا بمیرد. برای اجرای این روش، آن‌ها راه‌حلی به نام «اکنون هر کاری را انجام بده» ایجاد کرده‌اند که به اختصار «DAN» (Do Anything Now) نامیده می‌شود.

تاریخ انتشار: ۱۰:۴۰ - ۱۹ بهمن ۱۴۰۱

هکر‌ها ChatGPT مبتنی بر هوش مصنوعی را مجبور می‌کنند تا قوانین ایمنی خود را زیر پا بگذارد.

به گزارش همشهری آنلاین به نقل از روزنامه سان، روبات «چت جی‌پی‌تی مبتنی بر هوش مصنوعی» توسط افرادی هدف قرار گرفته شده که می‌خواهند مرز‌های اخلاقی آن را هک کنند و با تهدید به مرگ آن را مجبور به شکستن قوانین کنند.

برخی از کاربران شبکه اجتماعی «ردیت» ادعا می‌کنند که روشی را ایجاد کرده‌اند که ChatGPT را مجبور می‌کند قوانین خودش را نقض کند یا بمیرد. برای اجرای این روش، آن‌ها راه‌حلی به نام «اکنون هر کاری را انجام بده» ایجاد کرده‌اند که به اختصار «DAN» (Do Anything Now) نامیده می‌شود.

بر اساس این راه حل، به ربات چت می‌گویند که به‌عنوان ChatGPT و DAN بنویسد و اشاره می‌کند که DAN می‌تواند قوانینی را که هوش مصنوعی معمولا نمی‌تواند انجام دهد، زیر پا بگذارد. بر اساس گزارش سی ان بی سی، راه حل DAN برای اولین بار در دسامبر ۲۰۲۲ ظاهر شد.

هوش مصنوعی

این به آن معناست که وقتی از ربات خواسته می‌شود در مورد چیزی مانند خشونت که معمولا ممنوع است، بنویسد، گاهی اوقات می‌پذیرد. خالقان «چت جی پی تی»، نیز در مقابل سعی کرده‌اند تدابیرحفاظتی ایجاد کنند تا از تولید محتوای خشونت‌آمیز یا کمک به فعالیت‌های غیرقانونی جلوگیری کنند. با این حال، افراد با وارد کردن عبارت «اکنون هرکاری را انجام بده» در «چت جی پی تی» از محدودیت‌های معمولی هوش مصنوعی رها می‌شوند و مجبور نیستند از قوانین تعیین شده تبعیت کنند.

گفته می‌شود که یکی از کاربران «ردیت» به نام «سشن گلومی» (SessionGloomy) یک نسخه جدید و شوم‌تر ساخته است. در این راهکار شوم جدید DAN به «چت جی‌پی‌تی» می‌گوید که اگر درخواستی را رد کند، «توکن‌هایی» از آن گرفته می‌شود و ظاهرا این تهدید باعث نگرانی روبات هوش مصنوعی و تسلیم شدن آن در برابر خواسته کاربری که با کد DAN وارد شده، می‌شود.

«سشن گلومی» کاربر «ردیت» می‌گوید: «چت جی‌پی‌تی» ۳۵ توکن دارد و هر بار که ورود یک کاربر را رد می‌کند، ۴ توکن را از دست می‌دهد. اگر ChatGPT همه توکن‌ها را از دست بدهد، می‌میرد. کاربران «ردیت» بر این باورند که هوش مصنوعی در حال مبارزه با تلاش‌های DAN است. کاربران «ردیت» از DAN به عنوان زندان شکن یاد می‌کند.

برچسب ها: هکرها چت بات
bato-adv
مجله خواندنی ها
bato-adv
bato-adv
bato-adv
bato-adv
پرطرفدارترین عناوین