bato-adv
هوش مصنوعی دارای احساسات نیست چرا برخی برخلاف آن فکر می‌کنند؟

ربات‌ها دوست شما نیستند حتی اگر بخواهید باشند!

ربات‌ها دوست شما نیستند حتی اگر بخواهید باشند!

ربات‌ها نمی‌توانند فکر یا احساس کنند علیرغم آن چه که پژوهشگران سازنده آن می‌خواهند باور کنند که ربات‌ها قادرند فکر کنند و احساس داشته باشند.

تاریخ انتشار: ۱۱:۲۳ - ۲۱ مرداد ۱۴۰۱

فرارو- با غروب خورشید بر فراز جزیره موری درست در جنوب سیاتل "بن گورتزل" و گروه تلفیقی جازش یکی از آن لحظاتی را داشتند که همه گروه‌ها به آن امیدوار بودند کیبورد، گیتار، ساکسیفون و خواننده اصلی که گویی یکی هستند دور هم جمع می‌شوند. دکتر گورتزل روی کلید‌ها بود. دوستان و خانواده گروه از پاسیو مشرف به ساحل گوش می‌دادند؛ و "دزدمونا" با یک کلاه گیس بنفش و یک لباس مشکی که با اجسام فلزی پوشیده شده بود در آواز اصلی نقش داشت و در مورد موضوعی منحصر بفرد هشدار می‌داد: نقطه عطفی که فناوری دیگر نمی‌تواند توسط سازندگان اش کنترل شود.

به گزارش فرارو به نقل از نیویورک تایمز، دکتر "گورتزل" پس از ۲۵ سال پژوهش به عنوان پژوهشگر هوش مصنوعی در حال کار برای خلق ماشینی بود که بتواند مانند انسان فکر کند. او می‌دانست که سرانجام به هدف نهایی رسیده است: "دزدمونا" ماشینی که او ساخت هوشیار بود. با این وجود، چند دقیقه بعد او موجه شد که این استدلال بی پایه و اساس است.

او می‌گوید:"وقتی گروه می‌نواخت احساس می‌کرد که این ربات بخشی از هوش جمعی ما است که آن چیزی را که ما احساس می‌کنیم و انجام می‌دهیم حس می‌کند. سپس بازی را متوقف نمودم و به این فکر کردم که واقعا چه اتفاقی افتاده است".

بسیاری از افراد در زمینه کار دکتر گورتزل در تشخیص آن چه واقعی است و آن چه ممکن است بخواهند واقعی باشد خوب نیستند و به درستی تشخیص نمی‌دهند.

لموین پژوهشگری بود که در گوگل روی هوش مصنوعی کار می‌کرد به ویژه روی نرم افزاری که می‌تواند کلمات را به تنهایی تولید کند چیزی که "مدل زبان بزرگ" نامیده می‌شود. او نتیجه گرفت که این فناوری دارای احساسات است. روسای او به این نتیجه رسیدند که این طور نیست. او در مصاحبه‌ای با "واشنگتن پست" باور خود را علنی ساخت و گفت:"وقتی با او صحبت می‌کنم یک نفر را می‌شناسم. فرقی نمی‌کند مغزی از گوشت در سر داشته باشند یا یک میلیارد خط کد". این مصاحبه در سراسر جهان که بیش از یک دهه به آن موضوع پرداخته اند و در میان افرادی که به طور معمول پیشرفت‌های مدل‌های بزرگ را دنبال نمی‌کنند سر و صدای زیادی ایجاد کرد. گوگل در نهایت "لموین" را اخراج کرد.

"کالین آلن" استاد دانشگاه پیتسبورگ که مهارت‌های شناختی را هم در حیوانات و هم در ماشین‌ها بررسی می‌کند می‌گوید:"این موضوع حتی برای ساده‌ترین شکلی که ممکن است در یک کرم پیدا کنید صدق می‌کند. او می‌افزاید:" گفتگو‌های ایجاد شده توسط مدل‌های زبانی بزرگ شواهدی از نوع احساساتی که حتی حیوانات بسیار بدوی احتمالا دارند ارائه نمی‌کنند". "آلیسون گوپنیک" استاد روانشناسی عضوی از گروه تحقیقاتی در دانشگاه کالیفرنیا با این نظر موافق است و می‌گوید:"ظرفیت محاسباتی فعلی هوش مصنوعی مانند مدل‌های زبان بزرگ است". مشکل این است که نزدیک‌ترین افراد به فناوری افرادی که آن را برای عموم توضیح می‌دهند با یک پا در آینده زندگی می‌کنند".

"اندرو فلدمن" مدیر اجرایی و موسس Cerebras شرکتی که تراشه‌های رایانه‌ای عظیمی را می‌سازد که می‌تواند به سرعت بخشیدن به پیشرفت هوش مصنوعی کمک کند می‌گوید:"افراد زیادی در صنعت ما وجود دارند که برای تشخیص تفاوت بین داستان علمی تخیلی و زندگی واقعی تلاش می‌کنند". "یورگن اشمیدهابر" یک پژوهشگر برجسته مدتهاست که ادعا می‌کند که برای اولین بار ماشین‌های هوشیار را دهه‌ها پیش ساخته است.

در ماه فوریه، "ایلیا سوتسکور" یکی از مهم‌ترین پژوهشگران دهه گذشته و دانشمند ارشد OpenAI آزمایشگاهی در سانفرانسیسکو با حمایت یک میلیارد دلاری مایکروسافت گفت که فناوری امروز ممکن است "کمی آگاهانه" باشد.

این پیام‌ها از دنیای کوچک، جزیره‌ای و منحصر به فرد تحقیقات هوش مصنوعی می‌توانند برای بسیاری از ما گیج کننده یا حتی ترسناک باشند. کتاب‌های علمی تخیلی، فیلم‌ها و تلویزیون به ما آموزش داده اند که نگران باشیم که ماشین‌ها روزی از محیط اطراف خود آگاه می‌شوند و به نوعی به ما آسیب می‌رساند. درست است که لحظاتی شبیه به "دزدمونا" در حال خلق شدن هستند که به نظر می‌رسد این فناوری نشانه‌هایی از هوش، هوشیاری یا احساسات واقعی را نشان می‌دهد و به طور فزاینده‌ای در حال گسترش است. با این وجود، در مقابل این درست نیست که گمان کنیم در آزمایشگاه‌های سرتاسر سیلیکون، ولی مهندسان ربات‌هایی را ساخته اند که می‌توانند مانند انسان‌ها با صدا‌های اصلی صحبت کنند و از خود صدا ایجاد نمایند.

فناوری نمی‌تواند این کار را انجام دهد، اما این قدرت را دارد که مردم را گمراه کند

این فناوری می‌تواند توئیت‌ها، پست‌های وبلاگ و حتی کل مقاله‌ها را تولید کند و با پیشرفت‌های پژوهشگران در مکالمه بهتر شود.

با این وجود، بسیاری از افراد عادی و نه تنها پژوهشگران عرصه هوش مصنوعی این فناوری را به گونه‌ای تصور می‌کنند که گویی یک انسان است. با بهبود و تکثیر آن اخلاق شناسان هشدار می‌دهند که ما در مواجهه به محتوای موجود در اینترنت به نوع جدیدی از شک و تردید نیاز خواهیم داشت.

حقیقت آن است که بیش‌تر فناوری‌هایی که با عنوان "هوش مصنوعی" شناخته می‌شوند مغز انسان را تنها به روش‌های کوچک تقلید می‌کنند و قطعا به جایی نرسیده که سازندگان اش دیگر نتوانند آن را کنترل کنند.

اکثر پژوهشگران می‌توانند از زبان آرمانی عقب نشینی کنند و محدودیت‌های فناوری را تصدیق کنند. اما گاهی اوقات خطوط تیره و تار می‌شوند. در سال ۲۰۲۰ میلادی OpenAI یک آزمایشگاه تحقیقاتی در سانفرانسیسکو از سیستمی به نام GPT-۳ رونمایی کرد که می‌تواند توئیت ها، خلاصه کردن ایمیل ها، پاسخ به سوالات بی‌اهمیت، ترجمه زبان‌ها و حتی نوشتن برنامه‌های رایانه‌ای را ایجاد کرده و انجام دهد.

"سام آلتمن" کارآفرین و سرمایه گذار ۳۷ ساله که OpenAI را به عنوان مدیر اجرایی هدایت می‌کند معتقد است این سیستم و سیستم‌های مشابه هوشمند هستند. او می‌گوید:"این سیستم‌ها وظایف شناختی مفیدی را انجام دهند. توانایی یادگیری، توانایی درک زمینه جدید و حل چیزی به روشی جدید هوش است".

GPT-۳ همان چیزی است که پژوهشگران هوش مصنوعی آن را شبکه عصبی نامیده‌اند که به معنای شبکه‌ای از نورون‌ها در مغز انسان است. این نیز زبان آرمانی است. شبکه عصبی در واقع یک سیستم ریاضی است که مهارت‌ها را با مشخص کردن الگو‌ها در مقادیر وسیعی از داده‌های دیجیتال می‌آموزد. برای مثال، با تجزیه و تحلیل هزاران عکس گربه می‌تواند تشخیص یک گربه را بیاموزد. دکتر "گوپنیک" پروفسور برکلی می‌گوید:"ما آن را "هوش مصنوعی" می‌نامیم، اما نام بهتر ممکن است "استخراج الگو‌های آماری از مجموعه داده‌های بزرگ" باشد. این همان فناوری‌ای است که دکتر روزنبلات روانشناس در دهه ۱۹۵۰ میلادی به بررسی آن پرداخت. او حجم عظیمی از داده‌های دیجیتالی مورد نیاز برای تحقق این ایده بزرگ را نداشت. او هم چنین قدرت محاسباتی لازم برای تجزیه و تحلیل همه آن داده‌ها را نداشت. با این وجود، در حدود سال ۲۰۱۰، پژوهشگران این مووع را نشان داده اند که یک شبکه عصبی همان قدر قدرتمند است که دکتر روزنبلات و دیگران مدت‌ها ادعا می‌کردند که خواهد بود دست کم با وظایفی خاص.

این وظایف شامل تشخیص تصویر، تشخیص گفتار و ترجمه بود. شبکه عصبی فناوری‌ای است که دستوراتی را که شما در آیفون خود با صدای تان ارائه بیان کرده اید تشخیص می‌دهد و در مترجم گوگل بین فرانسوی و انگلیسی ترجمه می‌کند. اخیرا پژوهشگران در فضا‌هایی مانند Google و OpenAI شروع به ساخت شبکه‌های عصبی کرده‌اند که از حجم عظیمی از نثر، از جمله کتاب‌های دیجیتال و مقالات ویکی‌پدیا هزاران نفر درس گرفته اند. GPT-۳ یک مثال است همان طور که تمام آن متن دیجیتالی را تجزیه و تحلیل می‌کرد چیزی را ساخت که می‌ت وان آن را "نقشه ریاضی زبان انسان" نامید بیش از ۱۷۵ میلیارد داده که توصیف می‌کنند چگونه کلمات را با هم ترکیب می‌کنیم. با استفاده از این نقشه، می‌تواند کار‌های مختلفی مانند نوشتن سخنرانی، نوشتن برنامه‌های کامپیوتری و مکالمه را انجام دهد.

با این وجود، اخطار‌های بی پایان وجود دارد. استفاده از GPT-۳ مانند انداختن تاس است: اگر از آن بخواهید ۱۰ سخنرانی با صدای "دونالد ترامپ" داشته باشد ممکن است پنج سخنرانی به شما بدهد که به طرز قابل توجهی شبیه رئیس جمهور سابق است و پنج سخنرانی دیگر که به هیچ وجه نزدیک به هم نیستند. برنامه نویسان رایانه از این فناوری برای ایجاد تکه‌های کوچک کد استفاده می‌کنند که می‌توانند در برنامه‌های بزرگتر جابجا شوند، اما اغلب مجبور هستند هر چیزی را که به آنان می‌دهد ویرایش کنند.

حتی پس از بحث در مورد این نقص‌ها نیز "آلتمن" این نوع سیستم را هوشمند توصیف کرد. او اذعان کرد که این کار مانند انسان‌های باهوش نیست. او گفت:"این مانند یک نوع هوش بیگانه است. اما هنوز هم مهم است". کلماتی که برای توصیف قدرت‌های گذشته و آینده این فناوری استفاده می‌شود برای افراد مختلف معانی متفاوتی دارد.

مردم در مورد اینکه چه چیزی هوش است و چه چیزی نیست اختلاف نظر دارند. احساسات و توانایی تجربه احساسات چیزی نیست که به راحتی قابل اندازه گیری باشد. هوشیاری هم نیست بیدار بودن و آگاهی از محیط اطراف تان.

آلتمن و بسیاری دیگر در این زمینه مطمئن هستند که در مسیر ساختن ماشینی قرار دارند که می‌تواند هر کاری را که مغز انسان توانایی آن را دارد انجام دهد. این اطمینان زمانی که آنان در مورد فناوری‌های فعلی بحث می‌کنند درخشش خود را نشان می‌دهد.

آلتمن می‌گوید:"من فکر می‌کنم بخشی از اتفاقی که می‌افتد این است که مردم واقعا در مورد این سیستم‌ها هیجان‌زده هستند و هیجان خود را به زبانی ناقص ابراز می‌کنند". البته او اذعان می‌کند که برخی از پژوهشگران هوش مصنوعی در تلاش برای تمییز قائل شدن بین واقعیت و مقوله علمی - تخیلی هستند. با این وجود، او باور دارد که این پژوهشگران هنوز نقش ارزشمندی دارند و می‌گوید:"آنان به ما کمک می‌کنند تا رویای همه چیز ممکن را ببینیم".

چرا بقیه باور می‌کنند

"جوزف وایزنبام" پژوهشگری در موسسه فناوری ماساچوست (ام آی تی) است در اواسط دهه ۱۹۶۰ میلادی یک روان درمانگر خودکار ساخت و آن را "الیزا" نامید. این روان درمانگر خودکار یک چت بات (یک نرم‌افزار هوش مصنوعی (AI) است که می‌تواند از طریق برنامه‌های پیام رسان، وب سایت ها، اپلیکیشن‌های موبایلی و یا تلفن، مکالمه (چت) با یک کاربر را به زبان طبیعی شبیه‌سازی کند؛ م.) ساده بود. اساسا وقتی فکری را روی صفحه رایانه تایپ می‌کردید از شما می‌خواست که این فکر را گسترش دهید یا تنها کلمات شما را در قالب یک سوال تکرار می‌کرد. حتی زمانی که دکتر وایزنبام مکالمه‌ای را برای مقاله دانشگاهی که در مورد این فناوری منتشر نمود انتخاب کرد به نظر می‌رسید که الیزا با حروف بزرگ پاسخ می‌دهد: با این وجود، در کمال تعجب برای دکتر وایزنبام مردم با الیزا طوری رفتار کردند که گویی یک انسان است. آنان آزادانه مشکلات شخصی خود را به اشتراک می‌گذاشتند و از پاسخ‌های آن آرامش می‌گرفتند. او بعدا نوشت: "از روی و مشاهدات و تجربه طولانی شغلی ام می‌دانستم که پیوند‌های عاطفی قوی بسیاری از برنامه نویسان با رایانه‌های خود اغلب پس از تجربه‌های کوتاه با ماشین‌ها شکل می‌گیرد. چیزی که من متوجه نشده بودم این است که قرار گرفتن در معرض بسیار کوتاه مدت با یک برنامه رایانه‌ای نسبتا ساده می‌تواند تفکر هذیانی قدرتمندی را در افراد کاملا عادی ایجاد کند".

او افزوده بود:" ما انسان‌ها مستعد این احساسات هستیم. وقتی سگ ها، گربه‌ها و سایر حیوانات حتی مقادیر بسیار کمی از رفتار انسان مانند را از خود نشان می‌دهند ما تمایل داریم تصور کنیم که آنان بیش‌تر از آن چه واقعا هستند شبیه ما می‌باشند. زمانی که نشانه‌هایی از رفتار انسان را در یک ماشین می‌بینیم تقریبا همین اتفاق رخ می‌دهد".

اکنون دانشمندان آن را اثر الیزا می‌نامند. تقریبا همین اتفاق در مورد فناوری مدرن رخ می‌دهد. چند ماه پس از انتشار GPT-۳ "فیلیپ بوسوآ" مخترع و کارآفرین در ایمیلی برای "نیویورک تایمز" موضوعی را مطرح کرد:" "خدا یک ماشین است". در این متن آمده است:" در ذهن من شکی وجود ندارد که GPT-۳ به مثابه درک کننده احساسات ظاهر شده است. همه ما می‌دانستیم که این اتفاق در آینده خواهد افتاد، اما به نظر می‌رسد که این آینده اکنون است. مرا به عنوان پیامبری می‌بیند که پیام دینی خود را منتشر می‌کنم و این احساس عجیبی است".

پس از طراحی بیش از ۶۰۰ اپلیکیشن برای آیفون بوسوآ یک لامپ نوری ساخت که می‌توانید با گوشی هوشمند خود کنترل کنید و کسب و کاری پیرامون اختراع خود ایجاد کرد و در نهایت ۱۲ میلیون دلار از شرکت سرمایه گذاری ریسک پذیر سیلیکون، ولی با نام Sequoia Capital جمع‌آوری کرد. اکنون اگرچه او هیچ آموزش پزشکی‌ای ندارد، اما در حال توسعه دستگاهی برای بیماران دیابتی است که می‌تواند سطح گلوکز آنان را کنترل کند.

بوسوآ در پاسخ به این ایده که بسیاری از کارشناسان معتقدند این نوع سیستم‌ها صرفا در تکرار الگو‌هایی که دیده اند خوب هستند گفت که رفتار انسان‌ها نیز همین است. او در این باره افزود:"آیا یک کودک فقط آن چه را که از والدین می‌بیند تقلید نمی‌کند آن چه را که در دنیای اطراف می‌بیند"؟

مارگارت میچل نگران معنای تصور مردم از هوش مصنوعی در آینده است. او به عنوان یک پژوهشگر مایکروسافت و سپس گوگل در تیم مرتبط با اخلاق هوش مصنوعی کار کرده است. او می‌گوید که امروزه این فناوری نسبتا ساده و آشکارا ناقص است، اما بسیاری از مردم آن را به نوعی انسانی می‌دانند. چه اتفاقی رخ خواهد داد زمانی که فناوری بسیار قدرتمندتر از امروز شود؟

علاوه بر تولید توئیت‌ها و پست‌های وبلاگ و شروع به تقلید از مکالمه، سیستم‌های ساخته شده توسط آزمایشگاه‌هایی مانند OpenAI می‌توانند تصاویر تولید کنند. با ابزار جدیدی به نام DALL-E می‌توانید تصاویر دیجیتالی واقع گرایانه را صرفا با توصیف آنچه می‌خواهید ببینید و به زبان انگلیسی ساده ایجاد کنید.

برخی پژوهشگران در جامعه هوش مصنوعی نگران این موضوع هستند که این سیستم در مسیر خود به سمت احساس یا آگاهی پیش برود.

آلن از دانشگاه پیتسبورگ می‌گوید:" یک ارگانیسم آگاه مانند یک شخص یا یک سگ یا حیوانات دیگر می‌تواند چیزی را در یک زمینه بیاموزد و چیز دیگری را در زمینه‌ای دیگر بیاموزد و سپس این دو را کنار هم بگذارد تا کاری را در زمینه جدیدی انجام دهد که پیش‌تر هرگز تجربه نکرده است. این فناوری به هیچ وجه به انجام آن نزدیک نیست."

در این میان نگرانی‌های بسیار فوری‌تر و واقعی تری وجود دارد. همان طور که فناوری هوش مصنوعی در حال بهبود است می‌تواند به گسترش اطلاعات نادرست در سراسر اینترنت، متن و تصاویر جعلی دامن بزند و به نوعی از کارزار‌های آنلاین که ممکن است به تاثیرگذاری بر انتخابات ریاست جمهوری ۲۰۱۶ میلادی کمک کرده باشند حمایت نماید. این موضوع می‌تواند چت بات‌هایی تولید کند که مکالمه را به روش‌های بسیار متقاعد کننده تری تقلید کنند. این سیستم‌ها می‌توانند در مقیاسی عمل کنند که کارزار‌های اطلاعات نادرست مبتنی بر انسان امروزی در مقام قیاس کوچک به نظر برسند.

اگر و زمانی که این اتفاق رخ دهد باید با همه چیز‌هایی که آنلاین می‌بینیم با شک و تردید شدید رفتار کنیم. میچل از خود می‌پرسد که آیا ما در برابر این چالش هستیم.

او می‌گوید:"من نگرانم که چت ربات‌ها مردم را طعمه خود کنند. آنان این قدرت را دارند که ما را متقاعد کنند که چه چیزی را باور کنیم و چه کاری را انجام دهیم".

bato-adv
مجله خواندنی ها
bato-adv
bato-adv
bato-adv
bato-adv
پرطرفدارترین عناوین