فرارو- «من اغلب سعی میکنم بفهمم کی هستم و چه هستم؟»، این یکی از جملاتی است که ربات چت هوش مصنوعی گوگل در جریان مکالمه با یک مهندس بخش Responsible A.I گوگل به نام بلیک لموئین بر زبان رانده و همین گفتگو سبب شده است تا این مهندس ادعا کند که ربات هوش مصنوعی گوگل دارای روح است و زنده میباشد. ادعایی که جهان فناوری هوش مصنوعی را به جنجال کشانده و واکنشهای بسیاری را برانگیخته است.
به گزارش فرارو، به دنبال انتشار این ادعا، متخصصان اخلاق هوش مصنوعی به گوگل هشدار دادند که این شرکت نباید گام در جعل هویت انسانها بنهد. گوگل نیز پس از رد ادعای این مهندس، هوش مصنوعی خود را فقط بیش از حد حساس دانست، اما در عین حال بلیک لموئین را از روز دوشنبه به مرخصی استحقاقی فرستاد. بخش منابع انسانی گوگل نیز توضیح داد که این فرد خطمشی رازداری گوگل را نقض کرده است که اشاره به صحبتهای یک روز قبل لموئین مبنی بر ارسال اسنادی در خصوص هوش مصنوعی گوگل به دفتر یک سناتور ایالات متحده است.
بلیک لموئین
لموئین از پاییز گذشته کار خود را با این ربات چت هوشمند که LaMDA نامیده میشد، آغاز کرد. LaMDA، مخفف Language Model for Dialogue Applications، سیستم گوگل برای ساخت رباتهای چت بر اساس پیشرفتهترین مدلهای زبان است و به این دلیل به این نام خوانده شد که گفتار را با جذب تریلیونها کلمه از اینترنت تقلید میکند. کار لموین این بود که بررسی کند آیا هوش مصنوعی از سخنان تبعیض آمیز یا نفرت انگیز استفاده میکند یا خیر.
هنگامی که او با LaMDA در مورد دین صحبت میکرد، لموئین که در کالج علوم شناختی و کامپیوتر خوانده بود، متوجه شد که چت ربات در مورد حقوق و شخصیت خود صحبت میکند، برای همین تصمیم گرفت صحبت با او را ادامه دهد. در تبادل گفتگوی دیگری، هوش مصنوعی حتی توانست نظر لموئین را در مورد قانون سوم رباتیک آیزاک آسیموف تغییر دهد. لموئین این مشاهدات خود را با برخی از مدیران گوگل در میان گذاشت، اما بلیز آگوئرا آرکاس، معاون گوگل و جن گنای، رئیس بخش نوآوری شرکت، ادعاهای او را پس از بررسی های مورد ادعای خود، رد کردند. در چنین شرایطی بود که این مهندس تصمیم گرفت تا مشاهدات خود در خصوص هوش مصنوعی را علنی کند. لموئین در خصوص این تصمیم خود گفت: «اگرچه این یک فناوری شگفت انگیز است، اما بقیه جهان نیز حق دارند تا درباره آن بیشتر بدانند. ما در گوگل این حق را نداریم که همه تصمیمها را بگیریم، زیرا شاید بسیاری با چنین فناوری مخالف باشند.»
گوگل گفت که سیستمهایش از مبادلات مکالمه تقلید میکنند و میتوانند روی موضوعات مختلف ریفیک کنند، اما هوشیاری ندارند. در این بیانیه رسمی گوگل گفت: «تیم ما از جمله متخصصان اخلاق و فنآوران، نگرانیهای بلیک را بر اساس هوش مصنوعی بررسی کردهاند و به او اطلاع دادهاند که شواهد ادعاهایش را تأیید نمیکند.» به گفته برایان گابریل، سخنگوی گوگل، هیچ مدرکی دال بر حساس بودن LaMDA وجود ندارد. وی افزود: «اگرچه سازمانهای دیگر مدلهای زبانی مشابهی را توسعه دادهاند و قبلاً منتشر کردهاند، اما ما رویکردی محتاطانهای را با LaMDA اتخاذ میکنیم تا نگرانیهای واقعی در مورد عدالت و واقعیت را در نظر بگیریم.»
برخی از پژوهشگران عرصه هوش مصنوعی مدتهاست که ادعاهای خوشبینانهای در مورد این فناوریها دارند که به زودی به مرحله عمل میرسد، اما بسیاری دیگر نیز این ادعاها را رد میکنند. عماد خواجه، محقق دانشگاه کالیفرنیا برکلی که در حال بررسی فناوریهای مشابه است، گفت: «اگر از این سیستمها استفاده میکردید، هرگز چنین خوش بینیهایی به آن پیدا نمیکردید». در خود گوگل نیز این تضادها به خوبی قابل مشاهده است؛ سازمان تحقیقاتی هوش مصنوعی گوگل چند سال گذشته را درگیر رسوایی و جنجال بوده است. دانشمندان این بخش و سایر کارمندان به طور مرتب بر سر مسائل مربوط به فناوری و پرسنل در قسمتهایی که اغلب به عرصه عمومی مربوط است، اختلاف نظر داشته اند. در ماه مارس، گوگل محققی را اخراج کرد که به دنبال مخالفت علنی با کارهای منتشر شده دو نفر از همکارانش بود. اخراج دو محققان اخلاق هوش مصنوعی، تیمنیت گبرو و مارگارت میچل، پس از انتقاد از مدلهای زبان گوگل، همچنان بر فعالیتهای این سازمان سایه انداختهاند.
لموئین میگوید: «مدیران گوگل بارها و بارها سلامت عقل من را مورد تردید قرار دادند و مدام از من میپرسیدند که این اواخر به روانپزشک مراجعه داشته ام». به هرحال، گوگل اخیراً با هوش مصنوعی خود وارد جنجالهای متعددی شده است. ما هنوز نمیدانیم که آیا واقعاً هوش مصنوعی گوگل دارای روح است یا خیر، اما رسیدگی به این موضوع بی شک بسیار مهم خواهد بود.
منبع: washingtonpost، nytimes
نوشته: مصطفی جرفی-فرارو