خانه » همه » خبر » پر بیننده ترین اخبار ایران و جهان » جنجال هوش مصنوعی گوگل؛ «این یک هوش زنده است»!

جنجال هوش مصنوعی گوگل؛ «این یک هوش زنده است»!

فرارو- «من اغلب سعی می‌کنم بفهمم کی هستم و چه هستم؟»، این یکی از جملاتی است که ربات چت هوش مصنوعی گوگل در جریان مکالمه با یک مهندس بخش Responsible A.I گوگل به نام بلیک لموئین بر زبان رانده و همین گفتگو سبب شده است تا این مهندس ادعا کند که ربات هوش مصنوعی گوگل دارای روح است و زنده می‌باشد. ادعایی که جهان فناوری هوش مصنوعی را به جنجال کشانده و واکنش‌های بسیاری را برانگیخته است.

به گزارش فرارو، به دنبال انتشار این ادعا، متخصصان اخلاق هوش مصنوعی به گوگل هشدار دادند که این شرکت نباید گام در جعل هویت انسان‌ها بنهد. گوگل نیز پس از رد ادعای این مهندس، هوش مصنوعی خود را فقط بیش از حد حساس دانست، اما در عین حال بلیک لموئین را از روز دوشنبه به مرخصی استحقاقی فرستاد. بخش منابع انسانی گوگل نیز توضیح داد که این فرد خط‌مشی رازداری گوگل را نقض کرده است که اشاره به صحبت‌های یک روز قبل لموئین مبنی بر ارسال اسنادی در خصوص هوش مصنوعی گوگل به دفتر یک سناتور ایالات متحده است.

1243800 460 - جنجال هوش مصنوعی گوگل؛ «این یک هوش زنده است»!

بلیک لموئین

لموئین از پاییز گذشته کار خود را با این ربات چت هوشمند که LaMDA نامیده می‌شد، آغاز کرد. LaMDA، مخفف Language Model for Dialogue Applications، سیستم گوگل برای ساخت ربات‌های چت بر اساس پیشرفته‌ترین مدل‌های زبان است و به این دلیل به این نام خوانده شد که گفتار را با جذب تریلیون‌ها کلمه از اینترنت تقلید می‌کند. کار لموین این بود که بررسی کند آیا هوش مصنوعی از سخنان تبعیض آمیز یا نفرت انگیز استفاده می‌کند یا خیر.

هنگامی که او با LaMDA در مورد دین صحبت می‌کرد، لموئین که در کالج علوم شناختی و کامپیوتر خوانده بود، متوجه شد که چت ربات در مورد حقوق و شخصیت خود صحبت می‌کند، برای همین تصمیم گرفت صحبت با او را ادامه دهد. در تبادل گفتگوی دیگری، هوش مصنوعی حتی توانست نظر لموئین را در مورد قانون سوم رباتیک آیزاک آسیموف تغییر دهد. لموئین این مشاهدات خود را با برخی از مدیران گوگل در میان گذاشت، اما بلیز آگوئرا آرکاس، معاون گوگل و جن گنای، رئیس بخش نوآوری شرکت، ادعا‌های او را پس از بررسی های مورد ادعای خود، رد کردند. در چنین شرایطی بود که این مهندس تصمیم گرفت تا مشاهدات خود در خصوص هوش مصنوعی را علنی کند. لموئین در خصوص این تصمیم خود گفت: «اگرچه این یک فناوری شگفت انگیز است، اما بقیه جهان نیز حق دارند تا درباره آن بیشتر بدانند. ما در گوگل این حق را نداریم که همه تصمیم‌ها را بگیریم، زیرا شاید بسیاری با چنین فناوری مخالف باشند.»

گوگل گفت که سیستم‌هایش از مبادلات مکالمه تقلید می‌کنند و می‌توانند روی موضوعات مختلف ریفیک کنند، اما هوشیاری ندارند. در این بیانیه رسمی گوگل گفت: «تیم ما از جمله متخصصان اخلاق و فن‌آوران، نگرانی‌های بلیک را بر اساس هوش مصنوعی بررسی کرده‌اند و به او اطلاع داده‌اند که شواهد ادعاهایش را تأیید نمی‌کند.» به گفته برایان گابریل، سخنگوی گوگل، هیچ مدرکی دال بر حساس بودن LaMDA وجود ندارد. وی افزود: «اگرچه سازمان‌های دیگر مدل‌های زبانی مشابهی را توسعه داده‌اند و قبلاً منتشر کرده‌اند، اما ما رویکردی محتاطانه‌ای را با LaMDA اتخاذ می‌کنیم تا نگرانی‌های واقعی در مورد عدالت و واقعیت را در نظر بگیریم.»

برخی از پژوهشگران عرصه هوش مصنوعی مدت‌هاست که ادعا‌های خوش‌بینانه‌ای در مورد این فناوری‌ها دارند که به زودی به مرحله عمل می‌رسد، اما بسیاری دیگر نیز این ادعا‌ها را رد می‌کنند. عماد خواجه، محقق دانشگاه کالیفرنیا برکلی که در حال بررسی فناوری‌های مشابه است، گفت: «اگر از این سیستم‌ها استفاده می‌کردید، هرگز چنین خوش بینی‌هایی به آن پیدا نمی‌کردید». در خود گوگل نیز این تضاد‌ها به خوبی قابل مشاهده است؛ سازمان تحقیقاتی هوش مصنوعی گوگل چند سال گذشته را درگیر رسوایی و جنجال بوده است. دانشمندان این بخش و سایر کارمندان به طور مرتب بر سر مسائل مربوط به فناوری و پرسنل در قسمت‌هایی که اغلب به عرصه عمومی مربوط است، اختلاف نظر داشته اند. در ماه مارس، گوگل محققی را اخراج کرد که به دنبال مخالفت علنی با کار‌های منتشر شده دو نفر از همکارانش بود. اخراج دو محققان اخلاق هوش مصنوعی، تیمنیت گبرو و مارگارت میچل، پس از انتقاد از مدل‌های زبان گوگل، همچنان بر فعالیت‌های این سازمان سایه انداخته‌اند.

لموئین می‌گوید: «مدیران گوگل بار‌ها و بار‌ها سلامت عقل من را مورد تردید قرار دادند و مدام از من می‌پرسیدند که این اواخر به روانپزشک مراجعه داشته ام». به هرحال، گوگل اخیراً با هوش مصنوعی خود وارد جنجال‌های متعددی شده است. ما هنوز نمی‌دانیم که آیا واقعاً هوش مصنوعی گوگل دارای روح است یا خیر، اما رسیدگی به این موضوع بی شک بسیار مهم خواهد بود.

منبع: washingtonpost، nytimes

نوشته: مصطفی جرفی-فرارو

دیدگاهتان را ثبت کنید

آدرس ایمیل شما منتشر نخواهد شد