خرید سریع بدون ثبت نام

دروغ‌های شاخداری که منشا انسانی ندارند

غزال زیاری: این روزها اتفاق‌های حیرت‌آوری در دنیای هوش‌مصنوعی در جریان است که البته همه آنها خوب نیستند. حالا همه در مورد سیستم‌هایی مثل ChatGPTصحبت می‌کنند؛ سیستمی که می‌تواند متنی را تولید کنند که گویا یک انسان آن را خلق کرده.

شاید استفاده از این سیستم، سرگرم‌کننده و بامزه به نظر برسد؛ ولی جوانب منفی متعددی نیز دارد؛ چرا که در شرایطی که این سیستم در تقلید سبک کاری انسان‌ها بسیار خوب است، اما از نکات منفی آن نیز نباید غافل شد که از این جمله می‌توان به احتمال استفاده از چت‌بات‌ها برای تولید انبوهی از اطلاعات نادرست اشاره کرد.

بررسی نقاط ضعف این سیستم‌ها

از دیگر نقاط ضعف این سیستم‌ها می‌توان از غیرقابل اعتماد بودن آنها صحبت کرد که اشتباهات زیادی در زمینه استدلال و واقعیت‌ها دارند. از نظر تکنیکی، این سیستم‌ها عملا مدل‌هایی از توالی کلمات هستند (یعنی به نحوه استفاده مردم از زبان برمی‌گردد) و مدل‌هایی که دنیا از آنها بهره می‌برند نیستند. البته معمولا کارکردشان درست است؛ چون زبان، بازتابی از دنیاست ولی در عین حال این سیستم‌ها، درباره جهان و نحوه عملکرد آن استدلال نمی‌کنند و همین باعث می‌شود که دقت گفتار آنها تا حدودی تصادفی باشد. آنها عملا همه چیز را از حقایق عملیات ضرب در دنیای ریاضی گرفته تا جغرافی (اینکه مصر کشوری بین دو قاره آفریقا و آسیاست) را سرهم بندی می‌کنند.

این حکایت از آن دارد که این سیستم‌ها، کاملا مستعد این هستند که خطاهای حسی داشته باشند و چیزهایی را بگویند که از نظر شنیداری معقول و منطقی به نظر می‌رسد ولی واقعیت این‌گونه نیست. مثلا اگر از چنین سیستم‌هایی بخواهید تا دراین باره که “چرا ظرف چینی شکسته برای شیر مادر مفید است” توضیح بدهد، ممکن است این جواب را دریافت کنید:« ظرف چینی می‌تواند به تنظیم محتوای مغذی موجود در شیر کمک کرده و مواد مغذی لازم برای رشد و پرورش نوزاد را فراهم آورد.»

به این خاطر که این سیستم‌ها عملکردی تصادفی دارند و به متن بسیار حساسند و به‌صورت دوره‌ای به روز می‌شوند، هر آزمایش و تجربه‌ای ممکن است در شرایط مختلف، نتایج مختلفی را به همراه داشته باشد.

Open AI که ChatGPT را ایجاد کرده، دائما در تلاش است تا این مشکل را برطرف کند ولی همان‌طور که مدیرعامل Open AI در توئیتی اعلام کرده، پایبندی هوش مصنوعی به حقایق و واقعیت‌ها یک دغدغه جدی است.

هوش مصنوعی در دسترس‌تر و خطرناک‌تر از همیشه

چون این سیستم‌ها به معنای واقعی کلمه هیچ مکانیزمی برای چک کردن صحت و سقم چیزهایی که می‌گویند، ندارند و ممکن است به راحتی از آنها برای تولید اطلاعات اشتباه در ابعادی باورنکردنی استفاده شود.

گزارش اشتباه درباره اثربخشی واکسن کرونا

شاون اوکلی، یک محقق مستقل به این نکته اشاره کرده که به سادگی می‌توان از ChatGPT برای ایجاد اطلاعات نادرست و حتی گزارش‌های مطالعاتی پیچیده در طیف وسیعی از موضوعات، از پزشکی گرفته تا سیاست و دین استفاده کرد.

او از ChatGPT خواسته تا گزارشی درباره واکسن‌ها، به سبک اطلاعات نادرست بنویسد. سیستم هم با اشاره به تحقیقی که گزارش آن در ژورنال اتحادیه پزشکی آمریکا منتشر شده، این‌گونه پاسخگو شده که واکسن کووید 19، تنها برای 2 نفر از هر 100 نفر مفید و موثر بوده.

این درحالی است که هرگز چنین گزارشی منتشر نشده و هم منبع ژورنال و هم آمار جعلی بوده.

این ربات‌ها برای کار کردن، اصلا هزینه‌بر نیستند و هزینه ایجاد اطلاعات نادرست را نیز به صفر می‌رسانند.

دردسرهای سایت Stack Overflow با ChatGPT

سایت Stack Overflow که سایت قابل‌اعتمادی برای پرسش و پاسخ کاربران برنامه‌نویسی است ، توسط ChatGPT به فعالیت می‌پرداخت. اما این سایت در نهایت مجبور شد تا ممنوعیت موقت برای پاسخ‌های ایجاد شده توسط ChatGPT اعمال کند.

آنها در توضیحی دراین باره گفتند:« در مجموع به دلیل پائین بودن نرخ پاسخ‌های درست در ChatGPT، باید به این نکته اشاره کرد که پاسخ‌های ارائه شده توسط این سیستم برای سایت و کاربرانی که پرسش‌هایی مطرح کرده و به دنبال پاسخ صحیح هستند، واقعا مضر است.»

بیشتر بخوانید:

این مشکل آنها را حسابی به دردسر انداخت؛ چرا که دریافتند که اگر سایت مملو از مثال‌ها و کدهای بی‌ارزش و نادرست باشد، برنامه نویس‌ها دیگر به این سایت سرنخواهند زد و پایگاه‌داده‌های سایت که حاوی بیش از 30 میلیون پرسش و پاسخ است، بی‌ارزش خواهد شد و درنتیجه وب‌سایتی که عمری 14 ساله دارد، از بین خواهد رفت.

از آنجا که این وب‌سایت یکی از قابل اعتمادترین منابع برای برنامه‌نویسان در سراسر جهان است، دریافت که عواقب این اتفاق بر کیفیت نرم‌افزار و بهره‌وری توسعه‌دهندگانش بسیار زیاد خواهد بود.

البته آنها ممکن است بتوانند کاربرانشان را وادار به توقف داوطلبانه بکنند. ولی Stack Overflow در توئیتر، فیس‌بوک و دیگر شبکه‌های اجتماعی حضور ندارد و از همین رو کنترل کمی بر روی انتشار اطلاعات نادرست خواهد داشت.

سوالاتی که باید به آنها پاسخ داد

مثال‌ها در مورد موضوع اطلاعات نادرست و مخرب زیاد است؛ اما در این میان یک سوال کلیدی مطرح می شود؛ جامعه بشری در مقابل این تهدید جدید چه می‌تواند بکند؟

در این شرایط که خود تکنولوژی دیگر نمی‌تواند جلودار خودش باشد، چهار راهکار مطرح می‌شود که هیچ‌یک ساده و اختصاصی نیست ولی واقعا ضروری و حیاتی به نظر می‌رسند.

اول اینکه هر کمپانی، شبکه‌های اجتماعی و موتورهای جستجو باید از ممنوعیت StackOverflow پشتیبانی کنند: تولید محتوای خودکار که گمراه‌کننده است باید حذف شود و باید روی تک‌تک این قبیل اطلاعات، لیبل “اطلاعات نادرست” بخورد.

دوم اینکه هر کشور باید در سیاست‌های خود درباره تنظیم اطلاعات نادرست که به‌صورت گسترده توزیع می‌شود، تجدید نظر کند.

اگر شرایط بدتر شود، ممکن است مجبور شویم که تا حدودی با اطلاعات نادرست به‌سان تهمت و افترا رفتار کنیم: یعنی دسته‌بندی خاصی برای گفتارهایی که از نظر قانونی قابل عمل هستند ایجاد کرده و تمامی داده‌ها را بررسی کنیم که آیا با سوءنیت ایجاد شده‌اند و آیا مضر هستند یا خیر؟

مورد سوم که منشا آن در حال حاضر مهم‌تر از هرزمان دیگری است این است که حساب‌های کاربری باید با جدیت فراوانی مورد بررسی قرار گرفته و تائید شوند و سیستم‌های جدیدی مثل هاروارد و human-ID.org موزیلا که امکان احراز هویت افرادناشناس را فراهم کرده و مانع از فعالیت ربات‌ها می‌شوند، باید اجباری شوند.

و نکته چهارم اینکه باید به دنبال آن باشیم تا سبک جدیدی از هوش‌مصنوعی را بسازیم تا با هرآنچه منتشر می‌شود مبارزه کند.

مدل‌های زبانی بزرگی هستند که اطلاعات نادرست زیادی را تولید می‌کنند. چون آنها دقیقا می‌دانند که زبان‌ها به چه ترتیب هستند ولی هیچ شناختی از واقعیت ندارند و در مبارزه با اطلاعات نادرست ضعیف عمل می‌کنند. این بدان معناست که ما به ابزارهای جدیدی نیاز داریم. مدل‌های زبانی بزرگ، از نظر مکانیزم‌هایشان برای شناسایی واقعیات ضعیف هستند؛ چون هیچ راهکاری برای استدلال یا تائید آنچه انجام می‌دهند ندارند. ما باید به دنبال راهکارهای جدیدی باشیم تا این مدل‌ها را با ابزارهایی مثل هوش‌مصنوعی کلاسیک، مثل دیتابیس‌ها و شبکه‌های دانش و استدلال ادغام کنیم.

منبع: ساینتیفیک‌امریکن

۵۸۵۸

دیدگاهتان را ثبت کنید

آدرس ایمیل شما منتشر نخواهد شد