توهمات هوش مصنوعی اصطلاحی است برای زمانی که یک مدل هوش مصنوعی اطلاعات نادرست، گمراه کننده یا غیرمنطقی تولید می کند، اما آن را به گونه ای ارائه می دهد که گویی یک واقعیت است. توهم هوش مصنوعی گاهی اوقات به سختی قابل تشخیص است، زیرا دستور زبان و ساختار جملات تولید شده توسط هوش مصنوعی، علیرغم وجود نادرستی، اغلب هنگام خواندن آنها گویا و مطمئن به نظر می رسند.

توهمات هوش مصنوعی نتیجه مدل‌های زبان بزرگ (LLM) است که به ابزارهای هوش مصنوعی و چت‌بات‌های مولد (مانند ChatGPT) اجازه می‌دهد تا زبان را به روشی شبیه انسان پردازش کنند. اگرچه LLM ها برای تولید متن روان و منسجم طراحی شده اند، اما هیچ درکی از واقعیت زیربنایی که توصیف می کنند ندارند. تنها کاری که آنها انجام می‌دهند این است که پیش‌بینی می‌کنند کلمه بعدی بر اساس احتمال است، نه دقت.

توهمات هوش مصنوعی می‌توانند در سیستم‌های تشخیص تصویر و تولیدکننده‌های تصویر هوش مصنوعی رخ دهند، اما معمولاً با تولیدکنندگان متن هوش مصنوعی مرتبط هستند. آنها برای هر سازمان و فردی که از هوش مصنوعی مولد برای به دست آوردن اطلاعات و انجام کارشان استفاده می کنند و با دقت انجام می دهند، یک مشکل هستند.

عوامل توهمات هوش مصنوعی

توهمات هوش مصنوعی ناشی از عوامل مختلفی است، از جمله داده های آموزشی مغرضانه یا با کیفیت پایین، فقدان زمینه ارائه شده توسط کاربر یا برنامه نویسی ناکافی در مدل که آن را از تفسیر صحیح اطلاعات باز می دارد.

این پدیده همچنین می تواند تا حدی توضیح داده شود اگر شما نحوه عملکرد LLM ها را درک کنید. LLM ها با حجم عظیمی از داده های متنی، از جمله کتاب ها و مقالات خبری تغذیه می شوند. سپس این داده ها به حروف و کلمات تقسیم می شوند. در حالی که LLM ها از شبکه های عصبی برای کشف نحوه کار این کلمات و حروف با هم استفاده می کنند، آنها هرگز معنای کلمات را خودشان یاد نمی گیرند.

امیلی ام. بندر، استاد زبان‌شناسی و مدیر آزمایشگاه زبان‌شناسی محاسباتی دانشگاه واشنگتن، آن را اینگونه توضیح داد: «اگر کلمه «گربه» را ببینید، بلافاصله تجربیات گربه‌ها و چیزهایی درباره گربه‌ها را تداعی می‌کند. برای مدل زبان بزرگ، دنباله ای از کاراکترهای C-A-T است.” «سپس در نهایت اطلاعاتی در مورد اینکه با چه کلمات دیگری و چه توالی شخصیت‌های دیگری همراه است به دست می‌آورد.»

بنابراین در حالی که LLMها توانایی نوشتن انواع چیزها را دارند، هنوز نمی توانند واقعیت اساسی آنچه را که در مورد آن صحبت می کنند درک کنند.

توهمات هوش مصنوعی و عوامل آن چیست؟ بیشتر بخوانید: آموزش فعالسازی IPv6 در مودم

شین اورلیک، رئیس تولیدکننده محتوای هوش مصنوعی جاسپر، می گوید: «[هوش مصنوعی مولد] واقعاً هوشمند نیست، بلکه تطبیق الگو است. “برای داشتن پاسخ طراحی شده است، حتی اگر پاسخ از نظر واقعی درست نباشد.”

با این حال، اگر داده‌های آموزشی آن‌ها نادرست یا مغرضانه باشد، یا اگر مدل خیلی پیچیده باشد و محافظ کافی به آن‌ها داده نشود، LLM ها تمایل دارند چیزها را اشتباه بگیرند.

توهمات هوش مصنوعی و عوامل آن چیست؟

چگونه از توهمات هوش مصنوعی جلوگیری کنیم؟

همه رهبران در فضای مولد هوش مصنوعی در حال تلاش برای کمک به حل مشکل توهمات هوش مصنوعی هستند.

Google Gemini را به اینترنت متصل کرد تا پاسخ‌های آن بر اساس داده‌های آموزشی و اطلاعاتی که در وب پیدا می‌کند باشد. OpenAI همین کار را برای ChatGPT انجام داد. و OpenAI برای اصلاح ChatGPT با بازخورد آزمایش‌کنندگان انسانی، با استفاده از تکنیکی به نام یادگیری تقویتی، کار کرده است. این شرکت همچنین یک استراتژی جدید برای پاداش دادن به مدل‌ها برای هر فرد پیشنهاد کرد، مرحله درست استدلال هنگام رسیدن به پاسخ، به جای صرف پاداش دادن به پاسخ نهایی. به گفته این شرکت، این رویکرد نظارت فرآیند نامیده می شود و می تواند به هوش مصنوعی قابل توضیح تر منجر شود. اما برخی از کارشناسان تردید دارند که این می تواند راهی موثر برای مبارزه با جعلیات باشد.

Riesbeck از Northwestern گفت که مدل‌های مولد هوش مصنوعی «همیشه توهم‌آور هستند». آنها صرفاً به دلیل ماهیت خود، همیشه “چیزهایی را می سازند”. بنابراین از بین بردن احتمال توهمات هوش مصنوعی که اطلاعات نادرست تولید می کنند، اگر غیرممکن نباشد، می تواند دشوار باشد. اما اقداماتی وجود دارد که هم شرکت ها و هم کاربران می توانند برای مقابله با آنها و محدود کردن آسیب آنها انجام دهند.


تالیف:
فروشگاه اینترنتی آ.اس.پ (اقتباس از مقاله‌ای از Builtin)
در صورت استفاده از این مقاله، نام و آدرس فروشگاه اینترنتی آ.اس.پ را به عنوان منبع ذکر کنید.