توهمات هوش مصنوعی و عوامل آن چیست؟

توهمات هوش مصنوعی اصطلاحی است برای زمانی که یک مدل هوش مصنوعی اطلاعات نادرست، گمراه کننده یا غیرمنطقی تولید می کند، اما آن را به گونه ای ارائه می دهد که گویی یک واقعیت است. توهم هوش مصنوعی گاهی اوقات به سختی قابل تشخیص است، زیرا دستور زبان و ساختار جملات تولید شده توسط هوش مصنوعی، علیرغم وجود نادرستی، اغلب هنگام خواندن آنها گویا و مطمئن به نظر می رسند.
توهمات هوش مصنوعی نتیجه مدلهای زبان بزرگ (LLM) است که به ابزارهای هوش مصنوعی و چتباتهای مولد (مانند ChatGPT) اجازه میدهد تا زبان را به روشی شبیه انسان پردازش کنند. اگرچه LLM ها برای تولید متن روان و منسجم طراحی شده اند، اما هیچ درکی از واقعیت زیربنایی که توصیف می کنند ندارند. تنها کاری که آنها انجام میدهند این است که پیشبینی میکنند کلمه بعدی بر اساس احتمال است، نه دقت.
توهمات هوش مصنوعی میتوانند در سیستمهای تشخیص تصویر و تولیدکنندههای تصویر هوش مصنوعی رخ دهند، اما معمولاً با تولیدکنندگان متن هوش مصنوعی مرتبط هستند. آنها برای هر سازمان و فردی که از هوش مصنوعی مولد برای به دست آوردن اطلاعات و انجام کارشان استفاده می کنند و با دقت انجام می دهند، یک مشکل هستند.
عوامل توهمات هوش مصنوعی
توهمات هوش مصنوعی ناشی از عوامل مختلفی است، از جمله داده های آموزشی مغرضانه یا با کیفیت پایین، فقدان زمینه ارائه شده توسط کاربر یا برنامه نویسی ناکافی در مدل که آن را از تفسیر صحیح اطلاعات باز می دارد.
این پدیده همچنین می تواند تا حدی توضیح داده شود اگر شما نحوه عملکرد LLM ها را درک کنید. LLM ها با حجم عظیمی از داده های متنی، از جمله کتاب ها و مقالات خبری تغذیه می شوند. سپس این داده ها به حروف و کلمات تقسیم می شوند. در حالی که LLM ها از شبکه های عصبی برای کشف نحوه کار این کلمات و حروف با هم استفاده می کنند، آنها هرگز معنای کلمات را خودشان یاد نمی گیرند.
امیلی ام. بندر، استاد زبانشناسی و مدیر آزمایشگاه زبانشناسی محاسباتی دانشگاه واشنگتن، آن را اینگونه توضیح داد: «اگر کلمه «گربه» را ببینید، بلافاصله تجربیات گربهها و چیزهایی درباره گربهها را تداعی میکند. برای مدل زبان بزرگ، دنباله ای از کاراکترهای C-A-T است.” «سپس در نهایت اطلاعاتی در مورد اینکه با چه کلمات دیگری و چه توالی شخصیتهای دیگری همراه است به دست میآورد.»
بنابراین در حالی که LLMها توانایی نوشتن انواع چیزها را دارند، هنوز نمی توانند واقعیت اساسی آنچه را که در مورد آن صحبت می کنند درک کنند.
بیشتر بخوانید:
آموزش فعالسازی IPv6 در مودم
شین اورلیک، رئیس تولیدکننده محتوای هوش مصنوعی جاسپر، می گوید: «[هوش مصنوعی مولد] واقعاً هوشمند نیست، بلکه تطبیق الگو است. “برای داشتن پاسخ طراحی شده است، حتی اگر پاسخ از نظر واقعی درست نباشد.”
با این حال، اگر دادههای آموزشی آنها نادرست یا مغرضانه باشد، یا اگر مدل خیلی پیچیده باشد و محافظ کافی به آنها داده نشود، LLM ها تمایل دارند چیزها را اشتباه بگیرند.
چگونه از توهمات هوش مصنوعی جلوگیری کنیم؟
همه رهبران در فضای مولد هوش مصنوعی در حال تلاش برای کمک به حل مشکل توهمات هوش مصنوعی هستند.
Google Gemini را به اینترنت متصل کرد تا پاسخهای آن بر اساس دادههای آموزشی و اطلاعاتی که در وب پیدا میکند باشد. OpenAI همین کار را برای ChatGPT انجام داد. و OpenAI برای اصلاح ChatGPT با بازخورد آزمایشکنندگان انسانی، با استفاده از تکنیکی به نام یادگیری تقویتی، کار کرده است. این شرکت همچنین یک استراتژی جدید برای پاداش دادن به مدلها برای هر فرد پیشنهاد کرد، مرحله درست استدلال هنگام رسیدن به پاسخ، به جای صرف پاداش دادن به پاسخ نهایی. به گفته این شرکت، این رویکرد نظارت فرآیند نامیده می شود و می تواند به هوش مصنوعی قابل توضیح تر منجر شود. اما برخی از کارشناسان تردید دارند که این می تواند راهی موثر برای مبارزه با جعلیات باشد.
Riesbeck از Northwestern گفت که مدلهای مولد هوش مصنوعی «همیشه توهمآور هستند». آنها صرفاً به دلیل ماهیت خود، همیشه “چیزهایی را می سازند”. بنابراین از بین بردن احتمال توهمات هوش مصنوعی که اطلاعات نادرست تولید می کنند، اگر غیرممکن نباشد، می تواند دشوار باشد. اما اقداماتی وجود دارد که هم شرکت ها و هم کاربران می توانند برای مقابله با آنها و محدود کردن آسیب آنها انجام دهند.
تالیف:
فروشگاه اینترنتی آ.اس.پ (اقتباس از مقالهای از Builtin)
در صورت استفاده از این مقاله، نام و آدرس فروشگاه اینترنتی آ.اس.پ را به عنوان منبع ذکر کنید.