جعبه سیاه هوش مصنوعی چیست؟

جعبه سیاه هوش مصنوعی به سیستمهای هوش مصنوعی اطلاق میشود که مکانیک داخلی آن از دید کاربران و حتی توسعهدهندگان نامشخص یا پنهان است. این مدلهای هوش مصنوعی ورودیها را دریافت میکنند و خروجیها را تولید میکنند، اما منطق و دادههای مورد استفاده برای رسیدن به این نتایج قابل دسترسی نیستند، و دیدن کامل نحوه عملکرد آنها را دشوار یا حتی غیرممکن میکند. از آنها با عنوان هوش مصنوعی غیرقابل توضیح نیز یاد می شود.
استفانی پولفورد، رئیس دادههای شرکت هوش مصنوعی ON، می گوید: «میتوانید ببینید چه چیزی در آن وجود دارد، میتوانید ببینید که چه چیزی بیرون میآید، اما نمیتوانید آن را باز کنید تا عملکرد درونی آن را ببینید.
جعبه سیاه هوش مصنوعی چیست؟
جعبه سیاه هوش مصنوعی یا هوش مصنوعی غیرقابل توضیح اصطلاحی است که برای توصیف سیستمهای هوش مصنوعی استفاده میشود که عملکرد داخلی و فرآیندهای تصمیمگیری آنها شفاف نیست. آنها هیچ توضیحی در مورد اینکه چگونه به نتایج خود می رسند ارائه نمی دهند.
نقطه مقابل جعبه سیاه هوش مصنوعی، هوش مصنوعی قابل توضیح است، که مجموعه ای از اصول و فرآیندهایی است که به دنبال کمک به کاربران برای درک چگونگی رسیدن مدل های هوش مصنوعی به خروجی های خود است. محققان هوش مصنوعی و مقامات دولتی در سراسر جهان در حال انجام اقداماتی هستند تا سیستم های هوش مصنوعی را قابل توضیح تر و شفاف تر کنند، اما هنوز کارهای زیادی برای انجام دادن وجود دارد.
اهمیت جعبه سیاه هوش مصنوعی
مدلهای جعبه سیاه و هوش مصنوعی غیرقابل توضیح نقش مهمی در صنعت و جامعه هوش مصنوعی بازی میکنند و قابلیتهای پیشبینی و تصمیمگیری قابل توجهی را ارائه میکنند. و با این حال، عدم شفافیت و تفسیرپذیری آنها نگرانی هایی را در مورد قابلیت اطمینان و عادلانه بودن آنها ایجاد کرده است. مدلهای جعبه سیاه هوش مصنوعی همه چیز را از نرمافزار تشخیص چهره که برای باز کردن قفل گوشیهای ما استفاده میشود تا الگوریتمهای استخدامی که برای نمایش نامزدهای شغلی استفاده میشود، بهره می گیرند. از آنجایی که مدلهای جعبه سیاه هوش مصنوعی میتوانند مقادیر زیادی از دادههای بدون ساختار را پردازش و تجزیه و تحلیل کنند، بهویژه در کارهای پیچیدهای مانند تشخیص گفتار، تجزیه و تحلیل پیشبینیکننده و تولید زبان طبیعی مهارت دارند.
آنها دلیلی هستند که چرا دستیارهای صوتی هوش مصنوعی مانند الکسا و دستیار گوگل می توانند بفهمند کاربران به آنها چه می گویند و چرا ربات های چت مانند ChatGPT و Gemini در انجام مکالمات روان بسیار خوب هستند.
این سیستمها هر روز برای تشخیص ناهنجاریها در درمانهای پزشکی، علامتگذاری هزینههای مشکوک در حساب بانکی افراد و قدرتبخشی به خودروهای خودران استفاده میشوند.
اما آنها با نگرانی های شفافیت همراه هستند. یکی از بزرگترین معماهای صنعت هوش مصنوعی در اینجا نهفته است: هرچه این مدلهای غیرشفاف در زندگی روزمره بیشتر مورد استفاده قرار گیرند، مردم تقاضای بیشتری برای درک نحوه کار آنها دارند.
بیشتر بخوانید:
آموزش فعالسازی IPv6 در مودم
این افزایش بررسی جعبه سیاه هوش مصنوعی منجر به فشار در تحقیق و توسعه هوش مصنوعی قابل توضیح شده است. زمینه ای که به دنبال درک نحوه رسیدن مدل های هوش مصنوعی به خروجی های خود است، با هدف اینکه هوش مصنوعی قابل اعتمادتر، دقیق تر و منصفانه تر شود. مشکل عدم شفافیت هنوز سال ها باقی مانده است، اما چندین تکنیک امیدوارکننده ظاهر شده است. برخی از محققان ورودیها را سرهم میکنند تا ببینند چگونه بر خروجی یک مدل تأثیر میگذارند تا فرآیند تصمیمگیری آن را بیشتر روشن کنند. برخی دیگر از الگوریتم های تخصصی برای بررسی رفتار یک مدل استفاده می کنند.
مدل های جعبه سیاه هوش مصنوعی چگونه کار می کنند؟
ماهیت معمایی مدلهای جعبه سیاه هوش مصنوعی را میتوان به استفاده آنها از یادگیری عمیق نسبت داد، نوعی هوش مصنوعی که به مدلها امکان میدهد به طور مستقل یاد بگیرند و به طور مداوم بدون برنامهنویسی صریح پیشرفت کنند.
برای دستیابی به این هدف، سیستمهای یادگیری عمیق بر شبکههای عصبی مصنوعی تکیه میکنند که ساختار و عملکرد مغز انسان را از طریق یک سری گرههای به هم پیوسته به نام نورونها تقلید میکنند. هنگامی که داده ها به مدل وارد می شوند، از طریق لایه هایی از این نورون ها پردازش می شوند که محاسبات پیچیده تری را برای شناسایی الگوهای موجود در داده ها انجام می دهند. می دانیم که الگوهای شناسایی شده توسط مدل ها به آنها در پیش بینی یا تصمیم گیری کمک می کند، اما رمزگشایی مراحل خاصی که برای رسیدن به آن خروجی ها استفاده می شود، دشوار است.
برای مثال، اگر یک مدل یادگیری عمیق برای شناسایی تصاویر خرسهای پاندا آموزش دیده باشد، مشخص نیست که مدل دقیقاً از چه ویژگیهایی برای تصمیمگیری استفاده میکند و برای هر یک از آنها چقدر وزن قائل میشود. این مدل ممکن است یاد گرفته باشد که روی برخی ویژگیهای فیزیکی پاندا تمرکز کند (مانند الگوهای خز سیاه و سفید متمایز آن) یا ممکن است اولویت بندی انجام دهد.سایر ویژگیهای کمتر آشکاری که نشان میدهند یک پاندا در آنجا وجود دارد، مانند وجود بامبو. اگر مدل به طور دقیق بامبو را با پاندا مرتبط می کند، ممکن است به اشتباه تصاویر بامبو را به عنوان حاوی پاندا طبقه بندی کند یا در تصاویر بدون بامبو نتواند پانداها را شناسایی کند. بنابراین ما همیشه نمیتوانیم ردیابی کنیم که چرا یک پاسخ خاص گرفته شده است.
دانکن کورتیس، معاون ارشد هوش مصنوعی، محصول و فناوری می گوید: «ما همیشه نمیتوانیم دلیل دریافت پاسخ خاصی را ردیابی کنیم. این میتواند ناشی از سوگیری در مجموعه داده آموزشی باشد، میتواند از چیزهایی ناشی شود که لزوماً برای یک انسان واضح نیستند.
در مقابل، مدلهای هوش مصنوعی قابل توضیح در مورد نحوه رسیدن به نتیجهگیری شفاف هستند. این نوع مدلها بر درختهای تصمیم تکیه میکنند، نوعی الگوریتم که از روش انشعاب برای نشان دادن هر نتیجه ممکن یک تصمیم استفاده میکند.
گاوراو رائو، مدیر عامل شرکت هوش مصنوعی Howso گفت: مدلهایی که از درختهای تصمیمگیری یا الگوریتمهای مشابه استفاده میکنند، به کاربران اجازه میدهند هر مرحله از فرآیند تصمیمگیری را ردیابی کنند و درک نحوه رسیدن به نتیجهگیری را آسانتر میکنند. اما، برای مدلهایی که از الگوریتمهای یادگیری عمیق پیچیدهتر مانند ترانسفورماتورها یا سیستمهای توصیه استفاده میکنند، «فرایند تصمیمگیری در جعبه سیاه هوش مصنوعی بسیار چالشبرانگیزتر است».
تالیف:
فروشگاه اینترنتی آ.اس.پ (اقتباس از مقالهای از Builtin)
در صورت استفاده از این مقاله، نام و آدرس فروشگاه اینترنتی آ.اس.پ را به عنوان منبع ذکر کنید.