جعبه سیاه هوش مصنوعی به سیستم‌های هوش مصنوعی اطلاق می‌شود که مکانیک داخلی آن از دید کاربران و حتی توسعه‌دهندگان نامشخص یا پنهان است. این مدل‌های هوش مصنوعی ورودی‌ها را دریافت می‌کنند و خروجی‌ها را تولید می‌کنند، اما منطق و داده‌های مورد استفاده برای رسیدن به این نتایج قابل دسترسی نیستند، و دیدن کامل نحوه عملکرد آنها را دشوار یا حتی غیرممکن می‌کند. از آنها با عنوان هوش مصنوعی غیرقابل توضیح نیز یاد می شود.

استفانی پولفورد، رئیس داده‌های شرکت هوش مصنوعی ON، می گوید: «می‌توانید ببینید چه چیزی در آن وجود دارد، می‌توانید ببینید که چه چیزی بیرون می‌آید، اما نمی‌توانید آن را باز کنید تا عملکرد درونی آن را ببینید.

جعبه سیاه هوش مصنوعی چیست؟

جعبه سیاه هوش مصنوعی یا هوش مصنوعی غیرقابل توضیح اصطلاحی است که برای توصیف سیستم‌های هوش مصنوعی استفاده می‌شود که عملکرد داخلی و فرآیندهای تصمیم‌گیری آن‌ها شفاف نیست. آنها هیچ توضیحی در مورد اینکه چگونه به نتایج خود می رسند ارائه نمی دهند.

نقطه مقابل جعبه سیاه هوش مصنوعی، هوش مصنوعی قابل توضیح است، که مجموعه ای از اصول و فرآیندهایی است که به دنبال کمک به کاربران برای درک چگونگی رسیدن مدل های هوش مصنوعی به خروجی های خود است. محققان هوش مصنوعی و مقامات دولتی در سراسر جهان در حال انجام اقداماتی هستند تا سیستم های هوش مصنوعی را قابل توضیح تر و شفاف تر کنند، اما هنوز کارهای زیادی برای انجام دادن وجود دارد.

Blackbox ai 01 01 01 scaled 1 - جعبه سیاه هوش مصنوعی چیست؟

اهمیت جعبه سیاه هوش مصنوعی

مدل‌های جعبه سیاه و هوش مصنوعی غیرقابل توضیح نقش مهمی در صنعت و جامعه هوش مصنوعی بازی می‌کنند و قابلیت‌های پیش‌بینی و تصمیم‌گیری قابل توجهی را ارائه می‌کنند. و با این حال، عدم شفافیت و تفسیرپذیری آنها نگرانی هایی را در مورد قابلیت اطمینان و عادلانه بودن آنها ایجاد کرده است. مدل‌های جعبه سیاه هوش مصنوعی همه چیز را از نرم‌افزار تشخیص چهره که برای باز کردن قفل گوشی‌های ما استفاده می‌شود تا الگوریتم‌های استخدامی که برای نمایش نامزدهای شغلی استفاده می‌شود، بهره می گیرند. از آنجایی که مدل‌های جعبه سیاه هوش مصنوعی می‌توانند مقادیر زیادی از داده‌های بدون ساختار را پردازش و تجزیه و تحلیل کنند، به‌ویژه در کارهای پیچیده‌ای مانند تشخیص گفتار، تجزیه و تحلیل پیش‌بینی‌کننده و تولید زبان طبیعی مهارت دارند.

آنها دلیلی هستند که چرا دستیارهای صوتی هوش مصنوعی مانند الکسا و دستیار گوگل می توانند بفهمند کاربران به آنها چه می گویند و چرا ربات های چت مانند ChatGPT و Gemini در انجام مکالمات روان بسیار خوب هستند.

این سیستم‌ها هر روز برای تشخیص ناهنجاری‌ها در درمان‌های پزشکی، علامت‌گذاری هزینه‌های مشکوک در حساب بانکی افراد و قدرت‌بخشی به خودروهای خودران استفاده می‌شوند.

اما آنها با نگرانی های شفافیت همراه هستند. یکی از بزرگترین معماهای صنعت هوش مصنوعی در اینجا نهفته است: هرچه این مدل‌های غیرشفاف در زندگی روزمره بیشتر مورد استفاده قرار گیرند، مردم تقاضای بیشتری برای درک نحوه کار آنها دارند.

software testing principles 150x150 - جعبه سیاه هوش مصنوعی چیست؟ بیشتر بخوانید: داده های تست نرم افزار چیست؟

این افزایش بررسی جعبه سیاه هوش مصنوعی منجر به فشار در تحقیق و توسعه هوش مصنوعی قابل توضیح شده است. زمینه ای که به دنبال درک نحوه رسیدن مدل های هوش مصنوعی به خروجی های خود است، با هدف اینکه هوش مصنوعی قابل اعتمادتر، دقیق تر و منصفانه تر شود. مشکل عدم شفافیت هنوز سال ها باقی مانده است، اما چندین تکنیک امیدوارکننده ظاهر شده است. برخی از محققان ورودی‌ها را سرهم می‌کنند تا ببینند چگونه بر خروجی یک مدل تأثیر می‌گذارند تا فرآیند تصمیم‌گیری آن را بیشتر روشن کنند. برخی دیگر از الگوریتم های تخصصی برای بررسی رفتار یک مدل استفاده می کنند.

مدل های جعبه سیاه هوش مصنوعی چگونه کار می کنند؟

ماهیت معمایی مدل‌های جعبه سیاه هوش مصنوعی را می‌توان به استفاده آن‌ها از یادگیری عمیق نسبت داد، نوعی هوش مصنوعی که به مدل‌ها امکان می‌دهد به طور مستقل یاد بگیرند و به طور مداوم بدون برنامه‌نویسی صریح پیشرفت کنند.

برای دستیابی به این هدف، سیستم‌های یادگیری عمیق بر شبکه‌های عصبی مصنوعی تکیه می‌کنند که ساختار و عملکرد مغز انسان را از طریق یک سری گره‌های به هم پیوسته به نام نورون‌ها تقلید می‌کنند. هنگامی که داده ها به مدل وارد می شوند، از طریق لایه هایی از این نورون ها پردازش می شوند که محاسبات پیچیده تری را برای شناسایی الگوهای موجود در داده ها انجام می دهند. می دانیم که الگوهای شناسایی شده توسط مدل ها به آنها در پیش بینی یا تصمیم گیری کمک می کند، اما رمزگشایی مراحل خاصی که برای رسیدن به آن خروجی ها استفاده می شود، دشوار است.

برای مثال، اگر یک مدل یادگیری عمیق برای شناسایی تصاویر خرس‌های پاندا آموزش دیده باشد، مشخص نیست که مدل دقیقاً از چه ویژگی‌هایی برای تصمیم‌گیری استفاده می‌کند و برای هر یک از آنها چقدر وزن قائل می‌شود. این مدل ممکن است یاد گرفته باشد که روی برخی ویژگی‌های فیزیکی پاندا تمرکز کند (مانند الگوهای خز سیاه و سفید متمایز آن) یا ممکن است اولویت بندی انجام دهد.سایر ویژگی‌های کمتر آشکاری که نشان می‌دهند یک پاندا در آنجا وجود دارد، مانند وجود بامبو. اگر مدل به طور دقیق بامبو را با پاندا مرتبط می کند، ممکن است به اشتباه تصاویر بامبو را به عنوان حاوی پاندا طبقه بندی کند یا در تصاویر بدون بامبو نتواند پانداها را شناسایی کند. بنابراین ما همیشه نمی‌توانیم ردیابی کنیم که چرا یک پاسخ خاص گرفته شده است.

دانکن کورتیس، معاون ارشد هوش مصنوعی، محصول و فناوری می گوید: «ما همیشه نمی‌توانیم دلیل دریافت پاسخ خاصی را ردیابی کنیم. این می‌تواند ناشی از سوگیری در مجموعه داده آموزشی باشد، می‌تواند از چیزهایی ناشی شود که لزوماً برای یک انسان واضح نیستند.

در مقابل، مدل‌های هوش مصنوعی قابل توضیح در مورد نحوه رسیدن به نتیجه‌گیری شفاف هستند. این نوع مدل‌ها بر درخت‌های تصمیم تکیه می‌کنند، نوعی الگوریتم که از روش انشعاب برای نشان دادن هر نتیجه ممکن یک تصمیم استفاده می‌کند.

گاوراو رائو، مدیر عامل شرکت هوش مصنوعی Howso گفت: مدل‌هایی که از درخت‌های تصمیم‌گیری یا الگوریتم‌های مشابه استفاده می‌کنند، به کاربران اجازه می‌دهند هر مرحله از فرآیند تصمیم‌گیری را ردیابی کنند و درک نحوه رسیدن به نتیجه‌گیری را آسان‌تر می‌کنند. اما، برای مدل‌هایی که از الگوریتم‌های یادگیری عمیق پیچیده‌تر مانند ترانسفورماتورها یا سیستم‌های توصیه استفاده می‌کنند، «فرایند تصمیم‌گیری در جعبه سیاه هوش مصنوعی بسیار چالش‌برانگیزتر است».


تالیف:
فروشگاه اینترنتی آ.اس.پ (اقتباس از مقاله‌ای از Builtin)
در صورت استفاده از این مقاله، نام و آدرس فروشگاه اینترنتی آ.اس.پ را به عنوان منبع ذکر کنید.