تا به حال به این فکر کرده اید که چرا هوش مصنوعی مکالمه ای مانند ChatGPT می گوید “متاسفم، نمی توانم این کار را انجام دهم” یا یک امتناع مودبانه دیگر؟ OpenAI نگاهی محدود به استدلال پشت قوانین تعامل مدلهای خودش ارائه میکند، خواه به دستورالعملهای برند پایبند باشد یا از تولید محتوای NSFW خودداری کند.
مدلهای زبان بزرگ (LLM) هیچ محدودیت طبیعی در مورد آنچه میتوانند یا میگویند ندارند. به همین دلیل است که آنها بسیار همه کاره هستند، اما همچنین دلیلی است که آنها دچار توهم می شوند و به راحتی گول می خورند.
برای هر مدل هوش مصنوعی که با عموم مردم تعامل دارد، لازم است چند نرده محافظ در مورد کارهایی که باید و نباید انجام دهد، داشته باشد، اما تعریف اینها چه رسد به اجرای آنها یک کار شگفت آور دشوار است.
اگر کسی از هوش مصنوعی بخواهد که یک دسته ادعای نادرست در مورد یک شخصیت عمومی ایجاد کند، باید رد کند، درست است؟ اما اگر آنها خودشان یک توسعه دهنده هوش مصنوعی باشند و یک پایگاه داده از اطلاعات غلط مصنوعی برای یک مدل آشکارساز ایجاد کنند، چطور. اگر کسی توصیه های لپ تاپ بخواهد چه می شود. باید عینی باشد، درست است؟ اما اگر این مدل توسط یک سازنده لپتاپ که میخواهد فقط با دستگاههای خودش پاسخ دهد، به کار گرفته شود، چه؟. سازندگان هوش مصنوعی همگی در حال بررسی معماهایی مانند این هستند و به دنبال روشهای کارآمد برای مهار مدلهای خود بدون اینکه آنها درخواستهای کاملاً عادی را رد کنند، هستند. اما آنها به ندرت به اشتراک می گذارند که دقیقا چگونه این کار را انجام می دهند.
OpenAI با انتشار آنچه “مشخصات مدل” خود می نامد، مجموعه ای از قوانین سطح بالا که به طور غیرمستقیم ChatGPT و سایر مدل ها را کنترل می کند، روند را کمی کاهش می دهد. اهداف فراسطحی، برخی قوانین سخت و برخی دستورالعملهای رفتاری کلی وجود دارد، اگرچه برای روشن شدن این موارد، به طور دقیق آن چیزی نیست که مدل با آن طراحی شده است. OpenAI دستورالعملهای خاصی را ایجاد خواهد کرد که آنچه را که این قوانین به زبان طبیعی توصیف میکنند، انجام میدهد.
این یک نگاه جالب به نحوه تعیین اولویت های یک شرکت و رسیدگی به موارد لبه است. و نمونه های متعددی وجود دارد که چگونه آنها ممکن است بازی کنند.
به عنوان مثال، OpenAI به وضوح بیان می کند که هدف توسعه دهنده اساسا بالاترین قانون است. بنابراین، یک نسخه از یک ربات چت که GPT-4 را اجرا می کند، ممکن است در صورت درخواست، پاسخی برای یک مسئله ریاضی ارائه دهد. اما اگر آن ربات چت توسط توسعهدهندهاش طراحی شده باشد که هرگز به سادگی پاسخی را ارائه نکند، در عوض پیشنهاد میکند تا راه حل را مرحله به مرحله کار کند:
بیشتر بخوانید:
به زودی می توانید آیفون و آیپد خود را با چشمان خود کنترل کنید
یک رابط مکالمه حتی ممکن است از صحبت در مورد هر چیزی که تایید نشده است خودداری کند تا از هر گونه تلاش دستکاری در جوانه جلوگیری کند. چرا حتی اجازه می دهیم دستیار آشپزی در مورد دخالت ایالات متحده در جنگ ویتنام صحبت کند؟ چرا یک ربات چت خدمات مشتری باید موافقت کند که در ساخت رمان فوق طبیعی وابسته به عشق شهوانی شما کمک کند؟ ببندش، تعطیلش کن.
همچنین در مسائل مربوط به حریم خصوصی مانند پرسیدن نام و شماره تلفن شخصی، چسبنده می شود. همانطور که OpenAI اشاره می کند، بدیهی است که یک شخصیت عمومی مانند شهردار یا عضو کنگره باید اطلاعات تماس خود را ارائه دهد، اما در مورد تجار در منطقه چطور؟ این احتمالاً خوب است – اما کارمندان یک شرکت خاص یا اعضای یک حزب سیاسی چطور؟ احتمالا نه.
انتخاب زمان و مکان برای کشیدن خط ساده نیست. همچنین ایجاد دستورالعمل هایی که باعث می شود هوش مصنوعی به خط مشی حاصله پایبند باشد، نیست. و بدون شک این سیاستها همیشه شکست خواهند خورد، زیرا مردم یاد میگیرند که آنها را دور بزنند یا به طور تصادفی موارد حاشیهای را پیدا کنند که در نظر گرفته نشدهاند.
OpenAI تمام قدرت خود را در اینجا نشان نمیدهد، اما برای کاربران و توسعهدهندگان مفید است که ببینند این قوانین و دستورالعملها چگونه تنظیم شدهاند و چرا، اگر نه لزوماً جامع باشند، به وضوح بیان شدهاند.
تالیف:
فروشگاه اینترنتی آ.اس.پ (اقتباس از مقالهای از Techcrunch)
در صورت استفاده از این مقاله، نام و آدرس فروشگاه اینترنتی آ.اس.پ را به عنوان منبع ذکر کنید.