تا به حال به این فکر کرده اید که چرا هوش مصنوعی مکالمه ای مانند ChatGPT می گوید “متاسفم، نمی توانم این کار را انجام دهم” یا یک امتناع مودبانه دیگر؟ OpenAI نگاهی محدود به استدلال پشت قوانین تعامل مدل‌های خودش ارائه می‌کند، خواه به دستورالعمل‌های برند پایبند باشد یا از تولید محتوای NSFW خودداری کند.

مدل‌های زبان بزرگ (LLM) هیچ محدودیت طبیعی در مورد آنچه می‌توانند یا می‌گویند ندارند. به همین دلیل است که آنها بسیار همه کاره هستند، اما همچنین دلیلی است که آنها دچار توهم می شوند و به راحتی گول می خورند.

برای هر مدل هوش مصنوعی که با عموم مردم تعامل دارد، لازم است چند نرده محافظ در مورد کارهایی که باید و نباید انجام دهد، داشته باشد، اما تعریف اینها چه رسد به اجرای آنها یک کار شگفت آور دشوار است.

اگر کسی از هوش مصنوعی بخواهد که یک دسته ادعای نادرست در مورد یک شخصیت عمومی ایجاد کند، باید رد کند، درست است؟ اما اگر آنها خودشان یک توسعه دهنده هوش مصنوعی باشند و یک پایگاه داده از اطلاعات غلط مصنوعی برای یک مدل آشکارساز ایجاد کنند، چطور. اگر کسی توصیه های لپ تاپ بخواهد چه می شود. باید عینی باشد، درست است؟ اما اگر این مدل توسط یک سازنده لپ‌تاپ که می‌خواهد فقط با دستگاه‌های خودش پاسخ دهد، به کار گرفته شود، چه؟. سازندگان هوش مصنوعی همگی در حال بررسی معماهایی مانند این هستند و به دنبال روش‌های کارآمد برای مهار مدل‌های خود بدون اینکه آنها درخواست‌های کاملاً عادی را رد کنند، هستند. اما آنها به ندرت به اشتراک می گذارند که دقیقا چگونه این کار را انجام می دهند.

OpenAI با انتشار آنچه “مشخصات مدل” خود می نامد، مجموعه ای از قوانین سطح بالا که به طور غیرمستقیم ChatGPT و سایر مدل ها را کنترل می کند، روند را کمی کاهش می دهد. اهداف فراسطحی، برخی قوانین سخت و برخی دستورالعمل‌های رفتاری کلی وجود دارد، اگرچه برای روشن شدن این موارد، به طور دقیق آن چیزی نیست که مدل با آن طراحی شده است. OpenAI دستورالعمل‌های خاصی را ایجاد خواهد کرد که آنچه را که این قوانین به زبان طبیعی توصیف می‌کنند، انجام می‌دهد.

این یک نگاه جالب به نحوه تعیین اولویت های یک شرکت و رسیدگی به موارد لبه است. و نمونه های متعددی وجود دارد که چگونه آنها ممکن است بازی کنند.

به عنوان مثال، OpenAI به وضوح بیان می کند که هدف توسعه دهنده اساسا بالاترین قانون است. بنابراین، یک نسخه از یک ربات چت که GPT-4 را اجرا می کند، ممکن است در صورت درخواست، پاسخی برای یک مسئله ریاضی ارائه دهد. اما اگر آن ربات چت توسط توسعه‌دهنده‌اش طراحی شده باشد که هرگز به سادگی پاسخی را ارائه نکند، در عوض پیشنهاد می‌کند تا راه حل را مرحله به مرحله کار کند:

مقاله آیفون و آی پد 1 150x150 - OpenAI پشت پرده دستورالعمل های مخفی خود ارائه می دهد بیشتر بخوانید: به زودی می توانید آیفون و آیپد خود را با چشمان خود کنترل کنید

یک رابط مکالمه حتی ممکن است از صحبت در مورد هر چیزی که تایید نشده است خودداری کند تا از هر گونه تلاش دستکاری در جوانه جلوگیری کند. چرا حتی اجازه می دهیم دستیار آشپزی در مورد دخالت ایالات متحده در جنگ ویتنام صحبت کند؟ چرا یک ربات چت خدمات مشتری باید موافقت کند که در ساخت رمان فوق طبیعی وابسته به عشق شهوانی شما کمک کند؟ ببندش، تعطیلش کن.

همچنین در مسائل مربوط به حریم خصوصی مانند پرسیدن نام و شماره تلفن شخصی، چسبنده می شود. همانطور که OpenAI اشاره می کند، بدیهی است که یک شخصیت عمومی مانند شهردار یا عضو کنگره باید اطلاعات تماس خود را ارائه دهد، اما در مورد تجار در منطقه چطور؟ این احتمالاً خوب است – اما کارمندان یک شرکت خاص یا اعضای یک حزب سیاسی چطور؟ احتمالا نه.

انتخاب زمان و مکان برای کشیدن خط ساده نیست. همچنین ایجاد دستورالعمل هایی که باعث می شود هوش مصنوعی به خط مشی حاصله پایبند باشد، نیست. و بدون شک این سیاست‌ها همیشه شکست خواهند خورد، زیرا مردم یاد می‌گیرند که آنها را دور بزنند یا به طور تصادفی موارد حاشیه‌ای را پیدا کنند که در نظر گرفته نشده‌اند.

OpenAI تمام قدرت خود را در اینجا نشان نمی‌دهد، اما برای کاربران و توسعه‌دهندگان مفید است که ببینند این قوانین و دستورالعمل‌ها چگونه تنظیم شده‌اند و چرا، اگر نه لزوماً جامع باشند، به وضوح بیان شده‌اند.

 

 


تالیف:
فروشگاه اینترنتی آ.اس.پ (اقتباس از مقاله‌ای از Techcrunch)
در صورت استفاده از این مقاله، نام و آدرس فروشگاه اینترنتی آ.اس.پ را به عنوان منبع ذکر کنید.