این هفته در هوش مصنوعی: OpenAI از ایمنی فاصله می گیرد

سام آلتمن، مدیر عامل OpenAI در طول رویداد OpenAI DevDay در 06 نوامبر 2023 در سانفرانسیسکو، کالیفرنیا صحبت می کند. آلتمن سخنرانی اصلی را در اولین کنفرانس Open AI DevDay ارائه کرد.
همگام شدن با صنعتی که به سرعت هوش مصنوعی در حال حرکت است، امری دشوار است. بنابراین تا زمانی که یک هوش مصنوعی بتواند این کار را برای شما انجام دهد، در اینجا خلاصهای مفید از داستانهای اخیر در دنیای یادگیری ماشین، همراه با تحقیقات و آزمایشهای قابلتوجهی است که به تنهایی پوشش ندادهایم.
به هر حال، TechCrunch قصد دارد به زودی یک خبرنامه هوش مصنوعی راه اندازی کند. گوش به زنگ باشید. در همین حال، ما آهنگ ستون هوش مصنوعی نیمه منظم خود را که قبلاً دو بار در ماه (یا بیشتر) بود، به هفتگی افزایش میدهیم بنابراین مراقب نسخههای بیشتر باشید.
در این هفته در هوش مصنوعی، OpenAI بار دیگر با عرضه محصول، اما همچنین با برخی فتنههای کاخ، بر چرخه اخبار (با وجود بهترین تلاشهای گوگل) مسلط شد. این شرکت از GPT-4o، توانمندترین مدل تولیدی خود تا کنون، پرده برداری کرد و تنها چند روز بعد تیمی را که بر روی مشکل توسعه کنترلها برای جلوگیری از سرکشی سیستمهای هوش مصنوعی «فوقهوشمند» کار میکردند، منحل کرد.

انحلال تیم، به طور قابل پیش بینی، سرفصل های زیادی ایجاد کرد. گزارشها از جمله گزارش ما نشان میدهد که OpenAI تحقیقات ایمنی تیم را به نفع راهاندازی محصولات جدید مانند GPT-4o فوقالذکر در اولویت قرار داده است، که در نهایت منجر به استعفای دو رهبر تیم، Jan Leike و یکی از بنیانگذاران OpenAI Ilya Sutskever شد.
هوش مصنوعی فوق هوشمند در این مرحله بیشتر تئوری است تا واقعی. مشخص نیست که صنعت فناوری چه زمانی یا اینکه آیا به پیشرفتهای لازم برای ایجاد هوش مصنوعی که قادر به انجام هر کاری که یک انسان میتواند انجام دهد، خواهد رسید. اما به نظر می رسد پوشش این هفته یک چیز را تایید می کند: رهبری OpenAI – به ویژه مدیر عامل شرکت سم آلتمن به طور فزاینده ای ترجیح داده است محصولات را بر پادمان ها اولویت دهد.
گزارش شده است که آلتمن با عجله راهاندازی ویژگیهای مبتنی بر هوش مصنوعی در اولین کنفرانس توسعهدهنده OpenAI در نوامبر گذشته، Sutskever را خشمگین کرد . و گفته میشود که او از هلن تونر، مدیر مرکز امنیت و فناوریهای نوظهور جورجتاون و عضو سابق هیئت مدیره OpenAI، به دلیل مقالهای که او در نویسندگی آن مشارکت داشت و رویکرد OpenAI به ایمنی را در چشماندازی انتقادی نشان میداد، انتقاد کرده است – تا جایی که سعی کرد او را از روی تخته هل دهد.
در حدود یک سال گذشته، OpenAI به فروشگاه چت بات خود اجازه داد پر از هرزنامه شود و (به ظاهر) دادههای یوتیوب را در برابر شرایط خدمات پلتفرم حذف کرد و در عین حال جاهطلبیهایی را بیان کرد که به هوش مصنوعی خود اجازه دهد تصاویری از پورن و غرور را ایجاد کند . مطمئناً به نظر میرسد که ایمنی در این شرکت جایگاه دوم را گرفته است – و تعداد فزایندهای از محققان ایمنی OpenAI به این نتیجه رسیدهاند که کار آنها در جاهای دیگر بهتر پشتیبانی میشود.
در اینجا برخی دیگر از داستان های هوش مصنوعی قابل توجه در چند روز گذشته آورده شده است:
OpenAI + Reddit: در اخبار بیشتر OpenAI، این شرکت با Reddit به توافق رسید تا از دادههای سایت اجتماعی برای آموزش مدلهای هوش مصنوعی استفاده کند. وال استریت با آغوش باز از این معامله استقبال کرد؛ اما کاربران Reddit ممکن است چندان راضی نباشند.
هوش مصنوعی گوگل: گوگل این هفته میزبان کنفرانس سالانه توسعه دهندگان I/O خود بود که طی آن تعداد زیادی از محصولات هوش مصنوعی را معرفی کرد. ما آنها را در اینجا گردآوری کردیم، از Veo تولید کننده ویدیو گرفته تا نتایج سازماندهی شده با هوش مصنوعی در جستجوی Google تا ارتقاء به برنامه های چت ربات Gemini Google.
آنتروپیک کریگر را استخدام می کند: مایک کریگر، یکی از بنیانگذاران اینستاگرام و اخیراً، یکی از بنیانگذاران اپلیکیشن خبری شخصی سازی شده Artifact (که شرکت مادر TechCrunch یاهو اخیرا آن را خریداری کرده است)، به عنوان اولین مدیر ارشد محصول شرکت به آنتروپیک می پیوندد. او بر تلاشهای مصرفکننده و سازمانی شرکت نظارت خواهد کرد.
هوش مصنوعی برای کودکان: آنتروپیک هفته گذشته اعلام کرد که به توسعهدهندگان اجازه میدهد تا برنامهها و ابزارهای مبتنی بر کودکان را که بر روی مدلهای هوش مصنوعی آن ساخته شدهاند، ایجاد کنند تا زمانی که از قوانین خاصی پیروی کنند. قابل توجه است که رقبایی مانند گوگل اجازه نمیدهند هوش مصنوعی آنها در برنامههایی با هدف سنین پایینتر ساخته شود.
جشنواره فیلم هوش مصنوعی: استارتاپ هوش مصنوعی Runway دومین جشنواره فیلم هوش مصنوعی خود را در اوایل این ماه برگزار کرد. غذای آماده؟ برخی از لحظات قدرتمندتر در ویترین نه از هوش مصنوعی، بلکه بیشتر عناصر انسانی بود.
بدیهی است که ایمنی هوش مصنوعی در این هفته با خروج OpenAI مورد توجه قرار گرفته است، اما Google Deepmind با یک «چارچوب ایمنی مرزی» جدید به پیش میرود. اساساً این استراتژی سازمان برای شناسایی و امیدواریم جلوگیری از هر گونه قابلیت فراری است لازم نیست AGI باشد، ممکن است یک تولیدکننده بدافزار باشد که دیوانه شده یا مانند آن.
بیشتر بخوانید:
افشای دادههای کاربران از طریق آدرس آی پی IP
این چارچوب دارای سه مرحله است: 1. شناسایی قابلیت های بالقوه مضر در یک مدل با شبیه سازی مسیرهای توسعه آن. 2. مدل ها را به طور منظم ارزیابی کنید تا تشخیص دهید چه زمانی به «سطوح قابلیت بحرانی» شناخته شده رسیده اند. 3. برای جلوگیری از نفوذ (توسط دیگری یا خودش) یا استقرار مشکل ساز، یک طرح کاهش اعمال کنید. در اینجا جزئیات بیشتری وجود دارد . ممکن است یک سری اقدامات آشکار به نظر برسد، اما مهم است که آنها را رسمی کنید یا همه فقط به نوعی آن را بال میدهند. به این ترتیب شما هوش مصنوعی بد را دریافت می کنید.
خطر متفاوتی توسط محققان کمبریج شناسایی شده است که به درستی نگران تکثیر رباتهای چت هستند که فرد بر روی دادههای یک فرد مرده آموزش میدهد. تا یک شبیهسازی سطحی از آن شخص ارائه کند. ممکن است کل این مفهوم را تا حدودی نفرت انگیز بدانید، اما اگر مراقب باشیم می توان از آن در مدیریت غم و سناریوهای دیگر استفاده کرد. مشکل این است که ما مراقب نیستیم.
Katarzyna Nowaczyk-Basińska، محقق اصلی، گفت : “این منطقه از هوش مصنوعی یک میدان مین اخلاقی است. ” ما باید از هم اکنون در مورد چگونگی کاهش خطرات اجتماعی و روانی جاودانگی دیجیتال فکر کنیم، زیرا این فناوری در حال حاضر وجود دارد. این تیم کلاهبرداریهای متعدد، پیامدهای بد و خوب بالقوه را شناسایی میکند و این مفهوم را به طور کلی (از جمله خدمات جعلی) در مقاله منتشر شده در Philosophy & Technology مورد بحث قرار میدهد . آینه سیاه یک بار دیگر آینده را پیش بینی می کند!
در کاربردهای کمتر ترسناک هوش مصنوعی، فیزیکدانان MIT به دنبال ابزاری مفید (برای آنها) برای پیشبینی فاز یا حالت یک سیستم فیزیکی هستند، که معمولاً یک کار آماری است که میتواند با سیستمهای پیچیدهتر سختتر شود. اما آموزش یک مدل یادگیری ماشینی بر روی دادههای مناسب و پایهگذاری آن با برخی از ویژگیهای مواد شناختهشده یک سیستم، راه بسیار کارآمدتری برای انجام آن دارید. فقط یک مثال دیگر از اینکه چگونه ML حتی در علوم پیشرفته هم جایگاهی پیدا می کند.
در CU Boulder، آنها در مورد چگونگی استفاده از هوش مصنوعی در مدیریت بلایا صحبت می کنند. این فناوری ممکن است برای پیشبینی سریع منابع مورد نیاز، نقشهبرداری آسیب، حتی کمک به آموزش پاسخدهندگان مفید باشد، اما مردم (بهطور قابلتوجهی) در استفاده از آن در سناریوهای مرگ و زندگی مردد هستند.
پروفسور امیر بهزادان در تلاش است تا توپ را در این زمینه به پیش ببرد و گفت: “هوش مصنوعی انسان محور با ترویج همکاری، تفاهم و فراگیری بین اعضای تیم، بازماندگان و ذینفعان منجر به واکنش موثرتر در برابر بلایا و اقدامات بازیابی می شود.” آنها هنوز در مرحله کارگاه هستند، اما مهم است که قبل از تلاش برای خودکارسازی توزیع کمکها پس از طوفان، عمیقاً در مورد این موارد فکر کنید.
در نهایت، چند کار جالب از تحقیقات دیزنی، که به بررسی چگونگی تنوع در خروجی مدلهای تولید تصویر انتشاری میپردازد، که میتواند نتایج مشابهی را بارها و بارها برای برخی درخواستها ایجاد کند. راه حل آنها چیست؟ «استراتژی نمونهگیری ما سیگنال شرطیسازی را با اضافه کردن نویز گاوسی برنامهریزیشده و یکنواخت کاهشیافته به بردار شرطیسازی در طول استنتاج برای متعادل کردن تنوع و همترازی شرایط، بازپخت میکند». من به سادگی نمی توانستم آن را بهتر بیان کنم. نتیجه تنوع بسیار بیشتر در زاویه ها، تنظیمات و نگاه کلی در خروجی های تصویر است. گاهی اوقات شما این را می خواهید، گاهی اوقات نمی خواهید، اما خوب است که این گزینه را داشته باشید.
تالیف:
فروشگاه اینترنتی آ.اس.پ (اقتباس از مقالهای از Techcrunch)
در صورت استفاده از این مقاله، نام و آدرس فروشگاه اینترنتی آ.اس.پ را به عنوان منبع ذکر کنید.