سام آلتمن، مدیر عامل OpenAI در طول رویداد OpenAI DevDay در 06 نوامبر 2023 در سانفرانسیسکو، کالیفرنیا صحبت می کند. آلتمن سخنرانی اصلی را در اولین کنفرانس Open AI DevDay ارائه کرد.
همگام شدن با صنعتی که به سرعت هوش مصنوعی در حال حرکت است، امری دشوار است. بنابراین تا زمانی که یک هوش مصنوعی بتواند این کار را برای شما انجام دهد، در اینجا خلاصه‌ای مفید از داستان‌های اخیر در دنیای یادگیری ماشین، همراه با تحقیقات و آزمایش‌های قابل‌توجهی است که به تنهایی پوشش نداده‌ایم.

به هر حال، TechCrunch قصد دارد به زودی یک خبرنامه هوش مصنوعی راه اندازی کند. گوش به زنگ باشید. در همین حال، ما آهنگ ستون هوش مصنوعی نیمه منظم خود را که قبلاً دو بار در ماه (یا بیشتر) بود، به هفتگی افزایش می‌دهیم بنابراین مراقب نسخه‌های بیشتر باشید.

در این هفته در هوش مصنوعی، OpenAI بار دیگر با عرضه محصول، اما همچنین با برخی فتنه‌های کاخ، بر چرخه اخبار (با وجود بهترین تلاش‌های گوگل) مسلط شد. این شرکت از GPT-4o، توانمندترین مدل تولیدی خود تا کنون، پرده برداری کرد و تنها چند روز بعد تیمی را که بر روی مشکل توسعه کنترل‌ها برای جلوگیری از سرکشی سیستم‌های هوش مصنوعی «فوق‌هوشمند» کار می‌کردند، منحل کرد.

تصویرداخلی هوش مصنوعی

انحلال تیم، به طور قابل پیش بینی، سرفصل های زیادی ایجاد کرد. گزارش‌ها از جمله گزارش ما نشان می‌دهد که OpenAI تحقیقات ایمنی تیم را به نفع راه‌اندازی محصولات جدید مانند GPT-4o فوق‌الذکر در اولویت قرار داده است، که در نهایت منجر به استعفای دو رهبر تیم، Jan Leike و یکی از بنیان‌گذاران OpenAI Ilya Sutskever شد.

هوش مصنوعی فوق هوشمند در این مرحله بیشتر تئوری است تا واقعی. مشخص نیست که صنعت فناوری چه زمانی یا اینکه آیا به پیشرفت‌های لازم برای ایجاد هوش مصنوعی که قادر به انجام هر کاری که یک انسان می‌تواند انجام دهد، خواهد رسید. اما به نظر می رسد پوشش این هفته یک چیز را تایید می کند: رهبری OpenAI – به ویژه مدیر عامل شرکت سم آلتمن به طور فزاینده ای ترجیح داده است محصولات را بر پادمان ها اولویت دهد.

گزارش شده است که آلتمن با عجله راه‌اندازی ویژگی‌های مبتنی بر هوش مصنوعی در اولین کنفرانس توسعه‌دهنده OpenAI در نوامبر گذشته، Sutskever را خشمگین کرد . و گفته می‌شود که او از هلن تونر، مدیر مرکز امنیت و فناوری‌های نوظهور جورج‌تاون و عضو سابق هیئت مدیره OpenAI، به دلیل مقاله‌ای که او در نویسندگی آن مشارکت داشت و رویکرد OpenAI به ایمنی را در چشم‌اندازی انتقادی نشان می‌داد، انتقاد کرده است – تا جایی که سعی کرد او را از روی تخته هل دهد.

در حدود یک سال گذشته، OpenAI به فروشگاه چت بات خود اجازه داد پر از هرزنامه شود و (به ظاهر) داده‌های یوتیوب را در برابر شرایط خدمات پلتفرم حذف کرد و در عین حال جاه‌طلبی‌هایی را بیان کرد که به هوش مصنوعی خود اجازه دهد تصاویری از پورن و غرور را ایجاد کند . مطمئناً به نظر می‌رسد که ایمنی در این شرکت جایگاه دوم را گرفته است – و تعداد فزاینده‌ای از محققان ایمنی OpenAI به این نتیجه رسیده‌اند که کار آنها در جاهای دیگر بهتر پشتیبانی می‌شود.

در اینجا برخی دیگر از داستان های هوش مصنوعی قابل توجه در چند روز گذشته آورده شده است:

OpenAI + Reddit: در اخبار بیشتر OpenAI، این شرکت با Reddit به توافق رسید تا از داده‌های سایت اجتماعی برای آموزش مدل‌های هوش مصنوعی استفاده کند. وال استریت با آغوش باز از این معامله استقبال کرد؛ اما کاربران Reddit ممکن است چندان راضی نباشند.
هوش مصنوعی گوگل: گوگل این هفته میزبان کنفرانس سالانه توسعه دهندگان I/O خود بود که طی آن تعداد زیادی از محصولات هوش مصنوعی را معرفی کرد. ما آنها را در اینجا گردآوری کردیم، از Veo تولید کننده ویدیو گرفته تا نتایج سازماندهی شده با هوش مصنوعی در جستجوی Google تا ارتقاء به برنامه های چت ربات Gemini Google.
آنتروپیک کریگر را استخدام می کند: مایک کریگر، یکی از بنیانگذاران اینستاگرام و اخیراً، یکی از بنیانگذاران اپلیکیشن خبری شخصی سازی شده Artifact (که شرکت مادر TechCrunch یاهو اخیرا آن را خریداری کرده است)، به عنوان اولین مدیر ارشد محصول شرکت به آنتروپیک می پیوندد. او بر تلاش‌های مصرف‌کننده و سازمانی شرکت نظارت خواهد کرد.
هوش مصنوعی برای کودکان: آنتروپیک هفته گذشته اعلام کرد که به توسعه‌دهندگان اجازه می‌دهد تا برنامه‌ها و ابزارهای مبتنی بر کودکان را که بر روی مدل‌های هوش مصنوعی آن ساخته شده‌اند، ایجاد کنند تا زمانی که از قوانین خاصی پیروی کنند. قابل توجه است که رقبایی مانند گوگل اجازه نمی‌دهند هوش مصنوعی آن‌ها در برنامه‌هایی با هدف سنین پایین‌تر ساخته شود.
جشنواره فیلم هوش مصنوعی: استارتاپ هوش مصنوعی Runway دومین جشنواره فیلم هوش مصنوعی خود را در اوایل این ماه برگزار کرد. غذای آماده؟ برخی از لحظات قدرتمندتر در ویترین نه از هوش مصنوعی، بلکه بیشتر عناصر انسانی بود.
بدیهی است که ایمنی هوش مصنوعی در این هفته با خروج OpenAI مورد توجه قرار گرفته است، اما Google Deepmind با یک «چارچوب ایمنی مرزی» جدید به پیش می‌رود. اساساً این استراتژی سازمان برای شناسایی و امیدواریم جلوگیری از هر گونه قابلیت فراری است لازم نیست AGI باشد، ممکن است یک تولیدکننده بدافزار باشد که دیوانه شده یا مانند آن.

آدرس IP بیشتر بخوانید: افشای داده‌های کاربران از طریق آدرس آی پی IP

این چارچوب دارای سه مرحله است: 1. شناسایی قابلیت های بالقوه مضر در یک مدل با شبیه سازی مسیرهای توسعه آن. 2. مدل ها را به طور منظم ارزیابی کنید تا تشخیص دهید چه زمانی به «سطوح قابلیت بحرانی» شناخته شده رسیده اند. 3. برای جلوگیری از نفوذ (توسط دیگری یا خودش) یا استقرار مشکل ساز، یک طرح کاهش اعمال کنید. در اینجا جزئیات بیشتری وجود دارد . ممکن است یک سری اقدامات آشکار به نظر برسد، اما مهم است که آنها را رسمی کنید یا همه فقط به نوعی آن را بال می‌دهند. به این ترتیب شما هوش مصنوعی بد را دریافت می کنید.

خطر متفاوتی توسط محققان کمبریج شناسایی شده است که به درستی نگران تکثیر ربات‌های چت هستند که فرد بر روی داده‌های یک فرد مرده آموزش می‌دهد. تا یک شبیه‌سازی سطحی از آن شخص ارائه کند. ممکن است کل این مفهوم را تا حدودی نفرت انگیز بدانید، اما اگر مراقب باشیم می توان از آن در مدیریت غم و سناریوهای دیگر استفاده کرد. مشکل این است که ما مراقب نیستیم.

Katarzyna Nowaczyk-Basińska، محقق اصلی، گفت : “این منطقه از هوش مصنوعی یک میدان مین اخلاقی است. ” ما باید از هم اکنون در مورد چگونگی کاهش خطرات اجتماعی و روانی جاودانگی دیجیتال فکر کنیم، زیرا این فناوری در حال حاضر وجود دارد. این تیم کلاهبرداری‌های متعدد، پیامدهای بد و خوب بالقوه را شناسایی می‌کند و این مفهوم را به طور کلی (از جمله خدمات جعلی) در مقاله منتشر شده در Philosophy & Technology مورد بحث قرار می‌دهد . آینه سیاه یک بار دیگر آینده را پیش بینی می کند!

در کاربردهای کمتر ترسناک هوش مصنوعی، فیزیکدانان MIT به دنبال ابزاری مفید (برای آنها) برای پیش‌بینی فاز یا حالت یک سیستم فیزیکی هستند، که معمولاً یک کار آماری است که می‌تواند با سیستم‌های پیچیده‌تر سخت‌تر شود. اما آموزش یک مدل یادگیری ماشینی بر روی داده‌های مناسب و پایه‌گذاری آن با برخی از ویژگی‌های مواد شناخته‌شده یک سیستم، راه بسیار کارآمدتری برای انجام آن دارید. فقط یک مثال دیگر از اینکه چگونه ML حتی در علوم پیشرفته هم جایگاهی پیدا می کند.

در CU Boulder، آنها در مورد چگونگی استفاده از هوش مصنوعی در مدیریت بلایا صحبت می کنند. این فناوری ممکن است برای پیش‌بینی سریع منابع مورد نیاز، نقشه‌برداری آسیب، حتی کمک به آموزش پاسخ‌دهندگان مفید باشد، اما مردم (به‌طور قابل‌توجهی) در استفاده از آن در سناریوهای مرگ و زندگی مردد هستند.

پروفسور امیر بهزادان در تلاش است تا توپ را در این زمینه به پیش ببرد و گفت: “هوش مصنوعی انسان محور با ترویج همکاری، تفاهم و فراگیری بین اعضای تیم، بازماندگان و ذینفعان منجر به واکنش موثرتر در برابر بلایا و اقدامات بازیابی می شود.” آنها هنوز در مرحله کارگاه هستند، اما مهم است که قبل از تلاش برای خودکارسازی توزیع کمک‌ها پس از طوفان، عمیقاً در مورد این موارد فکر کنید.

در نهایت، چند کار جالب از تحقیقات دیزنی، که به بررسی چگونگی تنوع در خروجی مدل‌های تولید تصویر انتشاری می‌پردازد، که می‌تواند نتایج مشابهی را بارها و بارها برای برخی درخواست‌ها ایجاد کند. راه حل آنها چیست؟ «استراتژی نمونه‌گیری ما سیگنال شرطی‌سازی را با اضافه کردن نویز گاوسی برنامه‌ریزی‌شده و یکنواخت کاهش‌یافته به بردار شرطی‌سازی در طول استنتاج برای متعادل کردن تنوع و هم‌ترازی شرایط، بازپخت می‌کند». من به سادگی نمی توانستم آن را بهتر بیان کنم. نتیجه تنوع بسیار بیشتر در زاویه ها، تنظیمات و نگاه کلی در خروجی های تصویر است. گاهی اوقات شما این را می خواهید، گاهی اوقات نمی خواهید، اما خوب است که این گزینه را داشته باشید.

 

 


تالیف:
فروشگاه اینترنتی آ.اس.پ (اقتباس از مقاله‌ای از Techcrunch)
در صورت استفاده از این مقاله، نام و آدرس فروشگاه اینترنتی آ.اس.پ را به عنوان منبع ذکر کنید.