دانشمند ارشد سابق و یکی از بنیانگذاران OpenAI از راه اندازی شرکت هوش مصنوعی (AI) خود خبر داده است که به گفته او بر امنیت تمرکز خواهد کرد.
Ilya Sutskever گفت که Safe Superintelligence را راهاندازی میکند و افزود که ایجاد هوش مصنوعی ایمن “ماموریت ما، نام ما و کل برنامه توسعه محصول ما است.”
در یک اطلاعیه راه اندازی در وب سایت این شرکت، این شرکت گفت که “امنیت و قابلیت ها را در کنار هم” به عنوان “مشکلات فنی برای حل” و “قابلیت ها را در سریع ترین زمان ممکن توسعه می دهد و در عین حال اطمینان می دهد که ایمنی ما همیشه در اولویت است.”
من در حال راه اندازی یک شرکت جدید هستم: https://t.co/BG3K3SI3A1
— Ilya Sutskever (@ilyasut) 19 ژوئن 2024
برخی از منتقدان نگرانیهایی را مطرح کردهاند که شرکتهای بزرگ فناوری و هوش مصنوعی بیش از حد بر کسب منافع تجاری از فناوریهای نوظهور متمرکز هستند و اصول امنیتی را در انجام این کار نادیده میگیرند – موضوعی که چندین کارمند سابق OpenAI در ماههای اخیر هنگامی که اعلام کردند شرکت را ترک میکنند، مطرح کردهاند.
ایلان ماسک، یکی از بنیانگذاران OpenAI، همچنین این شرکت را متهم کرد که ماموریت اصلی خود در توسعه هوش مصنوعی منبع باز را برای تمرکز بر مزایای تجاری کنار گذاشته است.
در بیانیه راهاندازی Safe Superintelligence که به نظر میرسد پاسخی مستقیم به این نگرانیها باشد، آمده است: «هدف خاص ما این است که توسط سربار مدیریت یا چرخههای محصول منحرف نشویم، و مدل کسبوکار ما به این معنی است که امنیت، حفاظت و پیشرفت از مشکلات کوتاه مدت محافظت میشود. فشارهای تجاری مدت».
Sutskever سال گذشته در تلاشی برای برکناری سام آلتمن به عنوان مدیر عامل OpenAI شرکت داشت و پس از بازگشت سریع آلتمن قبل از ترک شرکت در ماه مه امسال از هیئت مدیره شرکت کنار گذاشته شد.
دانیل لوی، محقق سابق OpenAI و دانیل گراس، رئیس سابق هوش مصنوعی اپل، به Safe Superintelligence پیوستند – که هر دو به عنوان یکی از بنیانگذاران شرکت جدید با دفاتری در کالیفرنیا و تل آویو، اسرائیل ذکر شده اند.
این سه نفر گفتند که این شرکت “اولین آزمایشگاه فوری SSI (فوق هوش امن) جهان با یک هدف و یک محصول است: ابرهوش ایمن، و آن را “مهمترین مشکل فنی زمان ما” نامیدند.