منابع گفتند OpenAI تیمی را که بر خطرات بلندمدت هوش مصنوعی متمرکز شده بود منحل کرده است. این خبر همین چند روز پیش منتشر شد، زمانی که ایلیا سوتسچیور، یکی از بنیانگذاران OpenAI، شرکت را ترک کرد و اکنون Jan Laecke، یکی از محققان اصلی این شرکت، استعفای خود را اعلام کرده است.
بر اساس گزارش CNBC، OpenAI تیمی به نام “Superalignment” را منحل کرده است که به مقابله با خطرات بلندمدت هوش مصنوعی اختصاص یافته بود. یان لکه مدیریت این تیم را بر عهده داشت. این تیم در سال 2023 به منظور حل مسائل فنی در اجرای پروتکل های ایمنی تشکیل شد.
جان لکی در این باره می گوید:
طی سالها، فرهنگ و فرآیند ایمنی (AI) جای خود را به محصولات پر زرق و برق داده است.
تیم ایمنی هوش مصنوعی OpenAI منحل شده است
تیم Superalignment OpenAI که در سال 2023 تأسیس شد، برای پیشبرد پیشرفت های علمی و فنی برای هدایت و کنترل سیستم های هوش مصنوعی بسیار هوشمندتر از انسان ها کار می کند. در آن زمان، OpenAI گفت که 20 درصد از ظرفیت محاسباتی خود را در طول چهار سال به فعالیت های تیمی اختصاص خواهد داد.
به گفته یک منبع آگاه، اکنون، حدود یک سال بعد، OpenAI تیم را منحل کرده و برخی از اعضای خود را به چندین تیم دیگر در شرکت منتقل کرده است.
ایلیا سوتسکیور و یان لیکه مدت کوتاهی پس از یکدیگر خروج خود از OpenAI را اعلام کردند، اما لیکه اخیراً جزئیات بیشتری در مورد دلیل ترک استارتاپ به اشتراک گذاشته است. او در X را به اشتراک بگذارید او گفت: “من به این تیم پیوستم زیرا فکر می کردم OpenAI بهترین مکان در جهان برای انجام تحقیقات (در مورد ایمنی هوش مصنوعی) است.” با این حال، او میگوید که طی چند ماه گذشته، تیمش روند شرکت را کاهش داده است و انجام تحقیقات ایمنی مهم به طور فزایندهای دشوار شده است.
او می گوید:
ساختن ماشینهایی که از انسانها باهوشتر هستند، یک فرآیند ذاتاً خطرناک است.
هفته گذشته OpenAI از جدیدترین مدل هوش مصنوعی خود رونمایی کرد که قابلیت های شگفت انگیزی برای درک صدا و تصاویر دارد. با این حال برخی از افراد مانند ایلان ماسک، مدیرعامل تسلا، نظر مثبتی در مورد این مدل نداشتند.
منبع خبر: https://digiato.com/artificial-intelligence/openai-dissolves-team-focused-on-long-term-ai-risks
تحریریه ABS NEWS | ای بی اس نیوز