آخرین مدل هوش مصنوعی OpenAI با خطر فزاینده ای برای سوء استفاده برای ایجاد سلاح های زیستی مواجه است و محققان امنیتی زنگ خطر را در مورد خطرات این فناوری نوظهور به صدا در می آورند. جالب است که OpenAI خود از این خطرات آگاه است و آنها را تصدیق کرده است.
به گزارش فایننشال تایمز، OpenAI مدل جدید خود به نام o1 را روز پنجشنبه معرفی کرد و از قابلیت های جدیدی برای استدلال، حل مسائل دشوار ریاضی و پاسخ به سوالات تحقیقات علمی خبر داد. این قابلیتها بهعنوان یک پیشرفت حیاتی برای ایجاد هوش مصنوعی جهانی یا ماشینهایی با شناخت سطح انسانی دیده میشوند.
OpenAI در بخشی از جعبه ابزار خود که نحوه عملکرد هوش مصنوعی را توضیح میدهد، میگوید که مدلهای جدید خطر متوسطی برای مسائل مربوط به سلاحهای شیمیایی، بیولوژیکی، رادیولوژیکی و هستهای (CBRN) دارند.
سطح “متوسط” بالاترین رده ای است که OpenAI تاکنون برای مدل های خود ارائه کرده است. این بدان معنی است که این فناوری “کمکی را ارائه می دهد که به طور قابل توجهی توانایی متخصصان در زمینه های پیشرفته CBRN را برای ایجاد یک تهدید CBRN افزایش می دهد.”
به گفته کارشناسان، این نرم افزار هوش مصنوعی با قابلیت های پیشرفته تر، مانند توانایی اجرای تفکر گام به گام، خطر سوء استفاده توسط بازیگران بد را افزایش می دهد.
این هشدارها در حالی مطرح می شود که شرکت های فناوری مانند گوگل، متا و آنتروپی برای ساخت و بهبود سیستم های هوش مصنوعی پیشرفته رقابت می کنند. زیرا آنها به دنبال ایجاد نرم افزاری هستند که بتواند به عنوان “عامل” عمل کند که به افراد کمک کند وظایف خود را تکمیل کنند و زندگی خود را انجام دهند.
لایحه کالیفرنیا SB 1047 و مخالفت OpenAI با آن
این منجر به تلاش هایی برای قانونی کردن شرکت های هوش مصنوعی شده است. و در کالیفرنیا، بحث بر سر لایحهای به نام SB 1047 در جریان است که سازندگان مدلهای هوش مصنوعی را ملزم میکند تا گامهایی برای کاهش خطر استفاده از مدلهایشان برای توسعه سلاحهای بیولوژیکی بردارند.
برخی از سرمایه گذاران خطرپذیر و گروه های فناوری، از جمله OpenAI، هشدار داده اند که قانون پیشنهادی می تواند تأثیر مخربی بر صنعت هوش مصنوعی داشته باشد. گاوین نیوسام فرماندار کالیفرنیا باید در روزهای آینده تصمیم بگیرد که آیا این قانون را امضا کند یا آن را وتو کند.
منبع خبر: https://digiato.com/artificial-intelligence/openai-gave-o1-artificial-intelligence-model-medium-risk-rating
تحریریه ABS NEWS | ای بی اس نیوز