تکنولوژی و فناوری

OpenAI به افزایش خطر تولید سلاح های بیولوژیکی با استفاده از مدل o1 اذعان کرده است

آخرین مدل هوش مصنوعی OpenAI با خطر فزاینده ای برای سوء استفاده برای ایجاد سلاح های زیستی مواجه است و محققان امنیتی زنگ خطر را در مورد خطرات این فناوری نوظهور به صدا در می آورند. جالب است که OpenAI خود از این خطرات آگاه است و آنها را تصدیق کرده است.

به گزارش فایننشال تایمز، OpenAI مدل جدید خود به نام o1 را روز پنجشنبه معرفی کرد و از قابلیت های جدیدی برای استدلال، حل مسائل دشوار ریاضی و پاسخ به سوالات تحقیقات علمی خبر داد. این قابلیت‌ها به‌عنوان یک پیشرفت حیاتی برای ایجاد هوش مصنوعی جهانی یا ماشین‌هایی با شناخت سطح انسانی دیده می‌شوند.

OpenAI در بخشی از جعبه ابزار خود که نحوه عملکرد هوش مصنوعی را توضیح می‌دهد، می‌گوید که مدل‌های جدید خطر متوسطی برای مسائل مربوط به سلاح‌های شیمیایی، بیولوژیکی، رادیولوژیکی و هسته‌ای (CBRN) دارند.

سطح “متوسط” بالاترین رده ای است که OpenAI تاکنون برای مدل های خود ارائه کرده است. این بدان معنی است که این فناوری “کمکی را ارائه می دهد که به طور قابل توجهی توانایی متخصصان در زمینه های پیشرفته CBRN را برای ایجاد یک تهدید CBRN افزایش می دهد.”

مدل جدید هوش مصنوعی از OpenAI

به گفته کارشناسان، این نرم افزار هوش مصنوعی با قابلیت های پیشرفته تر، مانند توانایی اجرای تفکر گام به گام، خطر سوء استفاده توسط بازیگران بد را افزایش می دهد.

این هشدارها در حالی مطرح می شود که شرکت های فناوری مانند گوگل، متا و آنتروپی برای ساخت و بهبود سیستم های هوش مصنوعی پیشرفته رقابت می کنند. زیرا آنها به دنبال ایجاد نرم افزاری هستند که بتواند به عنوان “عامل” عمل کند که به افراد کمک کند وظایف خود را تکمیل کنند و زندگی خود را انجام دهند.

لایحه کالیفرنیا SB 1047 و مخالفت OpenAI با آن

این منجر به تلاش هایی برای قانونی کردن شرکت های هوش مصنوعی شده است. و در کالیفرنیا، بحث بر سر لایحه‌ای به نام SB 1047 در جریان است که سازندگان مدل‌های هوش مصنوعی را ملزم می‌کند تا گام‌هایی برای کاهش خطر استفاده از مدل‌هایشان برای توسعه سلاح‌های بیولوژیکی بردارند.

برخی از سرمایه گذاران خطرپذیر و گروه های فناوری، از جمله OpenAI، هشدار داده اند که قانون پیشنهادی می تواند تأثیر مخربی بر صنعت هوش مصنوعی داشته باشد. گاوین نیوسام فرماندار کالیفرنیا باید در روزهای آینده تصمیم بگیرد که آیا این قانون را امضا کند یا آن را وتو کند.

منبع خبر: https://digiato.com/artificial-intelligence/openai-gave-o1-artificial-intelligence-model-medium-risk-rating

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

همچنین ببینید
بستن
دکمه بازگشت به بالا