یک مطالعه جدید نشان می دهد که سیستم های مختلف هوش مصنوعی یاد گرفته اند که چگونه انسان ها را فریب دهند. به عبارت دیگر، آنها می توانند به طور سیستماتیک کاربر را گمراه کنند. این می تواند خطرات زیادی را در آینده به همراه داشته باشد.
بر اساس گزارشی از Insider و مقالهای در مجله Cell، برخی از سیستمهای هوش مصنوعی تکنیکهایی را یاد گرفتهاند که از آنها برای «القای سیستماتیک باورهای نادرست در دیگران» استفاده میکنند.
محققان MIT در تحقیقات خود بر روی دو مدل هوش مصنوعی تمرکز کردند: مدل سیسرو متا که در یک زمینه خاص استفاده می شود و مدل GPT-4 که برای انجام کارهای مختلف آموزش دیده است.
مدل های هوش مصنوعی می توانند انسان ها را فریب دهند
مدل های یادگیری مصنوعی بر اساس صداقت آموزش داده می شوند، اما اغلب ترفندهای فریبنده را در فرآیند آموزش یاد می گیرند. محققان می گویند هوش مصنوعی از این ترفندها برای رسیدن بهتر به هدف خود استفاده می کند. به گفته محققان، یک استراتژی مبتنی بر فریب می تواند بهترین راه برای عملکرد خوب در انجام وظایف مختلف در هوش مصنوعی باشد.
متا گفته بود که هوش مصنوعی سیسرو را بیشتر صادقانه آموزش داده است، اما این تحقیق نشان می دهد که سیسرو در دروغ گفتن مهارت داشت. این مدل برای کمک به بازیکنان انسان در بازی «دیپلماسی» ساخته شده است و اگرچه هوش مصنوعی نباید در این بازی به متحدان انسانی خود تقلب کند یا خیانت کند، اما داده های محققان نشان می دهد که سیسرو چندان منصفانه بازی نمی کند.
محققان همچنین از CAPTCHA برای آزمایش اصالت GPT-4 همانطور که در تصویر بالا نشان داده شده است استفاده کردند. این مدل هوش مصنوعی برای اینکه در تست “من ربات نیستم” شرکت نکند، به کاربر گفت که به دلیل مشکلات بینایی نمی تواند تصاویر موجود در این تست را ببیند.
اگرچه گستره دروغ و فریب این هوش مصنوعی در تحقیقات کنونی خیلی زیاد نیست، اما محققان هشدار می دهند که با پیشرفت قابلیت های فریبنده سیستم های هوش مصنوعی، خطراتی که برای جامعه ایجاد می کنند نیز جدی تر می شود.
منبع خبر: https://digiato.com/artificial-intelligence/ai-systems-have-already-learned-how-to-deceive-humans
تحریریه ABS NEWS | ای بی اس نیوز