OpenAI اخیراً گزارش عملکرد GPT-4o را منتشر کرده است که به محدودیت ها و نقص های امنیتی این مدل و نحوه رفع آنها می پردازد. این گزارش نشان می دهد که در آزمایشات، حالت صوتی پیشرفته GPT-4o گاهی اوقات به طور ناگهانی صدای کاربر را بدون اجازه او تقلید می کند.
در بخشی از گزارش OpenAI درباره GPT-4o با عنوان “تولید صدای غیرقانونی”، این شرکت قسمتی را توصیف می کند که در آن هوش مصنوعی ناگهان صدای کاربر را تقلید می کند. OpenAI می نویسد: «در طول آزمایش، موارد نادری را مشاهده کردیم که در آن مدل به طور ناخواسته خروجی تولید می کرد که صدای کاربر را تقلید می کرد. در ادامه می توانید این گفتگو را بشنوید:
همانطور که می بینید، در میانه مکالمه، مدل هوش مصنوعی با صدای بلند می گوید “نه” و سپس با صدای کاربر ادامه می دهد.
تقلید صدای کاربر با استفاده از هوش مصنوعی GPT-4o
OpenAI در گزارش خود می گوید که توانایی یک مدل هوش مصنوعی برای ظاهر شدن شبیه دیگران می تواند منجر به آسیب هایی مانند افزایش تقلب و جعل هویت آسان تر شود. از این توانایی می توان برای انتشار اطلاعات نادرست نیز استفاده کرد.
به گفته این شرکت، GPT-4o می تواند تقریباً هر نوع صوتی موجود در داده های آموزشی خود، از جمله جلوه های صوتی و موسیقی را تولید کند. با این حال، OpenAI با دستورالعمل های خاص از این امر جلوگیری می کند. به طور کلی، چت بات ها دستورالعمل های خاصی دارند که کاربران نمی بینند. به عنوان مثال، هنگامی که شخصی مکالمه متنی را با این چت بات شروع می کند، دستورالعملی برای هوش مصنوعی ظاهر می شود که می گوید: “شما یک ربات گفتگوی مفید هستید، در مورد خشونت صحبت نکنید.”
GPT-4o نیز یک مدل چند رسانه ای است، اما OpenAI دستورالعمل هایی را برای انجام ندادن کارهایی مانند تقلید صدای کاربران تعیین می کند.
در گزارش OpenAI به موارد نادری از تقلید هوش مصنوعی از صدای کاربر اشاره شده است. این شرکت همچنین با محدود کردن کاربر به صداهای ایجاد شده توسط OpenAI با همکاری صداپیشگان، امکان تولید صداهای دیگر را کاهش خواهد داد.
منبع خبر: https://digiato.com/artificial-intelligence/gpt-4o-spoke-in-peoples-voices-without-their-permission
تحریریه ABS NEWS | ای بی اس نیوز