پزشکی و سلامت

رونویسی مورد بیمار هوش مصنوعی در بیمارستان های ایالات متحده دارای خطاهایی است

بر اساس گزارش ABC، محققان نسبت به استفاده از ابزارهای هوش مصنوعی برای ثبت و ضبط وضعیت بیمار هشدار دادند.

ابزار رونویسی Whisper OpenAI در چندین بیمارستان ایالات متحده استفاده می شود و گاهی اوقات اطلاعاتی را به رونوشت اضافه می کند که قبلاً ذکر نشده است.

Nabla از ابزار هوش مصنوعی Whisper برای رونویسی مکالمات پزشکی استفاده می کند. به گزارش ABC، این ابزار تاکنون حدود هفت میلیون مکالمه پزشکی را رونویسی کرده است و بیش از 30000 پزشک و 40 سیستم سلامت از آن بهره مند شده اند. نابلا چالش تولید اطلاعات نادرست Whisper را می شناسد و برای حل مشکلات تلاش می کند.

گروهی از محققان از دانشگاه کرنل، دانشگاه واشنگتن و سایر موسسات در مطالعه‌ای دریافتند که مدل زبان Whisper در حدود یک درصد از رونویسی‌ها حرف می‌زند و جملات کاملی را ایجاد می‌کند که گاهی حاوی احساسات خشونت‌آمیز یا عبارات بی‌معنی در طول دوره‌های سکوت ضبط‌شده است. .

محققانی که نمونه‌های صوتی را از وب‌سایت TalkBank AphasiaBank جمع‌آوری کرده‌اند، می‌گویند که سکوت به‌ویژه زمانی که افراد مبتلا به اختلال زبان صحبت می‌کنند رایج است.

محققان دریافتند که Whisper توهم ایجاد می‌کند، از جمله اختراع شرایط پزشکی یا عباراتی که معمولاً در ویدیوها در پلتفرم‌های اشتراک‌گذاری ویدیو مانند YouTube استفاده می‌شوند. OpenAI از بیش از یک میلیون ساعت ویدیوی YouTube برای آموزش مدل زبان GPT-4./Zoomit استفاده کرد

منبع خبر: https://www.saalemnews.com/news/17580/%D8%B1%D9%88%D9%86%D9%88%DB%8C%D8%B3%DB%8C-%D9%88%D8%B6%D8%B9%DB%8C%D8%AA-%D8%A8%DB%8C%D9%85%D8%A7%D8%B1-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-%D8%A8%DB%8C%D9%85%D8%A7%D8%B1%D8%B3%D8%AA%D8%A7%D9%86-%D9%87%D8%A7%DB%8C-%D8%A7%D9%85%D8%B1%DB%8C%DA%A9%D8%A7-%D8%AF%DA%86%D8%A7%D8%B1-%D8%AE%D8%B7%D8%A7-%D9%85%DB%8C-%D8%B4%D9%88%D9%86%D8%AF

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا