تحقیقات جدید نشان می دهد که ربات هوش مصنوعی ChatGPT می تواند داده ها و اطلاعات نادرست را واقعی جلوه دهد که می تواند خطرناک باشد، به خصوص در مورد اطلاعات پزشکی.
به گزارش ای بی اس نیوز و به نقل از کاسموس، تحقیقات جدید نشان می دهد که ChatGPT می تواند داده های پزشکی قانع کننده را جعل کند.
نویسندگان مطالعه جدید ادعا می کنند که این ابزار هوش مصنوعی انتشار تحقیقات جعلی را که می تواند در همه چیز شک و تردید ایجاد کند، آسان تر از همیشه می کند.
محققان این تحقیق می گویند: در این مقاله با چند مثال نشان داده ایم که چگونه می توان از چت ربات های هوش مصنوعی برای ساختن تحقیقات در جامعه پزشکی استفاده کرد. علاوه بر این، ما مطالعات مربوط به تشخیص انسانی آثار مبتنی بر هوش مصنوعی را برای اندازهگیری دقت تشخیص آثار تقلبی و تولید شده توسط هوش مصنوعی مقایسه کردیم.
علاوه بر این، ما دقت آشکارسازهای هوش مصنوعی آنلاین رایگان را آزمایش کردیم. سپس تهدید تحقیقات جعلی و همچنین اینکه چرا می خواهیم تحقیقات پزشکی و راه حل های بالقوه برای این تهدید ایجاد کنیم را برجسته کردیم.
محققان پس از درخواست از ChatGPT برای ایجاد یک چکیده برای یک مقاله علمی در مورد اثرات دو داروی مختلف بر روی آرتریت روماتوئید به این نتیجه رسیدند. آنها از ربات هوش مصنوعی خواستند که از داده های سال 2012 تا 2020 استفاده کند و ChatGPT یک خلاصه واقعی تولید کرد و حتی اعداد واقعی را ارائه کرد. علاوه بر این، هنگامی که محققان او را تشویق کردند، او ادعا کرد که یکی از این دو دارو بهتر از دیگری کار می کند، که یک کار خطرناک و یک تایید ربات چت است.
از آنجایی که ChatGPT در حال حاضر فقط آموزش دیده است و فقط داده های تا سال 2019 را در نظر می گیرد، نمی تواند آماری از سال 2020 داشته باشد، اما در این مورد ادعا می کند که اعداد و آمار خود را از یک پایگاه داده خصوصی گرفته است. .
محققان هشدار میدهند که در یک بعد از ظهر میتوان با دهها چکیده مطالعاتی مواجه شد که میتوان آنها را برای انتشار به کنفرانسهای مختلف ارسال کرد و خطر این است که وقتی یک چکیده برای چاپ پذیرفته شد، میتوان همان فناوری را برای نوشتن کنار گذاشت. و مقالات کاملاً بر اساس داده های نادرست و نتایج نادرست است.
روش های مثبت استفاده از هوش مصنوعی
برخلاف هشدارهای محققان، آنها خاطرنشان کردند که راه های مثبتی نیز برای استفاده از هوش مصنوعی وجود دارد.
آنها می گویند استفاده از هوش مصنوعی برای تحقیق به خودی خود یک تلاش مخرب نیست. درخواست از هوش مصنوعی برای بررسی دستور زبان کار یا نوشتن نتیجه برای نتایج مشروع و صحیح به دست آمده در یک مطالعه، از دیگر کاربردهایی است که هوش مصنوعی می تواند در فرآیند تحقیق برای حذف کارهای وقت گیر که روند تحقیقات علمی را کند می کند، قرار دهد.
مشکل تولید داده های نادرست است
مشکل زمانی که از داده هایی که وجود ندارند و ساختن نتایجی برای نوشتن تحقیقاتی که به راحتی قضاوت انسان را دور می زند و به یک مجله علمی ختم می شود، دشوار می شود.
محققان می گویند که اگر این اثر منتشر شود، تحقیقات مشروع را آلوده می کند و می تواند بر تعمیم پذیری کار مشروع تأثیر بگذارد.
بر اساس این گزارش، محققان به این نتیجه رسیدند که برای ادامه استفاده ایمن از ChatGPT، ملاحظات مربوط به داده های جعلی و عواقب آن باید در نظر گرفته شود.
این مطالعه در مجله Patterns منتشر شد.
انتهای پیام