سه کارمند سامسونگ به طور ناخواسته اطلاعات محرمانه شرکت را با استفاده از ربات چت هوش مصنوعی ChatGPT افشا کردند.
به گزارش ای بی اس نیوز، شاید ChatGPT ابزاری به نظر برسد که می تواند برای کارهای مختلف تجاری مفید باشد. اما قبل از اینکه از این ربات چت بخواهید نکات مهم را خلاصه کند یا کار شما را از نظر خطا بررسی کند، خوب است به خاطر داشته باشید که هر چیزی که با ChatGPT به اشتراک می گذارید می تواند برای آموزش سیستم استفاده شود و حتی ممکن است در پاسخ های آن به سایر کاربران ظاهر شود. این چیزی است که احتمالاً برخی از کارمندان سامسونگ باید قبل از به اشتراک گذاشتن اطلاعات محرمانه خود با این ابزار هوش مصنوعی می دانستند.
بر اساس گزارشی از Economic Korea، اندکی پس از اینکه واحد نیمه هادی سامسونگ به مهندسان اجازه استفاده از ChatGPT را داد، کارمندان حداقل سه بار اطلاعات محرمانه را با این ابزار به اشتراک گذاشتند. ظاهراً یکی از کارمندان از ChatGPT خواسته است تا کد منبع پایگاه داده حساس را از نظر خطا بررسی کند، یکی دیگر از کارکنان درخواست بهینه سازی کد کرد، و دیگری برای ChatGPT یک جلسه ضبط شده ارسال کرد و از ابزار خواست تا جزئیات جلسه را ایجاد کند.
گزارشها حاکی از آن است که سامسونگ پس از آگاهی از آسیبپذیریهای امنیتی، میزان استفاده از ChatGPT توسط کارمندان خود را محدود کرده تا میزان خطاهای آینده را محدود کند. طبق گزارش ها، این شرکت همچنین در حال بررسی سه کارمند مورد بحث و ایجاد ربات چت خود برای جلوگیری از نقض های امنیتی مشابه است.
طبق وبسایت Engget، سیاست داده ChatGPT بیان میکند که از درخواستهای کاربر برای آموزش مدلهای خود استفاده میکند، مگر اینکه کاربران صریحاً مخالفت کنند. OpenAI، توسعه دهنده ChatGPT، از کاربران خواست که اطلاعات محرمانه را در مکالمات ChatGPT به اشتراک نگذارند، زیرا قادر به حذف برخی درخواست ها از سابقه شما نیست. تنها راه برای خلاص شدن از شر اطلاعات شناسایی شخصی در ChatGPT، حذف حساب کاربری است که ممکن است تا چهار هفته طول بکشد.
انتهای پیام