در مورد قوانین اروپا در مورد هوش مصنوعی چه می دانیم؟
جمعه گذشته، سیاستگذاران و قانونگذاران اتحادیه اروپا بر روی اولین مجموعه قوانین جامع جهان برای تنظیم استفاده از هوش مصنوعی در ابزارهایی مانند چت بات ها و نظارت بیومتریک به توافق رسیدند.
به گزارش ای بی اس نیوز، در هفته های آینده مقامات اروپایی جزئیاتی را بررسی خواهند کرد که می تواند قانون نهایی را تغییر دهد. انتظار میرود این قانون اوایل سال آینده اجرا شود و در سال 2026 مورد استفاده قرار گیرد. تا آن زمان، شرکتها تشویق میشوند تا برای اجرای تعهدات اصلی این مقررات، یک پیمان داوطلبانه هوش مصنوعی امضا کنند.
به گزارش رویترز، موضوعات اصلی توافق شده عبارتند از:
به اصطلاح سیستمهای هوش مصنوعی پرخطر، یعنی سیستمهایی که پتانسیل قابلتوجهی برای آسیب رساندن به سلامت، امنیت، حقوق اساسی، محیط زیست، دموکراسی، انتخابات و حاکمیت قانون دارند، باید مجموعهای از الزامات را برآورده کنند، به عنوان مثال تأثیر آنها. حقوق اساسی و تعهدات دسترسی به بازار اتحادیه اروپا.
سیستمهای هوش مصنوعی که خطرات آنها محدود در نظر گرفته میشود، مشمول الزامات شفافیت بسیار ملایمی خواهند بود، مانند برچسبهای افشایی که اعلام میکنند محتوا توسط هوش مصنوعی تولید شده است تا به کاربران اجازه دهد در مورد نحوه استفاده از آن تصمیم بگیرند.
استفاده از هوش مصنوعی در اجرای قانون
استفاده از سیستمهای شناسایی بیومتریک از راه دور در زمان واقعی در فضاهای عمومی توسط مجریان قانون فقط برای کمک به شناسایی قربانیان آدمربایی، قاچاق انسان، بهرهکشی و جلوگیری از یک تهدید تروریستی خاص و فعلی مجاز است.
علاوه بر این، استفاده از این سیستم ها برای تلاش برای ردیابی مظنونان در جرایم تروریسم، قاچاق، بهره کشی جنسی، قتل، آدم ربایی، تجاوز جنسی، سرقت مسلحانه، مشارکت در یک سازمان جنایی و جرایم زیست محیطی مجاز خواهد بود.
سیستم های هوش مصنوعی همه منظوره و مدل های بنیادی
سیستمهای هوش مصنوعی همه منظوره و مدلهای زیربنایی مشمول الزامات شفافیت مانند ارائه مستندات فنی، مطابقت با قانون کپیرایت اروپا، و ارائه خلاصههای دقیق در مورد محتوای مورد استفاده برای آموزش الگوریتم هستند.
مدلهای بنیادی طبقهبندیشده بهعنوان سیستمهای هوش مصنوعی با ریسک سیستمی و تأثیر بالا، باید ارزیابیهای مدل و خنثیسازی ریسک، انجام آزمایش ارزیابی رفتار خصمانه، گزارش رویدادهای جدی به کمیسیون اروپا، اطمینان از امنیت سایبری و گزارش کارایی انرژی خود را انجام دهند.
تا زمانی که استانداردهای هماهنگ اتحادیه اروپا منتشر نشود، سیستمهای هوش مصنوعی همه منظوره با ریسک سیستماتیک میتوانند برای انطباق با مقررات، به کدهای عملی بهترین عملکرد اعتماد کنند.
هوش مصنوعی ممنوع است
مقررات اتحادیه اروپا موارد زیر را ممنوع می کند:
سیستم های طبقه بندی بیومتریک که از ویژگی های حساسی مانند سیاست، مذهب، فلسفه، گرایش جنسی و نژاد استفاده می کنند.
استخراج بدون هدف تصاویر چهره از اینترنت یا فیلم های دوربین مداربسته برای ایجاد پایگاه های اطلاعاتی تشخیص چهره.
شناخت احساسات در محیط کار و موسسات آموزشی.
رتبه بندی اجتماعی بر اساس رفتار اجتماعی یا ویژگی های فردی. سیستم های هوش مصنوعی که رفتار انسان را برای دور زدن اراده آزاد دستکاری می کنند.
هوش مصنوعی برای بهره برداری از آسیب پذیری افراد به دلیل سن، ناتوانی، موقعیت اجتماعی یا اقتصادی استفاده می شود.
تحریم برای تخلفات نظارتی
بسته به تخلف و اندازه شرکت درگیر، جریمه ها از 7.5 میلیون یورو (8 میلیون دلار) یا 1.5 درصد از گردش مالی سالانه جهانی شروع می شود و تا 35 میلیون یورو یا 7 درصد از گردش مالی جهانی افزایش می یابد.
انتهای پیام