قربانی تجاوز جنسی و کودک آزاری به دلیل عدم اجرای برنامه اسکن عکس های iCloud برای محتوای کودک آزاری (CSAM) علیه اپل شکایت کرده است. در سال 2021، اپل اعلام کرد که در حال کار بر روی یک ابزار تشخیص CSAM است که میتواند چنین سوء استفادههایی را شناسایی کرده و به مرکز ملی کودکان گمشده و مورد بهرهکشی اطلاع دهد، اما بعداً این برنامه را به حالت تعلیق درآورد.
به گزارش نیویورک تایمز، یک زن 27 ساله که در کودکی توسط یکی از بستگانش مورد آزار جنسی قرار گرفته بود، از اپل برای جلوگیری از شناسایی CSAM شکایت کرده است. او در شکایت خود می گوید که با حذف قابلیت اسکن CSAM از آیکلاد، اپل وعده خود را برای محافظت از قربانیانی مانند او زیر پا گذاشت.
به گفته یکی از وکلای این زن، شکایت علیه اپل خواستار تغییر در رویه های این شرکت و پرداخت غرامت احتمالی برای گروهی متشکل از 2680 قربانی واجد شرایط دیگر است. طبق قانون فعلی، قربانیان کودک آزاری می توانند حداقل 150000 دلار غرامت دریافت کنند. اگر خسارت به همه شاکیان احتمالی در دعوای زن تعلق گیرد، و اگر اپل مسئول شناخته شود، کل خسارت ممکن است به حدود 1.2 میلیارد دلار برسد.
برای شناسایی نکردن محتوای کودک آزاری با اپل شکایت کنید
در یک پرونده جداگانه، در آگوست سال جاری، چندین وکیل به نمایندگی از یک کودک 9 ساله قربانی کودک آزاری شکایتی را علیه اپل ارائه کردند. به گزارش نیویورک تایمز، در این مورد، این دختر میگوید که غریبهها لینکهای او را به ویدیوهای مختلف CSAM از طریق iCloud فرستادند و او را تشویق کردند که ویدیوهای مشابهی از خودش ضبط و آپلود کند.
یکی از سخنگویان اپل در بیانیه ای گفت: «محتوای کودک آزاری نفرت انگیز است و ما متعهد به مبارزه با روش هایی هستیم که سوء استفاده کنندگان کودکان را در معرض خطر قرار می دهند. ما در حال نوآوری فوری و پیشگیرانه برای مبارزه با این جنایات بدون به خطر انداختن امنیت و حریم خصوصی کاربران خود هستیم.
یکی از سخنگویان اپل به ویژگیای مانند «ایمنی تماس» در برنامه پیامها اشاره کرد که به کودکان هنگام دریافت یا تلاش برای ارسال محتوای حاوی برهنگی هشدار میدهد تا به شکستن زنجیرهای که منجر به سوء استفاده جنسی از کودکان میشود کمک کند.
منبع خبر: https://digiato.com/security/apple-sued-over-dropping-of-csam-detection-features
تحریریه ABS NEWS | ای بی اس نیوز