Virginia Occidental presenta una demanda contra Apple iCloud por no detener el material CSAM

Virginia Occidental tiene presentó una demanda contra Applealegando que la empresa no hizo lo suficiente para evitar que se comparta material de abuso sexual infantil (CSAM) a través de iCloud y otros servicios. Los funcionarios han argumentado que a pesar de tener acceso a herramientas más potentes, la empresa no tomó medidas para detener el intercambio de materiales abusivos. Sin embargo, Apple dice que sigue comprometido con la protección de los niños y los datos de los usuarios en todo su ecosistema digital global.

Apple enfrenta una nueva demanda por no hacer lo suficiente para evitar que se comparta CSAM en iCloud

El Fiscal General JB McCuskey dijo que pleito se centra en lo que él llama lagunas en el enfoque de Apple para detectar CSAM en sus dispositivos y servicios en la nube. Sostiene que otras grandes empresas de tecnología utilizan sistemas de hash automatizados para identificar y bloquear imágenes ilegales conocidas. Sin embargo, Manzana ignoró las herramientas avanzadas y no tomó ninguna medida para proteger el intercambio de CSAM en su ecosistema. Según la denuncia, esa decisión dejó espacio para que archivos dañinos circularan a través del almacenamiento de iCloud.

En 2021, Apple anunció un plan para escanear determinadas fotos cargadas en iCloud en Estados Unidos. El sistema compararía los datos de las imágenes con una base de datos de material de abuso confirmado. Luego enviará informes cuando se alcance un umbral. Sin embargo, algunos usuarios plantearon dudas sobre la posibilidad de que dicha tecnología se expanda más allá de su propósito original. Después de meses de debate y críticas, Apple hizo una pausa y luego eliminó la función. El tecnología El gigante dijo que quería un mejor equilibrio entre seguridad y privacidad.

Los abogados estatales han argumentado que Manzana No debería haber abandonado la función avanzada de escaneo de imágenes. Creen que esas herramientas deberían haber permanecido vigentes de forma permanente. Además, el estado busca sanciones financieras y una orden judicial oficial que requiera que Apple adopte sistemas de detección de CSAM.

En su defensa, Apple dice que la protección de la seguridad infantil y la privacidad del usuario siguen siendo valores fundamentales para la empresa. Destacó sus controles parentales y funciones de seguridad de la comunicación que pueden advertir a los usuarios jóvenes cuando se detectan imágenes confidenciales en mensajes, fotos compartidas, AirDrop o llamadas FaceTime. También dijo que continúa invirtiendo en sistemas avanzados para proteger la privacidad y los datos de sus usuarios.

Fuente: Android Headlines

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *