Дитина з iPhone
Apple ha sido demandada por no implementar herramientas para detectar material de abuso sexual infantil (CSAM) en iCloud. La empresa había anunciado planes para escanear iCloud en busca de material CSAM, pero posteriormente los abandonó.
En 2021, Apple anunciadoque está desarrollando una herramienta para detectar CSAM en iCloud que marcaría las imágenes relevantes y notificaría al Centro Nacional de Menores Desaparecidos y Explotados. Sin embargo, estos planes se han enfrentado a duras críticas por los riesgos para la privacidad, y la empresa decidió negarse a aplicarlas.
Esto provocó otra oleada de frustración. Por eso, el pasado fin de semana se presentó una demanda en el norte de California en la que se solicita una indemnización de más de 1.200 millones de dólares para un grupo potencial de 2.680 víctimas. El documento alega que después de presentar planes de protección infantil, Apple «no implementó estas soluciones ni ninguna otra medida para detectar y limitar la propagación de CSAM», causando daños a las víctimas mientras estos materiales seguían circulando.
El portavoz de Apple, Fred Sainz, respondió con la siguiente declaración:
«El material de abuso sexual infantil es aborrecible, y seguimos comprometidos con la lucha contra las acciones que ponen en peligro a los niños. Estamos trabajando de forma urgente y activa en innovaciones para combatir estos delitos sin sacrificar la seguridad y la privacidad de nuestros usuarios. Por ejemplo, la función «Seguridad en la comunicación» avisa a los niños cuando reciben o intentan enviar contenido desnudo, lo que ayuda a romper la cadena de manipulación que conduce al abuso sexual. Seguimos centrados en crear protecciones que ayuden a prevenir la propagación del CSAM antes de que ocurra».
La demanda se produce pocos meses después de que la Sociedad Nacional para la Prevención de la Crueldad contra los Niños (NSPCC) del Reino Unido acusara a Apple de subestimar el alcance del CSAM.
Fuente: Engadget