Apple anunció los detalles de un sistema utilizado para detectar materiales de abuso sexual infantil en los dispositivos de sus clientes estadounidenses. Antes de almacenar la imagen en Fotos de iCloud, el sistema busca similitudes entre la imagen del dispositivo y otras imágenes conocidas de abuso infantil. Apple afirma que si se encuentra una coincidencia, un auditor humano evaluará e informará al usuario a la policía. Sin embargo, el anuncio generó preocupaciones de que la tecnología pueda expandirse y permitir que los teléfonos móviles sean escaneados en busca de otros materiales prohibidos, incluido contenido político en dispositivos disidentes. Los expertos en privacidad expresaron su preocupación de que los gobiernos autoritarios puedan usar esta tecnología para monitorear a sus ciudadanos.
Cómo funciona y por qué es tan polémico el software de Apple para detectar pornografía infantil en los iPhone
10
Ago
Apple anunció que las nuevas versiones de iOS y iPadOS que se lanzarán a finales de este año tendrán «nuevas aplicaciones encriptadas para ayudar a limitar la difusión en línea de materiales de abuso sexual infantil, teniendo en cuenta la privacidad de los usuarios». El sistema funciona comparando fotos con una base de datos de imágenes de abuso sexual infantil compilada por el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) y otras organizaciones de protección infantil. Estas imágenes se traducen a códigos digitales que pueden «coincidir» con las imágenes de los dispositivos Apple. La compañía agregó que el sistema también capturará una versión editada pero similar de la imagen original.
Antes de almacenar la imagen en iCloud, la imagen se comparará con el número de la foto conocida de abuso infantil «, dijo Apple. La compañía señaló que el sistema tiene «una precisión extremadamente alta y garantiza que la posibilidad de marcar incorrectamente una cuenta determinada cada año es menos de uno en un billón». Apple dijo que revisará manualmente cada informe para confirmar si hay una coincidencia. A continuación, puede desactivar la cuenta del usuario e informar a las autoridades. Apple dice que esta nueva tecnología proporciona una ventaja de privacidad «significativa» en comparación con los sistemas existentes, porque la compañía solo analiza las fotos de los usuarios, siempre que su cuenta de iCloud tenga un conjunto de imágenes conocidas de abuso sexual infantil. Sin embargo, algunos expertos en privacidad han expresado su preocupación.
«Independientemente de los planes a largo plazo de Apple, han enviado una señal muy clara. En su opinión (muy influyente), está bien construir un sistema para escanear los teléfonos de los usuarios en busca de contenido prohibido», dijo el experto en criptografía de 2016 Matthew Green. Universidad Johns Hopkins. «No importa si tienen razón o no en este momento. Esto equivale a ‘abrir las compuertas’; el gobierno requerirá esta tecnología».