Apple planea escanear los iPhones en EU en busca de imágenes de abuso sexual infantil
La herramienta neuralMatch realizará un escaneo para buscar imágenes existentes de abuso sexual infantil antes de subirlas a iCloud. Foto: Stanislav Kogiku/Sopa Images/Rex/Shutterstock

Apple escaneará las bibliotecas de fotos almacenadas en los iPhones en Estados Unidos en busca de imágenes existentes de abuso sexual infantil, de acuerdo con la empresa. Esto ha provocado los elogios de los grupos de protección de la infancia, pero cruzando una línea que los defensores de la privacidad advierten que podría tener ramificaciones peligrosas. La empresa también examinará por primera vez el contenido de los mensajes cifrados de extremo a extremo.

La herramienta de Apple, llamada neuralMatch, escaneará las imágenes antes de que los usuarios las suban al almacenamiento en línea iCloud Photos de la empresa, comparándolas con una base de datos de imágenes existentes de abuso infantil. Si se detecta una coincidencia lo suficientemente fuerte, el personal de Apple podrá revisar manualmente las imágenes reportadas y, si se confirma el abuso infantil, se desactivará la cuenta del usuario y se notificará al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC).

Dado que la herramienta solo busca imágenes que ya figuran en la base de datos del NCMEC, los padres que tomen fotos de sus hijos en el baño, por ejemplo, supuestamente no tienen de qué preocuparse. Pero a los investigadores les preocupa que la herramienta de cotejo, que no “ve” imágenes solo las huellas dactilares matemáticas que las representan, pueda ser utilizada con otros fines.

Lee también: ¿Cómo se comporta la tecnología de Apple contra el software espía Pegasus?

Matthew Green, investigador de criptografía de la Universidad Johns Hopkins, advirtió que el sistema podría utilizarse teóricamente para inculpar a personas inocentes al enviarles imágenes aparentemente inocuas diseñadas para provocar coincidencias con las imágenes de abuso sexual infantil. “Los investigadores han sido capaces de hacer esto con bastante facilidad”, comentó sobre la capacidad de engañar a estos sistemas.

Otros abusos podrían incluir la vigilancia gubernamental a disidentes o manifestantes. “¿Qué pasa cuando el gobierno chino dice: ‘Aquí hay una lista de archivos que queremos que escanees’?”, preguntó Green. “¿Dice Apple que no? Espero que digan que no, pero su tecnología no dirá que no”.

Compañías tecnológicas como Microsoft, Google y Facebook llevan años compartiendo huellas digitales de imágenes existentes de abuso sexual infantil. Apple las ha utilizado para escanear los archivos de los usuarios almacenados en su servicio iCloud en busca de imágenes de abuso sexual infantil. Pero la decisión de trasladar este tipo de escaneo a los dispositivos no tiene precedentes entre las principales compañías tecnológicas.

Además de la tecnología neuralMatch, Apple planea escanear los mensajes cifrados de los usuarios a medida que se envían y reciben a través de iMessage. Una herramienta basada en inteligencia artificial que intentará identificar automáticamente las imágenes sexualmente explícitas, lo que le permitirá a los padres activar filtros automáticos para las bandejas de entrada de sus hijos. Este sistema, cuyo único objetivo es proporcionar herramientas para “advertir a los niños y a sus padres cuando reciban o envíen fotos sexualmente explícitas”, no dará lugar a que las imágenes sexualmente explícitas sean enviadas a Apple o denunciadas a las autoridades. Pero a los padres se les podrá notificar si su hijo decide enviar o recibir fotos sexualmente explícitas.

Lee también: Apple paga millones de dólares a una mujer porque técnicos utilizaron su iPhone para publicar videos explícitos

Apple ha estado bajo presión del gobierno durante años para permitir una mayor vigilancia de los datos cifrados. La creación de estas nuevas medidas de seguridad le ha exigido a Apple lograr un delicado equilibrio entre la lucha contra la explotación infantil y su compromiso de proteger la privacidad de sus usuarios.

Electronic Frontier Foundation, una organización pionera en el campo de las libertades civiles en el internet, calificó el compromiso de Apple en cuanto a la protección de la privacidad como “un cambio radical para los usuarios que han confiado en el liderazgo de la compañía en materia de privacidad y seguridad“.

El informático que hace más de una década inventó PhotoDNA, la tecnología utilizada por las fuerzas policiales para identificar imágenes de abuso sexual infantil en internet, reconoció el posible riesgo de abuso del sistema de Apple, pero dijo que éste se veía superado por el imperativo de luchar contra el abuso sexual infantil.

“¿Es posible? Por supuesto. ¿Pero es algo sobre lo que estoy preocupado? No”, comentó Hany Farid, investigador de la Universidad de California en Berkeley, quien argumentó que muchos otros programas diseñados para proteger los dispositivos de diversas amenazas no se habían visto afectados por “este tipo de ampliación de actividades”. Por ejemplo, WhatsApp le ofrece a los usuarios un cifrado de extremo a extremo para proteger su privacidad, pero también emplea un sistema para detectar programas maliciosos y advertirle a los usuarios de que no hagan clic en enlaces dañinos.

Apple fue una de las primeras empresas más importantes en adoptar el cifrado de extremo a extremo, en el que los mensajes se codifican para que solo puedan leerlos sus remitentes y destinatarios. Las fuerzas policiales han presionado durante mucho tiempo a la empresa para que les permita el acceso a esa información. Apple dijo que los últimos cambios se aplicarían este año como parte de las actualizaciones de su software operativo para iPhones, Macs y Apple Watches.

Lee también: Apple lanza actualizaciones diseñadas para personas con discapacidad

“La ampliación de la protección para los niños por parte de Apple es un cambio de juego”, consideró John Clark, presidente y director ejecutivo del NCMEC. “Con tantas personas que utilizan los productos de Apple, estas nuevas medidas de seguridad tienen el potencial de salvar las vidas de los niños“.

Apple negó que los cambios supusieran una puerta trasera que degradara su cifrado. Enfatizó en que eran innovaciones cuidadosamente analizadas que no perturbaban la privacidad del usuario, sino que la protegían.

“En Apple, nuestro objetivo es crear tecnología que empodere a las personas y enriquezca sus vidas, y que al mismo tiempo las ayude a mantenerse seguras”, afirmó la compañía en la publicación en la que anunció las nuevas funciones. “Queremos ayudar a proteger a los niños de los depredadores que utilizan las herramientas de comunicación para reclutarlos y explotarlos, y limitar la difusión de material de abuso sexual infantil“. “Este programa es ambicioso, y la protección de los niños es una responsabilidad importante. Estos esfuerzos evolucionarán y se expandirán con el tiempo”.

Síguenos en

Google News
Flipboard