La manzana envenenada: todos bajo sospecha
Entre nodos

Periodista especializado en Tecnología con especial interés en la privacidad, el espionaje, la ciberseguridad y los derechos en la esfera digital. Observador de realidades, a veces provocador y defensor de la igualdad, la inclusión y el libre albedrío.
Twitter: @yak3001

La manzana envenenada: todos bajo sospecha
Presencia de marca de Apple en Nueva York. Foto: AFP

“Creemos que el contenido de tu iPhone no es asunto nuestro”.

Tim Cook, 2016.

El 16 de febrero de 2016, el director ejecutivo de Apple, Tim Cook, escribió una carta a sus usuarios advirtiendo sobre los peligros que implicaría el cumplir con una petición que había hecho el FBI para investigar la matanza de San Bernardino: desarrollar un sistema (puerta trasera) que les permitiera eludir el cifrado de los datos y acceder a las comunicaciones y el contenido del iPhone del perpetrador del tiroteo ocurrido el 5 de diciembre de 2015.

“Una vez creada, la técnica podría usarse una y otra vez, en cualquier número de dispositivos. En el mundo físico, sería el equivalente a una llave maestra, capaz de abrir cientos de millones de cerraduras, desde restaurantes y bancos hasta tiendas y hogares. Ninguna persona razonable lo encontraría aceptable”, escribió Cook en ese entonces.

Cinco años han pasado y, sin necesidad de una orden gubernamental, Apple decidió construir una puerta trasera para identificar el contenido de las fotografías y los mensajes de todos los usuarios de los sistemas iPhone, iPad y iCloud, bajo el argumento de combatir la pornografía infantil.

El sistema, que comenzará a funcionar con la nueva actualización del sistema operativo iOS / iPadOS, revisará las imágenes de los dispositivos móviles de sus usuarios y buscará coincidencias con una base de datos de material de abuso sexual infantil del Centro Nacional de Niños Desaparecidos y Explotados de Estados Unidos. Este escaneo se realizará antes de que sean subidas a la nube de iCloud. En caso de haber coincidencias, la tecnológica dará aviso a las autoridades.

Lee también: Apple planea escanear los iPhones en EU en busca de imágenes de abuso sexual infantil

Apple asegura que el escaneo no implica romper el cifrado de los datos pues el sistema no accederá a las imágenes como tal: Las imágenes de la base de datos son transformadas en números que se instalarán en los dispositivos de los usuarios de forma tal que, si en algún momento, un usuario llega a hacerse de una imagen cuyos números coincidan con los de la base de datos, el sistema la identificará y asumirá que se está en posesión de pornografía infantil.

Ante las preocupaciones sobre falsos positivos, la compañía asegura que ante un determinado número de coincidencias, se recurrirá a las revisiones humanas para verificar que las imágenes efectivamente coincidan con la base de datos sobre abuso infantil. Es decir, habrá personas que tendrán acceso al contenido del sistema iCloud, rompiendo así la promesa del cifrado que hasta ahora tanto había defendido.

Otro mecanismo no menos relevante es que el sistema iMessage contará con inteligencia artificial capaz de identificar contenido sexualmente explícito en la mensajería privada y cifrada. Si el usuario que forma parte de un plan familiar es menor de edad, Apple le advertirá que está por enviar o recibir una imagen de este tipo; si el usuario tiene 13 años o menos, se enviará además una alerta a los padres sobre el envío y recepción de contenido explícito.

¿Por qué la controversia?

Si bien hay quienes defienden esta implementación a favor del combate a la pornografía infantil, sería iluso pensar que una tecnología de esta naturaleza se limite por siempre a la defensa de los derechos y la integridad de la niñez.

Las personas expertas y defensoras de los derechos humanos han advertido que la puerta trasera que Apple está por implementar es la antesala a un abanico de abusos de poder, primero, al no haber una base de datos sobre abuso infantil auditada, por lo que podría ser comprometida por agentes externos (gobiernos) y convertirse en un sistema de búsqueda de imágenes disidentes e identificación de personas opositoras a los regímenes.

O quizás no lo tengan que hacer a escondidas. Apple, al implementar un sistema capaz de reconocer imágenes de cierta naturaleza, puede ser obligada por gobiernos autoritarios a identificar y denunciar a opositores, minorías y grupos vulnerables como la población LGBTI.

“Ahora que la tecnología está sobre la mesa, ¿qué tan pronto China y otros (gobiernos) autoritarios con listas negras políticas (disidentes) se apoyarán de Apple para buscar en los teléfonos de los ciudadanos?”, cuestionó el investigador del Citizen Lab, John Scott-Railton.

Lee también: ¿Cómo se comporta la tecnología de Apple contra el software espía Pegasus?

La firma de Cupertino dijo que ha recibido este tipo de solicitudes por parte de los gobiernos, pero las ha rechazado. Sin embargo, la historia dice que no hay garantía de que esto siempre suceda.

En su cuenta de Twitter, Edward Snowden recordó que en 2018, Apple tuvo que migrar las llaves de cifrado de sus usuarios chinos de iCloud a China, otorgándole a las autoridades de aquel país un acceso mucho más fácil a los mensajes de texto, correo electrónico y otros datos almacenados en la nube: “La última vez que China golpeó con una demanda inapropiada de acceso, Apple vendió a sus usuarios. Para citarlos: ‘Aunque defendimos que iCloud no estuviera sujeto a estas leyes, al final no tuvimos éxito’”.

Y si a esto sumamos la implementación de inteligencia artificial capaz de identificar cierto contenido en la mensajería cifrada, también se abre la posibilidad de detectar contenido político, LGBTI o cualquiera que sea incómodo para las autoridades. Esto se traduce en la pérdida de la secrecía en las comunicaciones privadas, llevándonos a un potencial escenario de censura, autocensura y/o persecución.

“Lo hemos dicho antes, y lo diremos de nuevo ahora: es imposible construir un sistema de escaneo del lado del cliente que solo pueda usarse para imágenes sexualmente explícitas enviadas o recibidas por niños. Como consecuencia, incluso un esfuerzo bien intencionado para construir un sistema de este tipo romperá las promesas clave del cifrado del mensajero y abrirá la puerta a abusos más amplios”, advirtió la Electronic Frontier Foundation.

Habrá quienes digan: “el que nada debe, nada teme”, pero el hecho de que Apple ahora se enfile hacia la revisión de nuestras imágenes y mensajes de nuestros teléfonos y tabletas, innegablemente nos coloca en una posición donde todas las personas usuarias somos sospechosas de un crimen, en este caso, de pornografía infantil.

¿Queremos vivir en un mundo donde todas y todos somos delincuentes en potencia por el hecho de tener un smartphone en nuestras manos?