APPLE

Apple podría incurrir en espionaje masivo por herramienta de protección infantil

Aunque se han expresado opiniones a favor de combatir el abuso infantil, los métodos que Apple pretenden aplicar establecerían un precedente para impulsar el espionaje masivo

Los métodos que Apple pretenden aplicar establecerían un precedente para impulsar el espionaje masivo.Los métodos que Apple pretenden aplicar establecerían un precedente para impulsar el espionaje masivoCréditos: Pexels
Por
Escrito en EMPRESAS el

Luego de que Apple confirmó sus intenciones de implementar una herramienta para detectar material de abuso infantil en los iPhone, Mac, iPad y servicios como iMessage y iCloud, varios organismos y defensores de derechos de los usuarios han pedido a la big tech abandonar estos planes. ¿La razón?, dicha herramienta podría ser utilizada para otros fines, como el espionaje masivo.

Apple revisará fotos en iCloud y dispositivos en busca de material de abuso infantil

Apple informó que su herramienta analizará las de fotos, tanto en iCloud y en los dispositivos como iPhone, iPad y Mac. En los casos que detectar material de abuso, la compañía realizaría denuncias a las autoridades.

¿Cómo funciona la herramienta de Apple?

La herramienta es un software que escanea las imágenes alojadas en iCloud en busca de material relacionado al abuso de menores de edad. El proceso usa "CSAM hashes", método criptográfico que busca coincidencias en las imágenes, a partir de una base de datos de niños desaparecidos o explotados.

Apple aseguran que dicho proceso es privado y que se ejecuta en el dispositivo y no en la nube. Y que, para evitar falsos positivos, la herramienta debe coincidir unas 30 veces para que se emita una alerta y se realice un procedimiento de revisión, donde un empleado de la empresa verificará que efectivamente se trata de material de abuso.

Incluso la app de mensajería instantánea de Apple, iMenssage, también estaría revisando qué contenido reciben usuarios menores de 13 años, como imágenes con contenido sexual explícito en sus cuentas familiares. Así, al detectar las fotos en cuestión las mostraría borrosas y los usuarios del dispositivo tendrían que acceder de manera a ellas. En caso de hacerlo, el dispositivo alertaría a sus padres o tutores. Del mismo modo se notificaría si los niños intentan enviar contenido similar.

Defensores de los derechos de los usuarios piden a Apple abandonar esta herramienta

En una carta enviada a Tim Cook, el director general de Apple, una coalición, conformada por 91 organizaciones de la sociedad civil (OSC) de varias partes del mundo, expresa su preocupación por el riesgo potencial al que se subyugaría la privacidad de los usuarios, en caso de continuar con esta idea.

En la misiva argumentan que, aunque están de acuerdo con evitar y prevenir la propagación de material de abuso sexual infantil (CSAM), dichos métodos de Apple "crearán nuevos riesgos para los niños y podrían usarse para censurar el discurso y amenazar la privacidad y seguridad de las personas alrededor del mundo".

La carta va firmada por R3D: Red en Defensa de los Derechos Digitales (México), Electronic Frontier Foundation, The Tor Project, Eticas Foundation (España), Fundación Karisma (Colombia) y la Asociación por los Derechos Civiles (Argentina), entre otras OSC.

¿Qué argumentan las OSC?

Si se llegara a implementar la herramienta de escaneo de imágenes que se suben a la nube, las OSC aseguran que gobiernos presionarán a Apple para buscar otro tipo de imágenes, que no sean sobre abuso de menores.

"Esas imágenes pueden ser de abusos a los derechos humanos, protestas políticas, imágenes que las empresas han etiquetado como 'terroristas' o de violencia extremista, o incluso imágenes poco halagadoras de los mismos políticos que presionarán a la empresa para que las busque", indican las OSC en la misiva.

Incluso, consideran que la medida podría afectar todas las imágenes almacenadas en un dispositivo, y no solamente en las que se alojan en iCloud.

En cuanto al sistema de escaneo y alerta en iMensage, las organizaciones aseguran que los algoritmos para detectar material sexual explícito no son confiables, incluso podría poner en riesgo la integridad del menor en las familias donde no exista una "relación saludable" entre los infantes y sus padres o tutores.

"Un adulto abusivo puede ser el organizador de la cuenta (de Apple ID), y las consecuencias de la notificación parental podrían amenazar la seguridad y el bienestar del niño. Los jóvenes LGBTQ+ en cuentas familiares con padres poco comprensivos están particularmente en riesgo", enfatizan.

La carta concluye con el exhorto a Apple de abandonar estos planes y refrendar su compromiso con la privacidad de los usuarios.

“Apoyamos los esfuerzos para proteger a los niños y nos oponemos firmemente a la proliferación del material de abuso sexual infantil. Pero los cambios que Apple ha anunciado ponen en riesgo a los niños y al resto de usuarios, tanto ahora como en el futuro. Instamos a Apple a que abandone esos cambios y reafirme el compromiso de la empresa de proteger a sus usuarios con cifrado de extremo a extremo. También insistimos a Apple que consulte con más frecuencia a los grupos de la sociedad civil y a las comunidades vulnerables que pueden verse afectadas de manera desproporcionada por los cambios en sus productos y servicios”.

Empleados de Apple en contra de la iniciativa

Desde que se dio a conocer los planes para implementar estas medidas, las criticas no solo han sido externas, los propios empleados de Apple no están de acuerdo. Algunos trabajadores de la compañía debaten sobre las nuevas medidas en un canal interno de Slack. La app empezó a ser utilizada entre los empleados durante la pandemia, como herramienta para el teletrabajo.

Temas