Apple dio a conocer un plan hace dos semanas basado en buenas intenciones: eliminar imágenes de abuso sexual infantil de los iPhones.
Sin embargo, como suele ser el caso cuando se realizan cambios en la privacidad y seguridad digital, los expertos en tecnología identificaron rápidamente las desventajas: la estrategia de Apple para analizar las fotos privadas de las personas podría dar fuerzas al orden y a los gobiernos una nueva forma de monitorear a los ciudadanos y perseguir a los disidentes. Argumentaron que una vez que se identifica un chip en el Escudo de privacidad, cualquiera puede atacarlo.
Las inquietudes discordantes han puesto de relieve un problema espinoso que la industria de la tecnología no parece estar más cerca de resolver hoy que hace cinco años, cuando Apple confrontó por primera vez al FBI sobre el iPhone de un terrorista muerto.
La tecnología que protege la privacidad de la gente común también puede obstaculizar las investigaciones criminales, pero la alternativa, según los grupos de privacidad y muchos expertos en seguridad, sería peor.
Una vez que se cree esta puerta trasera, será utilizada por personas que no desea usar, dijo Eva Galperin, directora de ciberseguridad de Electronic Frontier Foundation, un grupo de derechos digitales. Este no es un daño teórico, sino un daño que hemos visto ocurrir una y otra vez.
Apple no esperaba esta reacción. Cuando la compañía anunció los cambios, envió a los reporteros complejas explicaciones técnicas y declaraciones entusiastas de grupos de seguridad infantil, científicos informáticos y Eric Holder Jr., el exfiscal general de Estados Unidos. Después de que se conoció la noticia, un portavoz de Apple envió un correo electrónico a un reportero con un mensaje de Twitter de Ashton Kutcher (el actor que ayudó a fundar un grupo contra el abuso sexual de menores) en el que aplaudió las medidas.
Sin embargo, silenciaron su voz en gran medida. Los expertos en seguridad cibernética, el director de la aplicación de mensajería WhatsApp y Edward Snowden, el excontratista de inteligencia que filtró documentos clasificados de vigilancia del gobierno, han denunciado la medida como un precedente peligroso que podría permitir a los gobiernos verificar los teléfonos privados de las personas. .
Apple ha programado cuatro reuniones informativas más para abordar lo que llamó malentendidos, admitió que cometió un error al transmitir su mensaje y anunció nuevas medidas defensivas destinadas a abordar algunas preocupaciones. Más de 8.000 personas respondieron con una carta abierta pidiendo a Apple que detuviera sus acciones.
Por ahora, Apple ha dicho que seguirá adelante con sus planes, pero la compañía se encuentra en una posición precaria. Durante años ha trabajado para hacer que los iPhones sean más seguros y, a su vez, ha hecho de la privacidad una parte central de su estrategia de marketing; sin embargo, lo que era bueno para los negocios también resultó ser malo para los niños maltratados.
Hace unos años, el Centro Nacional para Niños Desaparecidos y Explotados comenzó a revelar la frecuencia con la que las empresas de tecnología informaban casos de pornografía infantil, conocida como pornografía infantil, en sus productos.
Apple estaba abajo. La compañía reportó 265 casos a las autoridades el año pasado, en comparación con los 20,3 millones de Facebook. Esta enorme diferencia se debe, en gran parte, a que Apple ha decidido no buscar estas imágenes para proteger la privacidad de sus usuarios.
A finales de 2019, tras los informes de The New York Times sobre la proliferación de imágenes de abuso sexual infantil en Internet, los miembros del Congreso le dijeron a Apple que debía hacer más para ayudar a las fuerzas de la orden o que lo obligarían a hacerlo. Dieciocho meses después, Apple anunció que había encontrado una manera de solucionar el problema en los iPhones mientras protegía la privacidad de sus usuarios.
El plan incluía modificar su asistente virtual, Siri, para dirigir a las personas que preguntan sobre el abuso sexual infantil a los recursos adecuados. Apple también dijo que pronto permitirá a los padres activar la tecnología que escanea imágenes de mensajes de texto de sus hijos en busca de desnudos. Los niños mayores de 13 años recibirían una advertencia antes de enviar o ver una foto desnuda, mientras que los padres podrían solicitar ser notificados si los niños menores de 13 años lo hicieran.
Los cambios han provocado poca controversia sobre la tercera nueva herramienta de Apple: un programa que escanea las fotos del iPhone de los usuarios y las compara con una base de datos de imágenes conocidas de abuso sexual infantil.
Para evitar falsos positivos y ocultar imágenes de abuso, Apple ha adoptado una estrategia compleja. Su programa reduce cada foto a un conjunto único de números (una especie de huella digital de imagen llamada hash o resumen criptográfico), luego las compara con otros resúmenes criptográficos de imágenes de abuso infantil conocidas proporcionadas por grupos, como el Centro Nacional para Desaparecidos y Explotados. Niños.
Si al menos 30 fotos de un usuario parecen coincidir con las imágenes de abuso, un empleado de Apple revisa las coincidencias. Si alguna de las fotos muestra abuso sexual de menores de edad, Apple la envía a las autoridades y bloquea la cuenta del usuario. Apple ha anunciado que activará esta función en Estados Unidos en los próximos meses.
Los funcionarios encargados de hacer cumplir la ley, los grupos de seguridad infantil, los sobrevivientes de abuso y algunos científicos informáticos han acogido con satisfacción la medida. En declaraciones proporcionadas por Apple, el presidente del Centro Nacional para Niños Desaparecidos y Explotados lo llamó estrategia revolucionariamientras que David Forsyth, profesor de informática en la Universidad de Illinois en Urbana-Champaign, dijo que la tecnología atraparía a los abusadores de niños y que «los usuarios inofensivos sufrirían poca o ninguna pérdida de privacidad».
Para muchos expertos en tecnología, Apple ha abierto Pandora’s Box. Se dice que la herramienta es la primera tecnología integrada en el sistema operativo de un teléfono capaz de analizar los datos privados de una persona y reportarlos a las autoridades policiales. Los grupos de privacidad y los expertos en seguridad temen que los gobiernos que buscan delincuentes, oponentes u otros objetivos encuentren muchas formas de utilizar dicho sistema.
Tal como lo entendemos ahora, no estoy tan preocupado por el abuso de la implementación específica de Apple, dijo Alex Stamos, un investigador de la Universidad de Stanford que anteriormente dirigió el trabajo de seguridad cibernética de Facebook. El problema es que ahora han abierto la puerta a algún tipo de vigilancia que antes no estaba abierta.
Si los gobiernos le hubieran pedido a Apple que analizara las fotos de las personas anteriormente, la compañía podría haber respondido que no podía. Ahora que ha construido un sistema que puede hacerlo, Apple debe declarar que no lo hará.
Creo que está claro que Apple ha intentado hacer esto de la manera más responsable posible, pero el problema es que lo están haciendo en primer lugar, dijo Galperin. Una vez que haya creado un sistema que pueda apuntar a cualquier base de datos, se le pedirá que apunte el sistema a una base de datos específica.
En respuesta, Apple aseguró que no cumpliría con estas solicitudes. Ya hemos enfrentado solicitudes para crear e implementar cambios requeridos por el gobierno que afectan la privacidad del usuario, y las hemos rechazado firmemente. Continuaremos rechazándolos en el futuro, dijo la compañía en un comunicado.