Expertos hacen sonar alarma sobre privacidad en la nueva función de escáner de fotos de Apple
La herramienta está destinada a detectar material de abuso sexual infantil, revisando los mensajes y fotos de los usuarios
Los expertos en tecnología continúan haciendo sonar la alarma sobre la nueva y controvertida función de escaneo de iPhone de Apple.
La herramienta está destinada a detectar material de abuso sexual infantil, revisando los mensajes y fotos de los usuarios. Si encuentra tales imágenes, alertará a las autoridades.
Apple ha dicho que todo eso se hace de una manera que protege la privacidad, haciendo el análisis en el teléfono de un usuario y no permitiendo que Apple vea esas fotos a menos que el software iOS determine que es lo suficientemente similar a una imagen en una base de datos de imágenes de abuso infantil.
Pero los críticos señalan que la función socava la seguridad de esas fotos y contradice el compromiso de larga data de Apple con la privacidad.
Muchos de esos críticos argumentan que, si bien el objetivo de encontrar y prevenir material de abuso sexual infantil es noble, el sistema podría debilitar la seguridad de manera más amplia.
La Electronic Frontier Foundation (EFF), por ejemplo, advierten que el sistema podría utilizarse para "abusos más amplios".
“Es imposible construir un sistema de escaneo del lado del cliente que solo pueda usarse para imágenes sexualmente explícitas enviadas o recibidas por niños”, manifestó la organización en un comunicado. “Como consecuencia, incluso un esfuerzo bien intencionado para construir un sistema de este tipo romperá las promesas clave del cifrado del mensajero y abrirá la puerta a abusos más amplios”.
“Esa no es una pendiente resbaladiza; ese es un sistema completamente construido que solo espera la presión externa para hacer el más mínimo cambio”.
La EFF fue una de las organizaciones destacadas en una carta abierta, publicada en línea, que en el momento de su publicación había sido firmada por 6 mil personas.
Leer más: WhatsApp lanza nueva campaña de privacidad tras ataques de usuarios y gobiernos
Esa carta pide a Apple que detenga el despliegue de la tecnología de inmediato, y también solicita que Apple emita "una declaración reafirmando su compromiso con el cifrado de extremo a extremo y con la privacidad del usuario".
“El camino actual de Apple amenaza con socavar décadas de trabajo de tecnólogos, académicos y defensores de políticas para que las fuertes medidas de preservación de la privacidad sean la norma en la mayoría de los dispositivos electrónicos de consumo y casos de uso”, se lee en la carta.
"Pedimos que Apple reconsidere su implementación de tecnología, no sea que deshaga ese importante trabajo".
Will Cathcart, el jefe de WhatsApp, expresó el mismo sentimiento, quien también sugirió que se podría abusar del sistema para buscar otros tipos de contenido.
“Leí la información que Apple publicó ayer y estoy preocupado. Creo que este es el enfoque equivocado y un revés para la privacidad de las personas en todo el mundo”, escribió Cathcart en una serie de tuits.
“La gente ha preguntado si adoptaremos este sistema para WhatsApp. La respuesta es no.”
Continuó detallando el trabajo que había hecho WhatsApp para tratar de encontrar casos de abuso infantil, y mencionó que había reportado 400 mil casos el año pasado, sin romper su seguridad de cifrado. Pero expuso que Apple estaba adoptando un enfoque diferente, y que de hecho ponía en peligro la privacidad y la seguridad.
“Apple ha necesitado durante mucho tiempo hacer más para combatir el CSAM, pero el enfoque que están adoptando introduce algo muy preocupante en el mundo”, escribió.
“En lugar de centrarse en facilitar que las personas informen sobre el contenido que se comparte con ellos, Apple ha creado un software que puede escanear todas las fotos privadas de su teléfono, incluso las fotos que no ha compartido con nadie. Eso no es privacidad”.
“Hemos tenido computadoras personales durante décadas y nunca ha habido un mandato para escanear el contenido privado de todas las computadoras de escritorio, portátiles o teléfonos en todo el mundo en busca de contenido ilegal. No es así como funciona la tecnología construida en países libres.”
“Este es un sistema de vigilancia construido y operado por Apple que podría usarse muy fácilmente para escanear contenido privado en busca de cualquier cosa que ellos o un gobierno decidan que quieren controlar. Los países donde se venden iPhones tendrán diferentes definiciones sobre lo que es aceptable”.
“¿Se utilizará este sistema en China? ¿Qué contenido considerarán ilegal allí y cómo lo sabremos? ¿Cómo gestionarán las solicitudes de los gobiernos de todo el mundo para agregar otros tipos de contenido a la lista para escanear?”
“¿Puede este software de escaneo que se ejecuta en su teléfono ser a prueba de errores? A los investigadores no se les ha permitido averiguarlo. ¿Por qué no? ¿Cómo sabremos con qué frecuencia los errores violan la privacidad de las personas?
“¿Qué pasará cuando las empresas de software espía encuentren una forma de explotar este software? Los informes recientes mostraron el costo de las vulnerabilidades en el software iOS tal cual. ¿Qué sucede si alguien descubre cómo explotar este nuevo sistema?
"Hay tantos problemas con este enfoque, y es preocupante verlos actuar sin contratar a expertos que han documentado durante mucho tiempo sus preocupaciones técnicas y más amplias al respecto".
Concluyó con un vínculo a una carta abierta que Apple publicó en 2016, cuando estaba involucrada en una pelea con el gobierno de los EE. UU. sobre si debería debilitar la seguridad para que las fuerzas del orden pudieran ver el contenido de los teléfonos. Cathcart señaló que Apple había dicho que tal enfoque "socavaría las mismas libertades y la libertad que nuestro gobierno debe proteger", y lo instó a considerar esa declaración a raíz de las nuevas características.