Apple responde a creciente alarma sobre función de escaneo de fotos del iPhone
La compañía había anunciado que lanzaría nuevas herramientas que podrían revisar los archivos en el teléfono de un usuario y verificar si incluían material de abuso sexual infantil
Apple ha respondido a la creciente alarma sobre su nueva función de escaneo del iPhone por parte de expertos en privacidad y competidores.
La semana pasada, la compañía anunció que lanzaría nuevas herramientas que podrían revisar los archivos en el teléfono de un usuario y verificar si incluían material de abuso sexual infantil.
Apple dijo que la función se diseñó teniendo en cuenta la privacidad y que el análisis real se realiza en el iPhone de una persona en lugar de en los sistemas de la empresa. La compañía solo podrá ver fotos si se determina que son lo suficientemente similares a una base de datos existente de imágenes de abuso sexual infantil, dijo.
A pesar de esas garantías, la nueva función ha sido recibida con intensas críticas por parte de los activistas de privacidad y seguridad que dicen que podría debilitar las protecciones fundamentales en el iPhone y abusar de ella para atacar a usuarios inocentes.
Los críticos han sugerido, por ejemplo, que los gobiernos podrían obligar a Apple a agregar otros tipos de imágenes a su base de datos, de modo que la herramienta pueda ser utilizada por regímenes despóticos para rastrear a los disidentes, por ejemplo. Otros temores incluyen la posibilidad de que el sistema salga mal y marque otros tipos de imágenes para que Apple las revise, esencialmente eliminando la privacidad de imágenes completamente inocentes.
Para saber lo que otros están diciendo y unirse a la conversación, desplácese hacia abajo para ver la sección de comentarios o haga clic aquí para ver nuestros artículos más comentados.
Apple ha respondido a esas críticas en un nuevo documento de preguntas frecuentes publicado en su sitio web con el nombre de "Protecciones ampliadas para niños".
En la introducción de ese documento, reconoció que, si bien las características han ganado el apoyo de algunas organizaciones, otras se han "comunicado con preguntas".
Leer más: Gobernador de NY no parece ceder a peticiones de renuncia
Primero busca abordar preguntas sobre la herramienta conocida como “seguridad de las comunicaciones en Mensajes”, que analiza las fotos enviadas a los niños en busca de signos de abuso. Señala que Apple nunca obtiene acceso a esas comunicaciones, que el cifrado de extremo a extremo todavía está garantizado y que se advertirá a los niños antes de que se comparta información con sus padres.
Luego pasa a abordar la característica más controvertida, conocida como "detección de CSAM". En esa sección, Apple asume una serie de compromisos diseñados para calmar la preocupación por la nueva función.
Dice que Apple no escaneará todas las fotos, sino solo las que se hayan subido a iCloud Photos, lo que sugiere que cualquier teléfono con esa función desactivada estará exento. Apple no había dicho previamente explícitamente que habría una forma de optar por no participar en esa función de escaneo.
Apple también se compromete a que solo ha diseñado el sistema para detectar imágenes de abuso sexual infantil, aparentemente en respuesta a las preocupaciones de que el alcance de la función podría ampliarse en el futuro.
Dice que si se le pide que agregue otro tipo de imágenes a su base de datos, “rechazará tales demandas”.
“Hemos enfrentado demandas para construir e implementar cambios exigidos por el gobierno que degradan la privacidad de los usuarios antes, y hemos rechazado firmemente esas demandas”, dice Apple. “Continuaremos rechazándolos en el futuro. Seamos claros, esta tecnología se limita a detectar CSAM almacenado en iCloud y no accederemos a la solicitud de ningún gobierno para expandirla”.
También niega que haya una manera de hacer esto sin la ayuda de Apple, “inyectando” otro tipo de imágenes en la base de datos para que sean marcadas. Dice que Apple no puede agregar nuevas imágenes a esa base de datos, que proviene de organizaciones de seguridad infantil, y que debido a que la base de datos es la misma para todos, no sería posible cambiarla para un usuario específico.
También dice que "no hay informes automáticos a las fuerzas del orden", por lo que Apple vería primero cualquier informe que se pasara a las autoridades. “En el improbable caso de que el sistema marque imágenes que no coincidan con las imágenes CSAM conocidas, la cuenta no se deshabilitaría y no se presentaría ningún informe al NCMEC”, dice.