El director de privacidad de Apple habla sobre los recursos de abuso infantil

Pensaron que Apple había dado suficientes explicaciones sobre su nuevo herramientas de pornografía y abuso infantil? Porque lo encontraron mal: hoy, el TechCrunch publicó una entrevista con Erik Neuenschwander, jefe de privacidad de la empresa, solo para otra ronda de aclaraciones sobre el tema.

Se le preguntó al ejecutivo sobre la posible confusión entre dos de las características anunciadas: las herramientas de protección en iMessage, destinadas solo a menores y realizadas solo con técnicas de inteligencia artificial, y el escaneo de hashes en las fotos que sincronizarás con iCloud.

Segundo Neuenschwander, los dos recursos son parte de la misma iniciativa más amplia contra el abuso infantil, que potencialmente puede proteger no solo a los niños que ya han sido víctimas de estos horrendos crímenes, sino también a los niños que podrían ser objetivos potenciales de sucesos futuros.

Se trata de dos sistemas que forman parte de un grupo mayor, junto con las nuevas intervenciones que llegarán a Siri y Spotlight. Tan importante como es identificar a los recolectores de material conocido de pornografía infantil, ya que este material se almacena en iCloud, también es importante ir más allá de esta situación ya horrible. La detección de CSAM (Material de Abuso Sexual Infantil) significa que ya hay material de este tipo en el proceso de identificación, y que este material se está compartiendo ampliamente, revictimizando a los niños más allá del abuso por el que tuvieron que pasar para crear ese contenido.

Entonces, creo que este es un paso importante, pero también es importante hacer cosas que intervengan primero, cuando las personas se están metiendo en esta área problemática y dañina, o si hay abusadores que intentan atraer o llevar a los niños a situaciones donde el abuso puede ocurrir. Las funciones de iMessage y Siri y la búsqueda manejan solo esta parte del proceso.

O TechCrunch también preguntó, por supuesto, sobre las preocupaciones de privacidad planteadas por el sistema de escaneo de imágenes. Cuando se le preguntó si los gobiernos podrían crear nuevas categorías de contenido que se consideren ilegales o “inaceptables”, lo que podría dañar la privacidad de los usuarios, Neuenschwander respondió de la siguiente manera:

En primer lugar, el sistema se está lanzando solo en EE. UU., Para cuentas de iCloud, por lo que estas hipótesis parecen traer países genéricos o países distintos de EE. UU. La gente parece estar de acuerdo en que la ley estadounidense no le da al gobierno ese tipo de capacidad.

Aún así, incluso en caso de algún intento de cambiar el sistema, tenemos algunas protecciones integradas que lo hacen poco útil para identificar personas con imágenes de otro tipo. La lista de hashes está registrado en el sistema operativo, este sistema es global y no tenemos la capacidad de publicar actualizaciones para usuarios específicos, por lo que la lista de hashes se compartirá entre todos los usuarios cuando el sistema entre en funcionamiento.

Además, el sistema requiere que se exceda el límite de imágenes, por lo que intentar buscar una sola imagen en el dispositivo de una persona o de un grupo no funcionará, porque el sistema no le da a Apple ningún conocimiento de las fotos individuales almacenadas en el dispositivo.

Finalmente, el sistema tiene una etapa de revisión humana, en la que, si una cuenta está etiquetada con una posible colección de CSAM, un equipo de Apple revisará el contenido para verificar que las imágenes son en realidad material de CSAM antes de realizar cualquier denuncia a las autoridades. Por tanto, cualquier hipótesis de mal uso del sistema implica una serie de desviaciones, incluido un escenario en el que Apple cambia su proceso interno para denunciar material que no es ilegal.

Un apéndice: sobre el tema del sistema que se lanzó inicialmente en los EE. UU. (Y el argumento de que las leyes del país protegerían su funcionamiento), vale la pena comprobar esto hilo en Matt Tait, jefe de operaciones de Corellium y ex agente del servicio de inteligencia británico GCHQ. En las publicaciones, Tait plantea una interesante hipótesis de que el sistema podría representar una violación de la Cuarta Enmienda a la Constitución de los Estados Unidos, y la evidencia obtenida por NeuralHash podría ser invalidada por los tribunales del país.

Volviendo a la entrevista, Neuenschwander también confirmó que los usuarios que no quieran enviar al sistema pueden simplemente apagar la fototeca de iCloud; en este caso, las imágenes no serán analizadas y el dispositivo ni siquiera generará hashes de ellos.

La entrevista completa de Neuenschwander se puede leer aquí. ¿Qué pasa, opiniones?

Artículos relacionados