El CEO de Epic Games acusa a Apple de actuar como “software espía”

“El infierno se congeló” en el mundo de la tecnología cuando el manzana la semana pasada anunció nuevas funciones de protección contra el abuso infantil y la pornografía, que estarán disponibles con iOS / iPadOS 15 y macOS Monterey 12 a finales de este año.

A pesar de que Apple ya ha tomado una posición y ha aclarado cómo funcionarán las funciones prósperas, los usuarios, las organizaciones e incluso las empresas están de pie, incluido el CEO.1 da Juegos épicos (que tiene sus propios desacuerdos con Apple, recuerda).

Apple y privacidad

Las acusaciones de Tim Sweeney

Apple y Epic no han estado en buenos términos por un tiempo; sin embargo, aparte de sus propios problemas, el gran jefe del gigante de los juegos, Tim Sweeney, decidió comentar (o más bien criticar) los prósperos recursos de seguridad de Apple, insinuando que esto funcionará como una forma para que el gobierno “vigile a la población”.

Traté mucho de ver esto desde el punto de vista de Apple. Pero, inevitablemente, este es un software espía del gobierno instalado por Apple basado en la presunción de culpabilidad. Aunque Apple escribió el código, su función es escanear datos personales e informarlos al gobierno.

En primer lugar, Sweeney afirma que Apple utiliza “patrones sombreados” para habilitar funciones como Fotos de iCloud (a través de las cuales funcionará el escaneo de imágenes), lo que obliga a las personas a “acumular datos no deseados”.

En alusión a la sentencia antimonopolio de Epic contra Apple y al hecho de que Apple debe cumplir con todas las leyes en los países donde opera, Sweeney asume que “Apple ahora será un brazo de vigilancia estatal siempre que sea necesario”, en una clara referencia a sus negociaciones con el gobierno chino.

Sweeney concluyó señalando que la amenaza potencial de los nuevos recursos es “una alianza impía entre el gobierno, los monopolios que controlan el discurso en línea y los dispositivos de todos, utilizando la apariencia de corporaciones privadas para eludir las protecciones constitucionales”.

Vale la pena señalar que las acusaciones de Sweeney sobre el escaneo de imágenes (de iCloud) divergen un poco sobre cómo funcionará realmente el sistema. En lugar de analizar la imagen en sí, la función comparará hashes (códigos pequeños) y haga una referencia cruzada de estos datos con una base de datos de imágenes de pornografía infantil.

Carta contra la implementación de recursos

Además de las críticas, una carta / petición en línea quiere que Apple suspenda los planes para lanzar estas herramientas de seguridad, con signatarios que incluyen expertos como Edward Snowden, cuyas críticas reflejan lo que señaló el CEO de Epic.

La petición, que parece más una acusación que una carta abierta, detalla las apelaciones que Apple ha anunciado y analiza el enfoque de la compañía hacia el abuso infantil y la pornografía, razones por las cuales se crearon las apelaciones.

Si bien la explotación infantil es un problema grave y los esfuerzos para combatirlo son casi incuestionablemente bien intencionados, la propuesta de Apple presenta un puerta trasera que amenaza con socavar las protecciones de privacidad fundamentales para todos los usuarios de productos Apple.

Según un informe de Los Angeles Times, Apple ha declarado que la implementación de estas funciones * no * creará un puerta trasera tampoco romperá el cifrado de extremo a extremo de la aplicación de mensajería, por ejemplo.

La carta también menciona preocupaciones sobre el análisis constante de hashes de imágenes guardadas en iCloud; sin embargo, como lo destaca John Gruber, del Bola de fuego atrevida, hay un “límite” de hashes que activan el escaneo del sistema de Apple.

Apple no está diciendo cuál es ese número límite, pero por el bien del argumento, digamos que el límite es diez. Con diez partidos o menos, no pasa nada y nada puede pasar en el borde de Apple. Solo después de 11 alertas (límite + una), Apple tomará medidas. Aún así, alguien de Apple investigará, examinando el contenido del vales que acompañará a cada foto de iCloud. Aquellos vales están cifrados de tal manera que solo pueden descifrarse en el lado del servidor si se ha identificado el límite (más uno) de coincidencias.

La carta insta a Apple a detener “inmediatamente” el despliegue de “su propuesta de tecnología de seguimiento de contenido” ya que la empresa emita una declaración “reafirmando su compromiso con el cifrado de extremo a extremo y la privacidad del usuario”.


Es cierto que Apple ha adoptado un enfoque exagerado, por lo que siempre vale la pena preguntarse cuál es (o no) el mejor método para implementar funciones tan importantes. Como se destaca por Alex Stamos, del Observatorio de Internet de la Universidad de Stanford:

La discusión sobre el reciente anuncio de Apple de nuevas protecciones de seguridad infantil es bastante frustrante, ya que la relación amplificación / conocimiento parece bastante alta aquí.
.
En mi opinión, aquí no hay respuestas fáciles. Me encuentro constantemente dividido entre el deseo de que todos tengan acceso a la privacidad criptográfica y la realidad de la escala y profundidad del daño que han sido posibles gracias a las tecnologías de comunicación modernas.Diferentes opiniones sobre esto están bien.

Stamos aboga por el desarrollo de recursos para inhibir los efectos de delitos como el abuso de la pornografía infantil, pero enfatiza precisamente el enfoque adoptado por Apple, poniendo en jaque el nivel de intrusión con el grado de efectividad que puede presentar.

Para los interesados, pueden consultar el análisis completo del experto aquí.

Artículos relacionados