Las apelaciones por abuso infantil fueron “mal entendidas”, dice Craig Federighi

Vicepresidente senior de ingeniería de software de Apple, Craig Federigh, habló con el periodista de El periodico de Wall Street, Joanna Stern, sobre la controversia en torno a los recursos de protección futuros contra abuso y pornografía infantil de la empresa, que se implementará después del lanzamiento de iOS / iPadOS 15 y macOS Monterey 12.

Mientras abogaba por la implementación de las herramientas, Federighi dijo que Apple se equivocó al lanzar tres funciones de protección infantil al mismo tiempo y le gustaría que se evitara la confusión, comentando cómo se vio la reacción negativa en Apple.

Vea la entrevista, en su totalidad, en el video a continuación:

Nos hubiera gustado que esto hubiera sido un poco más claro para todos, porque nos sentimos muy positivos con lo que estamos haciendo, y podemos ver que [os recursos] han sido malinterpretados.

Admito que, en retrospectiva, presentar estas dos características al mismo tiempo fue una receta para este tipo de confusión. Está muy claro que se ha confundido mucha información. Creo que el eslogan que salió antes fue: “Dios mío, Apple está escaneando mi teléfono en busca de fotos”. Eso no es lo que está pasando.

Luego, el ejecutivo se hizo eco de lo que Apple ya había revelado en una pregunta frecuente sobre los procesos involucrados en la digitalización de fotos de iCloud de imágenes identificadas como CSAM.1 y qué sucede cuando esta imagen se envía a un niño a través de la aplicación de mensajería.

El ejecutivo también dijo que el escaneo CSAM “no crea un Puerta trasera”Y que no entendía de dónde venía esta teoría.

Eso [o escaneamento de imagens] solo se aplica como parte de un proceso de almacenamiento de algo en la nube. Este no es un procesamiento realizado sobre las imágenes que almacena en Mensajería o Telegram, o lo que está navegando en la web. Esto es literalmente parte del proceso para almacenar imágenes en iCloud.

Cuando se le preguntó si la base de datos de imágenes utilizada para hacer coincidir el contenido CSAM en los dispositivos podría verse comprometida por la inserción de otros materiales, como contenido político, Federighi explicó que esta información tiene referencias cruzadas de imágenes de “varias organizaciones de seguridad infantil”, con al menos siendo dos “en jurisdicciones separadas”.

Sobre por qué anunciar estas características ahora, el vicepresidente de Apple dijo que la compañía finalmente “descubrió cómo implementar una solución a un problema de larga data”.

Al parecer, la empresa también tendrá que convencer a sus propios empleados, así como a clientes, especialistas y entidades que ya están un poco atrasados ​​en las nuevas funcionalidades.

Artículos relacionados