Estudiante esposado, la IA de la escuela confunde un bocadillo con un arma

Un sistema de inteligencia artificial desplegado en una escuela de EE. UU. aparentemente confundió una bolsa de bocadillos de maíz que sostenía un estudiante con un arma de fuego, alertando automáticamente a la policía local de que el niño estaba armado.

Ocurrió en Baltimore (ciudad del Estado de Maryland); Tim Taki Allen estaba sentado con amigos afuera de Kenwood High el lunes por la noche, comiendo Doritos de una bolsa, cuando en un momento fue visto rodeado por policías armados.

“Al principio no entendí lo que estaba pasando hasta que vinieron hacia mí apuntando con sus armas y diciendo: ‘Tírate al suelo’, y pensé: ‘¿Qué?’”, dijo Allen a una estación de televisión local.

Allen explicó que la policía lo hizo arrodillarse, lo esposaron y lo registraron, pero no encontraron nada. En ese momento los agentes le mostraron al niño la imagen que disparó la alarma. “Estaba sosteniendo un paquete de Doritos con las manos y un dedo apuntando, lo que decían parecía un arma”.

El periódico británico El Guardián explica que las escuelas secundarias de Baltimore han estado utilizando un sistema desde el año pasado que debería permitirles identificar rifles, pistolas, etc. examinando imágenes de cámaras, gracias a una IA entrenada para reconocer armas potenciales.

En una carta enviada a las familias, la escuela escribe: «Entendemos lo perturbador que esto pudo haber sido para la persona que fue buscada, así como para otros estudiantes que presenciaron el incidente. Nuestros psicólogos ofrecerán apoyo directo a los estudiantes involucrados en este evento y también están disponibles para hablar con cualquier estudiante que necesite apoyo».

Estudiante esposado porque la IA de la escuela confundió una bolsa de patatas fritas con un arma - macitynet.it
Estudiante esposado, la IA de la escuela confunde la merienda con un arma – aatma.it – Foto de Carlos Bryan desempaquetar

La Inteligencia Artificial no siempre es tan “inteligente”

Algunos tipos de imágenes con IA y sistemas de «visión por computadora» confunden a los sistemas de aprendizaje automático, impidiéndoles identificar correctamente lo que encuentran frente a ellos. Los sistemas de visión por computadora, por su naturaleza, pueden ser falaces sin la misma flexibilidad de razonamiento que tenemos los humanos.

Para ver todos los artículos sobre Inteligencia Artificial, consulte la sección dedicada de aatma.