Los informes sobre la inteligencia de la inteligencia artificial son muy exagerados.

Mientras el mundo se entusiasma con ChatGPT y similares, un grupo de investigadores de Apple decidió desempeñar el papel de aguafiestas. Con un giro digno de una serie de televisión, declararon que el emperador está desnudo: la inteligencia artificial, al parecer, el no es tan inteligente.

Pero vayamos en orden. Estos valientes David contra el Goliat del hype tecnológico han profundizado en los modelos de lenguajes grandes (LLM)esos golems digitales detrás de ChatGPT y compañía. Hicieron un largo análisis, completo con publicación científica Para explica lo que encontraron. ¿El veredicto? No hay rastro de razonamiento formal. Cero. Nada. Noches.

El loro estocástico

En cambio, lo que encontraron parece más un sofisticado juego de «encontrar la diferencia» que un proceso de pensamiento real. Y como si hubiéramos confundido un loro especialmente dotado con un filósofo. Y si esto te recuerda las críticas que surgieron al comienzo de la grandilocuente aventura de ChatGPT, tienes razón: ese es exactamente el tema. ¿De qué hablamos cuando hablamos de ChatGPT y otras “inteligencias artificiales conversacionales”?

Pero esto no termina aquí. Los investigadores han ideado una prueba particularmente perversa llamada GSM-NoOp. En la práctica, intentaron confundir los modelos con información irrelevante. ¿Y adivina qué? lo hicieron genial. El resultado de este tipo de Prueba de Rorschach para IA fue la clave.

¿Existe o existe?

Cambie un nombre aquí y allá, agregue algunos detalles superfluos, y aquí el «genio» artificial se vuelve loco. Los resultados pueden variar hasta un 10% solo por estos pequeños cambios. Es como si Einstein cambiara la teoría de la relatividad cada vez que alguien le preguntaba la hora.

Pero ojo, esto no es nada nuevo. Ya en 2017, un grupo de investigadores de Stanford había obtenido resultados similares. Y en 2019, Gary Marcus y Ernest Davis hablaron de ello en su libro “Reinicio de IA”. Simplemente no lo escuchamos en ese momento. ¿Lo haremos ahora? O seguimos repitiendo como loros la narrativa dominante ¿Que la IA es la mayor revolución de la humanidad? ¿La panacea para todos los males? ¿La herramienta con capacidades divinas que lo hará todo?

Inteligencia falsa en el lugar equivocado

De hecho, lo que pasa es que hay científicos que intentan hablar de sus descubrimientos pero nadie los escucha. De lo contrario. Es un poco como si repitiéramos el mismo experimento esperando obtener un resultado diferente.. Einstein (el verdadero) tendría algo que decir sobre esta definición de locura.

Lo preocupante es que estos sistemas ya se utilizan en contextos críticos. Piense en el Cybercab de Elon Musk. Funcionan bien en situaciones comunes (con suerte)pero ¿qué pasa cuando tienen que enfrentarse? ¿Nuevos escenarios? No lo sabemos, no sólo porque la empresa no es precisamente una defensora de la transparencia. Tampoco sabemos por qué la forma en que piensan las cajas negras de las inteligencias artificiales es diferente de cómo pensamos: no son realmente «inteligentes», sino más bien ellos fingen.

Para el responsable de la IA de Meta, los modelos lingüísticos nunca superarán la inteligencia humana
Imagen de Steve Johnson desempaquetar

La ignorancia no es excusa

Y no se trata sólo de una cuestión de conducción autónoma. Porque desde hace mucho tiempo estamos ante una verdadera escalada de los sistemas de inteligencia artificial. Estos sistemas se utilizan en ámbitos cada vez más delicados, desde el diagnóstico médico hasta la gestión financiera. Es como si estuviéramos fomentando decisiones cruciales para un imitador muy talentosopero que no tiene idea de lo que realmente está imitando.

El problema de fondo, Según Gary Marcus (eso es sobre este tema Ha estado golpeando como un martillo neumático desde 1998.), es que las arquitecturas de redes neuronales actuales no son capaces de extrapolar y razonar formalmente. Es como si hubiéramos construido una calculadora que funciona perfectamente hasta que le pides que haga una suma.

¿La solución? Marco propone un enfoque “neurosimbólico”que combina redes neuronales con manipulación simbólica. Básicamente, quiere pon algo de álgebra en el batido neuronal. Puede que no sea la panacea, pero al menos es un intento de salir del callejón sin salida en el que nos hemos metido.

Ten cuidado con la computadora

Todo esto podría parecer como un balde de agua fría sobre el entusiasmo por la IA. Pero en realidad son buenas noticias.. ¿Por qué? Porque nos obliga a lidiar con la realidad, en lugar de arrullarnos en fantasías de películas de ciencia ficción.

Comprender los límites de la IA es el primer paso para mejorarla verdaderamente. Es como cuando te das cuenta de que tu prodigio en realidad no sabe atarse los zapatos: no dejas de amarlo, pero entiendes que aún queda mucho trabajo por hacer. Y en el caso de la IA, aparentemente hay una montaña de trabajo para mantener ocupada a una legión de doctores en aprendizaje automático durante mucho tiempo.

Medio lleno del vaso

Agreguemos también otra observación: Esta conciencia nos permite utilizar la IA de forma más inteligente. (irónicamente). Sabiendo que es buena reconociendo patrones pero no razonando, podremos sacarle el máximo partido en las actividades en las que destaca, sin exigirle imposibles. Es decir, podemos hacer que haga cosas como el análisis de grandes cantidades de datos o reconocimiento de imagen.

Es decir, la IA es perfecta para hacer el análisis de miles de imágenes médicas para detectar posibles anomalías o pronósticos meteorológicos basados ​​en grandes cantidades de datos históricos o, en última instancia, hacer traducción automática entre idiomasexplotando patrones lingüísticos. En lugar de ello, debemos evitar como la peste dejarles tomar decisiones críticas de forma autónoma (cosas como diagnósticos médicos definitivos sin supervisión humana, sentencias judiciales o, para aquellos que se sientan tentados en este sentido, lanzar armas nucleares).

En breve: no hay decisiones críticas de forma independienteno hay tareas que requieran una comprensión ética profunda (como establecer políticas públicas sobre temas sensibles como la eutanasia o el aborto), ni delegaciones de responsabilidad que Requieren empatía y comprensión humanas. (psicólogo automático o mediación en conflictos familiares o diplomáticos), no requieren análisis contextualización histórica o cultural complejay nunca utilices la IA como fuente única y definitiva de información.

Comedia digital

En última instancia, la inteligencia artificial es como una navaja suiza muy sofisticada. Muy útil para muchas cosas, pero no le pedirías que te hiciera un soufflé. O para resolver el enigma de la conciencia.

Entonces, la próxima vez que escuche sobre el “razonamiento” o el “pensamiento” de la IA, tómalo con una pizca de escepticismo. O tal vez con mucho escepticismo e incluso desencanto y aburrimiento en buena medida. Porque la inteligencia artificial, por ahora, es más artificial que inteligente.

Pero no nos desesperemos. Este es solo el comienzo del viaje.. Quién sabe, tal vez algún día tengamos máquinas que piensen. Mientras tanto calentamos las palomitas en el microondas, sacamos una bebida helada y disfrutemos el espectáculo de ver a la humanidad tratando de enseñar a las máquinas a pensar. Es un poco como ver a un gato intentar enseñarle a un pez a trepar a los árboles. Frustrante, claro, pero tremendamente divertido.

Todos los artículos que hablan sobre Inteligencia Artificial están en la sección dedicada de aatma.