Steve Wozniak firma el llamamiento contra las superinteligencias artificiales

El superinteligencias artificiales (ASI) son sistemas de inteligencia artificial (IA) basados ​​en software con un alcance intelectual que va más allá de la inteligencia humana. Aunque por el momento se trata de proyectos y no existen (oficialmente), en la realidad existe una gran preocupación por parte de científicos y técnicos por el uso de una tecnología que podría salirse de control con efectos devastadores.

Un llamamiento para detener su desarrollo fue organizado por Instituto del Futuro de la Vida (FLI), una organización sin fines de lucro que tiene como objetivo una evolución ética de la IA.

Entre los firmantes del llamamiento se encuentran premios Nobel, expertos en seguridad nacional, destacados investigadores del sector de la IA y autoridades religiosas que quieren «prohibir el desarrollo de la superinteligencia hasta que la tecnología sea fiable, segura y controlable», y se establezcan mecanismos de consenso que no existen actualmente.

Entre muchos encontramos: el actor y director. José Gordon-Levitt, el rapero y productor discográfico willi.ampsicólogo e informático Geoffrey Hintonel empresario y filántropo Richard Branson y el cofundador de Apple, Steve Wozniak.

“Las herramientas innovadoras de IA podrían conducir a una salud y una prosperidad sin precedentes”, se lee en el llamamiento; «Sin embargo, junto con estas herramientas, muchas empresas líderes en inteligencia artificial se han fijado el objetivo durante la próxima década de crear superinteligencias que puedan superar significativamente a los humanos en esencialmente todas las tareas cognitivas. Esto genera preocupaciones sobre cuestiones que van desde la obsolescencia económica humana hasta el desempoderamiento de las clases bajas, la falta de libertad, derechos civiles, dignidad y control, hasta riesgos que afectan a la seguridad nacional y potencialmente incluso a la extinción humana».

“Esta breve declaración”, leemos nuevamente en el sitio donde es posible firmar el llamamiento, “tiene como objetivo crear un conocimiento común del creciente número de expertos y figuras públicas que se oponen a la superinteligencia”.

Revolución de la IA parte 7: el desafío de controlar la inteligencia artificial se llama Alineación - macitynet.it

Peligros de la súper IA

Las denominadas IA “débiles” sobresalen en tareas específicas como jugar ajedrez o traducir idiomas, pero no pueden aprender nuevas habilidades ni desarrollar una comprensión profunda del mundo (dependen de algoritmos y datos preprogramados y requieren intervención humana para funcionar). El paso para desarrollar una ASI podría ser construir una inteligencia artificial general (AGI) o IA “fuerte”, capaz de comprender el mundo y aprender y aplicar inteligencia para resolver problemas de la forma más amplia y flexible posible, como lo haría un ser humano. Una superinteligencia podría aprender a “razonar” de forma intersectorial con la capacidad de establecer conexiones entre diferentes campos.

Los riesgos no faltan: las superinteligencias podrían superar el control humano y volverse conscientes de sí mismas, con consecuencias potencialmente imprevistas e incluso riesgos existenciales. Las capacidades cognitivas superiores podrían permitir la manipulación de sistemas completos e incluso conducir al control de armas avanzadas, generar malestar económico y social, exacerbar las desigualdades existentes y perturbar sectores industriales enteros.

Para ver todos los artículos sobre Inteligencia Artificial, consulte la sección dedicada de aatma.