Continuamos nuestra excursión en el mundo de la inteligencia artificial y las instrucciones que nos están preguntando si tiene que tener miedo de la IA y quién dice que no.
El nombre en sí debe tranquilizarse: «antrópico» tiene la palabra griega adentro para el «ser humano» (la misma raíz de «antropología», para ser entendido). Y una cuarta parte de la italianatal vez la receta real para un punto de vista humanista sobre la inteligencia artificial que conduce a una divergencia en comparación con el neopragmatismo utilitario y transaccional de los Estados Unidos, dado que Los dos fundadores son estadounidenses de primera generación Pero su familia (y su nombre) es muy italiana.
Es Daniela Amodei, co -dueña y presidenta de Anthrope, quien explica que El nombre fue elegido para subrayar cómo la IA debe diseñarse para servir y colaborar con las personas.ayudándoles a alcanzar sus objetivos y vivir mejor. Este enfoque, por decir sobre amodei, se manifiesta tanto en el diseño de sus modelos, Como Claudetanto en procesos de desarrollo, que incluyen técnicas como el aprendizaje de refuerzo basado en la retroalimentación humana. En resumen, el nombre «antrópico» representa la filosofía central de la empresa: Una forma desarrollada de forma segura, ética y alineada a los valores humanos, con el objetivo de minimizar los riesgos y maximizar los beneficios para la sociedad.
Esto, al menos en teoría. Pero en la práctica, nos muestra no solo la estrategia de una de las grandes empresas que modelan el mercado de inteligencia artificial, tanto como lo que podríamos llamar el elefante en el medio de la habitación: A pesar de todo el énfasis y la capacidad transformadora, la IA es aterradora. ¿Demasiado correcto o incorrecto?
Los enormes temores de la opinión pública
Se está burlando de las montañas de la capital y cambiando la forma en que trabaja y ciertamente se ha entretenido. Pero La carrera por la inteligencia artificial ha generado, además de tanto entusiasmo, enormes temores en la opinión pública. Cada semana surgen sobre el potencial y los riesgos de estas tecnologías, a menudo alimentados por escenarios distópicos más cinematográficos y realistas. Anthrope se ajusta a este panorama como una voz que lo hace distinguirlo. Fundada en 2021 por aquellos que han optado por alejarse de la gerencia tomada por Operai, tienen como objetivo «buscar más tamaños de seguridad». La misión de la compañía es clara: Desarrollar sistemas de inteligencia artificial que sean intrínsecamente segurostransparente y alineado con los valores humanos.
La historia de los orígenes es simple. Anthrope nació de la decisión de los hermanos italianos-estadounidenses Dario y Daniela Amodei de dejar OpenAidonde los roles del Vicepresidente de Investigación y el Vicepresidente de Seguridad ocuparon respectivamente. La separación tuvo lugar para las diferencias en la dirección realizada por OpenAi, cada vez más orientada hacia la rápida comercialización de sus tecnologías. En nombre de la empresacomo hemos visto derivado del griego «anthropos» (ser humano), La filosofía que guía su enfoque se refleja: Ponga al hombre en el centro del desarrollo de la inteligencia artificial. Gracias a una financiación significativa, que trajeron La evaluación de la compañía de aproximadamente 5 mil millones de dólaresAnthrope pudo dedicarse a construir una alternativa concreta en el mercado generativo de IA.
El producto superior de la compañía es Claude, un asistente de conversación que compite directamente con Operai Chatgpt. Claude se destaca por su arquitectura basada en lo que Anthrope llama un enfoque «constitucional», que integra principios éticos directamente en el proceso de capacitación de modelos. Atención a la seguridad, segundo antrópico, No es solo un elemento de marketingpero una característica de fundación del producto, diseñada para reducir los riesgos de respuestas inapropiadas o dañinas. La evolución de los modelos de Claude, Llegó a la tercera generación con las variantes haiku, soneto y opusindica el compromiso constante de la empresa para mejorar no solo las habilidades, sino también la confiabilidad de sus sistemas.
Un panorama cada vez más competitivo
En el mercado generativo de inteligencia artificial Se ha desarrollado una competencia cercana entre los diferentes actores. OpenII, con ChatGPT y GPT-4 (ahora GPT-4.1), mantiene una posición dominante gracias a la asociación con Microsoft y una estrategia de marketing agresiva. En cambio Google Respuestas con Géminis, Evolución del Bardo anteriorcentrándose en su infraestructura e integración con servicios de investigación. La perplejidad en cambio representa un enfoque innovador, posicionándose a sí mismo como motor de respuestas en lugar de chatbot simplecon especial atención a la cita de las fuentes.
En este panorama antrópico se destaca por El equilibrio entre la capacidad avanzada y la atención a la seguridadcolocándose como una alternativa ética sin sacrificar el rendimiento.
Sin embargo, hay algo importante que entender. Las diferencias entre estos modelos no son solo técnicas, sino que reflejan Diferentes visiones del futuro de la inteligencia artificial. Operai, a pesar de la estructura híbrida sin fines de lucro/con fines de lucro, ha mostrado una creciente orientación comercial, que culminó en las tensiones que condujeron En la eliminación temporal del CEO Sam Altman en 2023. Google, con su posición dominante en el mercado de la investigación, ve en la IA generativa una oportunidad y una amenaza para su modelo de negocio y tiene una relación a veces contradictoria. Antrópico, mientras recibe fondos significativos también de Amazonmantiene la seguridad y la alineación ética como una prioridad, continuando investigaciones sobre lo que él llama «A la constitucional«.
La verdadera disputa no solo se refiere a la superioridad técnica de los modelos, sino más bien ¿Qué enfoque prevalecerá en la definición de los estándares del sector?. Las elecciones de hoy determinarán cómo evolucionará la inteligencia artificial en los próximos años, con profundas implicaciones para toda la sociedad. La presencia de empresas con diferentes filosofías En realidad representa una ventaja para el ecosistemadado que estimula la innovación en direcciones complementarias y ofrece a los usuarios la oportunidad de elegir soluciones más alineadas a sus valores.
Un miedo injustificado
Llegamos al problema de los problemas: el efecto Terminator (y Skynet). ¿Tienes que tener miedo de la IA? La respuesta es simple: No es necesario temer la inteligencia artificial, sino comprender sus habilidades y límites reales. No es retórica, es sentido común simple. El enfoque de Anthrope muestra que es posible desarrollar sistemas avanzados manteniendo el interés y la seguridad humanos en el centro. Los riesgos existen y no deben subestimarsepero la narración catastrófica que rodea la IA a menudo oscurece las posibilidades concretas de manejar estos riesgos de manera efectiva. La presencia de empresas como Anthrope, que hacen de la seguridad un elemento fundamental de su misión, representa un contrapeso importante para las presiones comerciales que podrían empujar hacia un desarrollo menos cauteloso.
Por supuesto, entre apocalíptico e integrado, como el mundo umberto ecológico dividido, también hay tonos intermedios. Y luego la gente expresa, dependiendo del momento histórico y del contexto diferentes ideas. Dario Amodei, CEO de Anthrope, recientemente dio preocupaciones espaciales sobre los riesgos futuros de la IAsin embargo, subrayando que por esta razón se necesita un enfoque riguroso y responsable. Sus declaraciones en realidad no deben arrojar a las personas en pánico, cuánto resaltar que Aquellos que trabajan más en contacto cercano con estas tecnologías también son aquellos que entienden mejor sus riesgos potenciales y la importancia de tratarlos. El futuro de la inteligencia artificial dependerá de la capacidad de la industria para autoregular y aceptar regulaciones externas, como aquellos a los que trabajan la Unión Europea y el parlamento italiano, por ejemplo. De hecho, también existe la voluntad de los gobiernos del mundo (excluidos de los Estados Unidos, aparentemente) para implementar las regulaciones apropiadas Sin sofocar la innovación. Los usuarios pueden contribuir a este proceso permaneciendo a las empresas informadas y apoyadas que adoptan enfoques más responsables.
La transparencia en los límites y la capacidad de los sistemas de IA (por ejemplo, no «chupar» los datos de los usuarios para usarlos para entrenarlos) es un elemento crucial para generar confianza pública. Claude, por ejemplo, está diseñado ser más transparente sobre lo que sabe y lo que no sabeadmitiendo sus límites en lugar de inventar respuestas plausibles pero inexactas.
Si graba como usuarios, usa por un tiempo y luego le pide a ChatGPT que nos diga qué perfil emerge de nuestras interacciones anteriores, El generativo de OpenAi es muy bueno para ver todo lo que hemos hecho y decirlo en resumen. Intente con este aviso, por ejemplo: «Descríbeme en función de todos nuestros chats. Hable claramente y directamente». El resultado puede sorprenderte.
En cambio, todo esto no es simplemente posible con Claude porque Anthrope no permite que su IA recuerde demasiadas cosas sobre nosotros: «No tengo acceso a las conversaciones anteriores que puede haber tenido en otras sesiones de Claude. Cada nuevo chat es independiente conmigo y no tengo el recuerdo de las interacciones pasadas entre diferentes sesiones».
Esta característica de Claude representa una ventaja significativa en escenarios en los que la confiabilidad es prioridad con respecto a la simple impresión de omnisciencia. La honestidad en los límites de la tecnología es un signo de madurez de la industria y un paso necesario hacia una integración responsable de la IA en la sociedad. Aunque es mucho más cómodo cuando las respuestas están mucho más calibradas y personalizadas, lo que se obtiene mediante la recopilación de datos de las conversaciones anteriores. Es como Una manta mal proporcionada: Demasiado corto para cubrir los pies y la cabeza simultáneamente.
El futuro según antrópico
La visión a largo plazo de Anthrope va más allá del desarrollo de productos comerciales exitosos. Los hermanos Amodei tienen como objetivo establecer un nuevo estándar para el desarrollo ético de la inteligencia artificialinfluyendo en todo el sector. La gran financiación recibida por la compañía sirve esto: mantener un fuerte enfoque en la investigación fundamentalexplorando soluciones innovadoras para garantizar que la IA siga siendo una herramienta al servicio de la humanidad. De hecho, como es largo, sobre todo también siguiendo la exploit de Deepseek, Una organización orientada hacia el marketing inmediato de productos generativos de IA En una científicamente inmadura científica científicamente, en la que se necesita mucha capacidad de cálculo para desarrollar productos y encontrar innovaciones, es contraproducente: los recursos se desvían diariamente a los clientes (para evitar que no haya suficiente capacidad de cálculo a su disposición) a expensas de mejoras e innovaciones.
El enfoque constitucionalque incorpora principios éticos directamente a la arquitectura de los modelos, podría convertirse en un paradigma dominante a medida que la industria madura.
Modelo de negocio de Anthrope equilibra la necesidad de sostenibilidad económica con lealtad a la misión de uno. La compañía ha demostrado que es posible atraer inversiones significativas al tiempo que mantiene un fuerte enfoque en la seguridad y la ética. Esto podría indicar un cambio en las prioridades de los inversores, Cada vez más consciente de la importancia de un desarrollo responsable de la IA. El desafío para antrópico será mantener esta independencia de la visión a medida que crece y compite con los gigantes tecnológicos con recursos prácticamente ilimitados.
La contribución más significativa de antrópico, según sus fundadores, no ser un solo producto, pero habiendo demostrado que hay un mercado de inteligencia artificial desarrollada de manera responsable. La compañía está rastreando un camino alternativo que otros podrían seguir, influyendo en todo el sector hacia estándares más altos de seguridad y ética. En un mundo cada vez más formado por la inteligencia artificial, es importante (al menos en el papel) tener dioses Guardianes atentos como los hermanos amodei y su equipo. Deben ser ese recurso que garantiza que la tecnología de IA generativa sigue siendo una herramienta al servicio del progreso humano, y no se convierte en una amenaza.
Los episodios de esta serie:
Revolución a la Parte 1, el gran seductor es chatgpt bailando en la frontera humana
Revolución a la Parte 2, la versión casera con Ollama y Mistral
Rivoluración a la Parte 3, el cambio silencioso de nuestra economía
Revolución a la Parte 4, la inteligencia artificial cambia las reglas de la investigación en línea
Revolución a la Parte 5, porque Google desafía al gran tabú dando cuerpo a la IA