La jefa de robótica de OpenAI renunció debido a un acuerdo con el Pentágono - ForkLog: criptomonedas, IA, singularidad, futuro

ИИ-военщина AI war# La directora de robótica de OpenAI renunció debido a un acuerdo con el Pentágono

En respuesta al controvertido acuerdo de OpenAI con el Departamento de Defensa de EE. UU., Caitlin Kalinowski dejó su puesto como jefa del departamento de hardware de la compañía.

«No fue una decisión fácil. La inteligencia artificial juega un papel importante en la seguridad nacional. Pero la vigilancia a los estadounidenses sin autorización judicial y la autonomía letal sin aprobación humana son cuestiones que merecen una atención más detallada de la que reciben actualmente», escribió ella.

Kalinowski trabajó en Apple en el hardware de las computadoras Mac, luego pasó a Meta, donde fue una de las ingenieras clave en Reality Labs. En 2024, se unió a OpenAI como directora de robótica y hardware de consumo.

En su declaración, destacó que la decisión fue «sobre principios, no sobre personas», expresando «profundo respeto» por el CEO de OpenAI, Sam Altman, y el equipo de la startup.

«En mi opinión, el anuncio se hizo apresuradamente, sin definir límites claros. Principalmente son cuestiones de gestión. Son demasiado importantes para apresurarse a cerrar acuerdos», añadió Kalinowski.

Un representante de OpenAI subrayó que el acuerdo con el Pentágono «establece un camino para el uso responsable de la IA en la seguridad nacional, delineando claramente las líneas rojas: sin vigilancia interna ni armas autónomas».

«Entendemos que las personas tienen convicciones firmes sobre estos temas, y continuaremos discutiéndolos con empleados, gobiernos y la sociedad en todo el mundo», agregó.

El acuerdo entre OpenAI y el Pentágono se firmó a finales de febrero, poco después de que las negociaciones entre Anthropic y el Defensa se estancaran.

Pronto, Altman admitió que la operación fue «apresurada» y que, desde la perspectiva de la imagen de la startup, «no se ve muy bien».

La situación afectó la popularidad de ChatGPT y Claude. La cantidad de eliminaciones del primer chatbot aumentó un 295%, y el segundo alcanzó la cima en la clasificación de App Store.

Descargas de las aplicaciones móviles Claude y ChatGPT en EE. UU. Fuente: Appfigures.## La lucha de las autoridades con Anthropic

En julio de 2025, el Departamento de Defensa de EE. UU. firmó contratos por hasta 200 millones de dólares con Anthropic, Google, OpenAI y xAI para desarrollar soluciones de IA en seguridad.

En enero de 2026, WSJ informó sobre el riesgo de ruptura del acuerdo con Anthropic. Las diferencias surgieron por la estricta política ética de la startup. Sus reglas prohíben usar el modelo Claude para vigilancia masiva y operaciones letales autónomas.

En febrero de 2026, el ejército de EE. UU. utilizó a Claude en una operación para capturar al presidente de Venezuela, Nicolás Maduro, lo que agravó el conflicto.

El CEO de la compañía, Dario Amodei, se reunió con el ministro de Defensa, Pito Hegseth, para discutir la situación. La agencia impuso un ultimátum: Anthropic debe aceptar las condiciones gubernamentales antes del 27 de febrero.

Dario Amodei, CEO de la startup, afirmó que prefiere no colaborar con el Pentágono que aceptar el uso de sus tecnologías, lo cual podría «socavar, en lugar de proteger, los valores democráticos».

A finales de febrero, el presidente de EE. UU., Donald Trump, ordenó a todas las agencias federales abandonar por completo el uso de las tecnologías de Anthropic en seis meses.

Lo calificó como una «empresa fuera de control» dirigida por personas que «no tienen idea de qué es el mundo real».

El Pentágono reconoció oficialmente a Anthropic como un «riesgo para la cadena de suministro», lo que pone en peligro los negocios de la empresa con otros contratistas del gobierno. Microsoft y Google afirmaron que seguirán proporcionando productos de la compañía.

¿Llegará a los tribunales?

Amodei afirmó que su empresa impugnará en los tribunales la decisión del Departamento de Defensa de considerarla un riesgo para la cadena de suministro. Considera que es «sin base legal».

En un comunicado, se indica que la decisión del Pentágono no afecta a la gran mayoría de los clientes de Claude.

Según Amodei, la compañía mantuvo negociaciones productivas con el Departamento de Defensa durante varios días, pero se rompieron tras filtrarse una nota interna en la que el CEO describía la relación con el departamento como «más una demostración de seguridad que una protección real contra riesgos».

Amodei se disculpó por la filtración, diciendo que la compañía no tuvo intención de divulgar el contenido del memorando y que no dio instrucciones a nadie para hacerlo.

«No nos beneficia agravar la situación», escribió.

El jefe de la startup destacó que el documento fue redactado en unas pocas horas tras una serie de anuncios sobre la exclusión de Anthropic de los sistemas federales. Se disculpó por el tono, calificando ese día como «difícil para la empresa».

Amodei agregó que el memorando es una «evaluación obsoleta» y no refleja una «opinión atenta y ponderada». Según él, la prioridad principal de la empresa es garantizar a los soldados estadounidenses y a los expertos en seguridad nacional acceso a herramientas importantes durante las operaciones militares en curso.

Anthropic continuará proporcionando a los departamentos de defensa sus modelos «a costo nominal» durante el tiempo que sea necesario.

El ex asesor de la Casa Blanca en inteligencia artificial, Dean Ball, señaló que a las empresas les será difícil impugnar la decisión del Pentágono.

«Los tribunales son bastante reacios a cuestionar las decisiones del gobierno sobre qué constituye una cuestión de seguridad nacional y qué no. Para ello, hay que superar una barrera muy alta. Pero no es imposible», afirmó el experto.

Recordemos que en febrero, Anthropic suavizó su política de seguridad clave, justificándolo por la necesidad de mantener la competitividad.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado