La disputa de defensa de EE.UU. se intensifica a medida que Anthropic presenta una demanda contra el Pentágono por la lista negra de...

En un agudo aumento de las tensiones con Washington, la firma de IA Anthropic ha presentado una demanda contra su inclusión repentina en la lista negra por parte del establecimiento de defensa de EE. UU.

Anthropic demanda al Pentágono por la etiqueta de “riesgo en la cadena de suministro”

Anthropic presentó dos demandas el lunes contra el Departamento de Defensa (DoD), argumentando que la decisión del gobierno de catalogar a la empresa como un “riesgo en la cadena de suministro” es ilegal y viola sus derechos de la Primera Enmienda. La disputa ha estado latente durante meses, mientras la firma buscaba salvaguardas que limitaran el uso militar de su IA para vigilancia masiva doméstica o armas letales totalmente autónomas.

Los nuevos casos, presentados en el tribunal del distrito norte de California y en la corte de apelaciones de EE. UU. para el Circuito de Washington DC, siguen a la emisión formal por parte del Pentágono de la designación de riesgo el pasado jueves. Es notable que esta sea la primera vez que se despliega esta herramienta de lista negra contra una empresa estadounidense. Además, la designación instruye efectivamente a cualquier contratista que haga negocios con el gobierno a cortar todos los lazos con Anthropic, lo que representa una amenaza grave para el modelo de negocio de la firma.

Reclamos de libertad de expresión y represalias contra la administración Trump

La queja de Anthropic sostiene que la administración Trump está castigando a la empresa por negarse a cumplir con lo que describe como las demandas ideológicas del gobierno. Según el documento, esta supuesta represalia viola la protección de la libertad de expresión y representa un intento de coaccionar a la firma para que cambie su postura sobre las aplicaciones militares de la IA.

“Estas acciones son sin precedentes e ilegales. La Constitución no permite que el gobierno utilice su enorme poder para castigar a una empresa por su libertad de expresión protegida,” afirmó Anthropic en su demanda en California. Sin embargo, el gobierno aún no ha detallado públicamente su justificación para la designación.

Integración profunda de Claude en los sistemas de defensa de EE. UU.

Durante el último año, el modelo de IA insignia de Anthropic, Claude, se ha integrado profundamente en el Departamento de Defensa. Hasta hace poco, se reportaba que Claude era el único modelo de IA aprobado para su uso en sistemas clasificados, subrayando su importancia estratégica. Se dice que el DoD ha utilizado extensamente el sistema en operaciones militares, incluyendo decisiones sobre dónde dirigir ataques con misiles en su guerra contra Irán.

Anthropic enfatizó en sus presentaciones que sigue comprometida a proporcionar IA para fines de seguridad nacional. Además, la compañía afirmó en la demanda en California que previamente ha colaborado con el Pentágono para modificar sus sistemas para casos de uso específicos, adaptando la tecnología a requisitos de defensa sensibles.

La firma busca revisión judicial y diálogo continuo

La firma insiste en que buscar revisión judicial no significa retirarse del trabajo de defensa. Más bien, enmarca la acción legal como una salvaguarda necesaria. En un comunicado a The Guardian, un portavoz dijo: “Buscar revisión judicial no cambia nuestro compromiso de largo plazo de usar la IA para proteger nuestra seguridad nacional, pero este es un paso necesario para proteger nuestro negocio, nuestros clientes y nuestros socios.”

Anthropic añadió que desea continuar las negociaciones con el gobierno de EE. UU. a pesar del litigio. Sin embargo, la compañía ha prometido explorar todas las vías posibles para resolver la disputa, incluyendo acciones legales adicionales y diálogo directo con funcionarios federales.

Reclamos de daño económico y señales mixtas

En sus presentaciones judiciales, Anthropic alega que las acciones punitivas de la administración Trump y del Pentágono están “perjudicando irreparablemente a Anthropic” al cortarle el acceso a negocios críticos con el gobierno. La compañía argumenta que la designación de riesgo en la cadena de suministro podría frenar asociaciones en el ecosistema de defensa y tecnología en general.

No obstante, esas afirmaciones parecen contradecir los comentarios del CEO Dario Amodei en una entrevista reciente con CBS News. La semana pasada, Amodei dijo que “el impacto de esta designación es bastante pequeño” y aseguró que la empresa “va a estar bien.” Los observadores señalan que este contraste podría convertirse en un punto focal a medida que avanzan los casos.

Un caso de prueba para la IA, la seguridad nacional y la libertad de expresión

Anthropic enmarca la disputa como un enfrentamiento de alto riesgo sobre innovación y libertad de expresión. “Los acusados buscan destruir el valor económico creado por una de las empresas privadas de más rápido crecimiento en el mundo, que lidera el desarrollo responsable de una tecnología emergente de vital importancia para nuestra nación,” afirma la firma en su demanda. La demanda de Anthropic también plantea preguntas más amplias sobre cómo Washington regulará a los proveedores estratégicos de IA.

En términos más generales, el caso está listo para poner a prueba cuánto puede avanzar el gobierno de EE. UU. en la lista negra de una empresa de IA por diferencias políticas sobre el uso de IA en seguridad nacional. También podría influir en futuras directrices sobre reclamaciones de censura gubernamental y los límites del poder ejecutivo sobre proveedores de tecnología emergente.

El Pentágono permanece en silencio por ahora

El Departamento de Defensa no respondió de inmediato a una solicitud de comentarios sobre las presentaciones o su proceso de toma de decisiones. Por ahora, el desafío legal de Anthropic añade un nuevo punto de tensión al debate sobre cómo EE. UU. debería equilibrar las prioridades de seguridad, libertades civiles y el despliegue rápido de sistemas avanzados de IA en operaciones militares e de inteligencia.

En resumen, las demandas gemelas de Anthropic marcan un enfrentamiento crucial entre un desarrollador de IA en rápido crecimiento y el establecimiento de defensa de EE. UU., con resultados que podrían repercutir en la seguridad nacional, la política tecnológica y las batallas por la libertad de expresión corporativa en 2024 y más allá.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado