La batalla entre Anthropic y la administración Trump ha llegado a los tribunales. La empresa creadora de Claude ha interpuesto dos demandas federales —una en California y otra en el Tribunal de Apelaciones de D.C.— para anular la decisión del Pentágono de calificarla como un «riesgo para la cadena de suministro». Anthropic alega que esta etiqueta, usualmente reservada para enemigos extranjeros, es en realidad un castigo inconstitucional por su negativa a permitir el uso militar sin restricciones de su tecnología.
El conflicto estalló la semana pasada tras el fracaso de las negociaciones con el Departamento de Defensa, donde Anthropic se mantuvo firme en sus «líneas rojas»: prohibir el uso de su IA para el espionaje masivo de ciudadanos estadounidenses y para alimentar armas letales totalmente autónomas.
Los argumentos de la demanda: Libertad de expresión y debido proceso
En un documento de gran calado jurídico, los abogados de Anthropic sostienen que el gobierno ha excedido sus facultades legales:
- Vulneración de la Primera Enmienda: La empresa argumenta que su política de seguridad es una forma de «expresión protegida» y que el gobierno está utilizando su inmenso poder para castigar a una entidad privada por sus convicciones éticas y «woke», según las propias palabras del presidente en redes sociales.
- Uso indebido de la autoridad: Anthropic señala que la ley utilizada por el Pentágono está diseñada para bloquear a empresas de países adversarios (como Rusia o China), no para perseguir a una empresa estadounidense por discrepancias en los términos de servicio.
- Daño económico irreparable: La demanda afirma que la designación pone en peligro cientos de millones de dólares en contratos con terceros, ya que obliga a otros contratistas de defensa a certificar que no utilizan Claude para poder seguir trabajando con el gobierno.
Silicon Valley se divide: El apoyo de Google y la sombra de OpenAI
Este juicio ha provocado un terremoto en la industria. En un gesto de solidaridad sin precedentes, científicos jefe de otras grandes tecnológicas —incluyendo a Jeff Dean (Google) y expertos de OpenAI— han firmado un escrito de apoyo a Anthropic. Los firmantes argumentan que silenciar a un laboratorio de IA por sus medidas de seguridad frena la innovación y crea un clima de miedo en el sector.
Curiosamente, mientras Anthropic lucha en los tribunales, su rival OpenAI ha tomado el relevo en los servidores del Pentágono, defendiendo que su acuerdo militar incluye sus propios sistemas de seguridad, aunque Dario Amodei (CEO de Anthropic) los ha calificado públicamente de «insuficientes».
El «Efecto Rebote»: Claude lidera las descargas
Irónicamente, la ofensiva del gobierno parece haber tenido el efecto contrario al deseado. Lejos de hundirse, Claude ha alcanzado récords históricos esta semana con un millón de registros diarios, superando por primera vez a ChatGPT en descargas en EE. UU. Los usuarios parecen estar recompensando la postura pro-privacidad de Anthropic frente a lo que perciben como una extralimitación estatal.
¿Qué sigue ahora?
Anthropic no busca una compensación económica, sino una orden judicial que limpie su nombre y le permita volver a competir por contratos federales. El caso es visto por los expertos como el primer gran juicio sobre la «Soberanía Ética» de las empresas tecnológicas: ¿tiene derecho el Estado a obligar a una empresa a que su software sea utilizado para la guerra si sus creadores lo consideran peligroso?

