chatgpt IA NOTICIAS PORTADA

OpenAI recula ante el Pentágono – Sam Altman admite un pacto «descuidado» y añade frenos a la vigilancia masiva

En un intento desesperado por frenar la mayor crisis de reputación de su historia, Sam Altman, CEO de OpenAI, anunció una revisión de urgencia de su contrato con el Departamento de Defensa (DoD) de los EE. UU. Tras admitir internamente que el acuerdo inicial pareció «oportunista y descuidado», la compañía ha añadido cláusulas legales explícitas que prohíben el uso de ChatGPT para la vigilancia doméstica de ciudadanos estadounidenses, un punto que había quedado en una peligrosa «zona gris».

La rectificación llega menos de 24 horas después de que se filtrara un aumento del 295% en las desinstalaciones de la app y tras las duras críticas de más de 800 empleados de OpenAI y Google, quienes firmaron una carta abierta denunciando el riesgo de convertir la IA en una herramienta de espionaje estatal.

¿Qué ha cambiado en el contrato?

El nuevo anexo, fechado el 2 de marzo de 2026, intenta cerrar los vacíos legales que su competidor Anthropic se negó a aceptar y que le costaron ser vetado por la administración Trump:

  • Prohibición de Datos Comerciales: La IA no podrá procesar ni analizar bases de datos personales adquiridas comercialmente (como historiales de compras o navegación) para rastrear a ciudadanos estadounidenses.
  • Veto a la NSA: OpenAI aclaró que este contrato es exclusivo para el «Departamento de Guerra» (DoD) y que cualquier uso por parte de agencias de inteligencia como la NSA requeriría un acuerdo separado y una nueva auditoría de seguridad.
  • Supervisión Humana Obligatoria: Se refuerza la prohibición de «decisiones automatizadas de alto riesgo», asegurando que la IA no pueda autorizar el uso de la fuerza o clasificar ciudadanos en listas de vigilancia sin la intervención directa de un oficial humano.

El conflicto de las «tres palabras»: ¿Es suficiente?

A pesar de la enmienda, el debate sigue centrado en la cláusula de «todo uso legal» (all lawful use). Mientras que OpenAI ha aceptado este marco confiando en sus «salvaguardas técnicas», Anthropic —ahora la favorita de los defensores de la privacidad— sostiene que las leyes actuales tienen demasiados agujeros.

Dario Amodei, CEO de Anthropic, advirtió recientemente que el gobierno podría técnicamente evitar la definición de «vigilancia masiva» simplemente comprando datos a intermediarios, algo que el contrato original de OpenAI permitía pero que ahora, supuestamente, ha sido bloqueado.

Impacto en el mercado: El «Efecto Snowden» de 2026

Según analistas OpenAI está luchando contra el fantasma de Edward Snowden. La desconfianza de los usuarios no se ha disipado con el anuncio de Altman; por el contrario, ha reforzado la imagen de Claude (Anthropic) como la «IA ética», provocando que esta última alcance el número 1 en descargas a pesar del veto gubernamental.

«No estamos buscando atajos», afirmó Boaz Barak, investigador de OpenAI, en un intento de calmar a la plantilla. Sin embargo, con el Pentágono manteniendo su postura de que la vigilancia masiva es «ostensiblemente ilegal» (pero negándose a firmar prohibiciones más estrictas antes de este cambio), la relación entre Silicon Valley y el ejército sigue siendo el tema más divisivo de 2026.

Deja un comentario