La tensión entre las potencias tecnológicas ha escalado a un nuevo nivel. Anthropic, la startup respaldada por Google y Amazon, ha denunciado formalmente que varios laboratorios de inteligencia artificial vinculados al gobierno chino están utilizando a «Claude» como una fuente masiva de datos. Según el reporte, estos laboratorios estarían realizando ingeniería inversa y extracción de datos para mejorar sus propios modelos, eludiendo así las restricciones de exportación de chips impuestas por Estados Unidos (Fuente Anthropic).
Esta denuncia llega en un momento crítico, mientras el Congreso de EE. UU. debate endurecer aún más los controles sobre la exportación de semiconductores avanzados. La acusación sugiere que, ante la falta de hardware potente (como los chips H100 de Nvidia), los desarrolladores en China están optando por la «destilación de modelos»: usar la lógica y el razonamiento de las IAs estadounidenses más avanzadas para entrenar modelos locales más pequeños y eficientes.
¿Cómo se realiza este «minado» de datos?
Anthropic ha detectado patrones de uso altamente inusuales que apuntan a una recolección sistemática:
- Consultas de alta densidad: Cuentas vinculadas a infraestructuras en la nube en Asia están enviando millones de prompts diseñados para extraer las «reglas de pensamiento» de Claude.
- Clonación de comportamiento: El objetivo no es solo obtener información, sino copiar el tono, la seguridad y la capacidad de razonamiento del modelo para que la IA china pueda replicar su rendimiento sin haber pasado por el costoso proceso de entrenamiento inicial.
El debate de los chips y la soberanía tecnológica
Este incidente ha servido como combustible para el debate político en Washington. Los defensores de las restricciones argumentan que, si China puede simplemente «robar» la inteligencia de los modelos terminados, las limitaciones de hardware son insuficientes. Por otro lado, algunos expertos señalan que este comportamiento es una consecuencia directa de las sanciones: al no tener acceso a la capacidad de cómputo para crear, se ven forzados a copiar.
La respuesta de Anthropic
Para frenar este saqueo digital, Anthropic ha comenzado a implementar medidas de seguridad más agresivas:
- Degradación Selectiva: Los sistemas ahora detectan patrones de extracción y responden con respuestas más simples o genéricas para evitar entregar su lógica interna.
- Bloqueos Geográficos y de Red: Se han endurecido los filtros para servicios de VPN y centros de datos que muestran comportamientos sospechosos de minería de datos.
Este caso refuerza la idea de que en 2026, la verdadera moneda de cambio no es el hardware, sino los pesos y parámetros de los modelos de lenguaje. La batalla por la supremacía de la IA ya no solo se libra en las fábricas de chips, sino en cada ventana de chat donde se intenta extraer el alma de la tecnología competidora.

