chatgpt IA NOTICIAS PORTADA

Sacudida en OpenAI – Disuelven el equipo de «Alineación de Misión» encargado de la seguridad de la IA

OpenAI ha confirmado la disolución de su equipo de «Mission Alignment» (Alineación de Misión), el grupo interno responsable de garantizar que sus modelos de inteligencia artificial se desarrollen de manera segura, confiable y ética. Este movimiento, reportado inicialmente por Platformer y confirmado por TechCrunch este 11 de febrero de 2026, marca una nueva etapa en la reestructuración de la compañía hacia un enfoque más comercial y agéntico (Fuente Platformer).

El equipo de Alineación de Misión fue creado en septiembre de 2024 con un mandato claro: ser la «conciencia organizativa» de OpenAI. Su labor consistía en asegurar que los sistemas de IA, cada vez más potentes, siguieran las intenciones humanas incluso en situaciones adversas. Sin embargo, en un comunicado oficial, un portavoz de la empresa describió la disolución como una «reorganización rutinaria» dentro de una compañía que se mueve a gran velocidad, asegurando que los principios de seguridad ahora se integrarán directamente en los equipos de producto y plataforma.

Cambios clave en el liderazgo:

  • Josh Achiam, quien lideraba el equipo y era una de las voces más críticas y respetadas en temas de seguridad dentro de la empresa, no abandonará OpenAI. En su lugar, asumirá el nuevo cargo de Chief Futurist (Jefe Futurista). En este rol, Achiam se centrará en investigar el impacto a largo plazo de la Inteligencia Artificial General (AGI) y trabajará con físicos y técnicos para trazar la hoja de ruta de la compañía hacia una tecnología que «beneficie a toda la humanidad».
  • Reasignación de personal: Los otros seis o siete miembros del equipo han sido redistribuidos en diferentes áreas de la empresa, donde supuestamente continuarán trabajando en la robustez y auditoría de los modelos, pero ya no bajo una unidad independiente de supervisión.

Este no es el primer equipo de seguridad que desaparece en OpenAI. En 2024, la empresa ya disolvió el famoso equipo de «Superalineación», liderado en su momento por Ilya Sutskever y Jan Leike, tras profundas discrepancias sobre las prioridades de la empresa (seguridad frente a velocidad de lanzamiento). La desaparición de Mission Alignment refuerza la percepción de que OpenAI está priorizando la integración de funciones agénticas y comerciales —como el reciente lanzamiento de GPT-5.3-Codex— por encima de las estructuras de control externas.

Para los expertos de la industria, la dispersión de estos especialistas sugiere un cambio de filosofía: en lugar de tener un «árbitro» de seguridad, OpenAI busca que la seguridad sea parte del proceso de ingeniería común. Sin embargo, queda en el aire la duda de si este modelo descentralizado tendrá la fuerza necesaria para cuestionar el lanzamiento de productos si se detectan riesgos éticos o sociales profundos en el futuro.

Deja un comentario