IA NOTICIAS PORTADA

Wozniak y Pioneros de la IA Exigen Frenar el Desarrollo de la «Superinteligencia»

Más de 800 figuras influyentes, incluido Steve Wozniak y los expertos de IA Geoffrey Hinton y Yoshua Bengio, han firmado una carta abierta solicitando una moratoria en el desarrollo de sistemas de «superinteligencia». La iniciativa, impulsada por el Future of Life Institute (FLI), busca una prohibición total hasta que se establezca un consenso científico sobre la seguridad y un control democrático de la tecnología (Fuente e Informe, Futureoflife).

La creciente preocupación por la velocidad del avance de la Inteligencia Artificial (IA) ha llevado a una alianza inusual de más de 800 personalidades de diversos ámbitos —científico, político, cultural y religioso— a firmar un documento clave. Entre los firmantes destacan el cofundador de Apple, Steve Wozniak, y dos de los ganadores del Premio Turing en IA, Geoffrey Hinton y Yoshua Bengio. La carta, promovida por el Future of Life Institute (FLI), exige un «tiempo muerto» o, más concretamente, una prohibición total en el desarrollo de la «superinteligencia», un tipo de IA hipotética capaz de superar la capacidad cognitiva humana en todas las tareas.

«Este camino ha sido elegido por las empresas y el sistema económico que las impulsa, pero casi nadie ha preguntado al resto de la humanidad si esto es lo que queremos».

La petición no es meramente simbólica; reclama que no se reanude el desarrollo hasta que exista un «amplio consenso científico» sobre la seguridad de estos sistemas y un respaldo público verificable. Esta iniciativa refleja una desconexión entre la ambición de las grandes corporaciones tecnológicas (como OpenAI, Google y Meta) y el deseo de cautela de la ciudadanía. Un sondeo reciente del FLI señala que la mayoría de los estadounidenses desconfía de las empresas tecnológicas para desarrollar la IA de forma responsable, con un 73% exigiendo una regulación estricta. Figuras como Sam Altman de OpenAI, aunque son conscientes de los riesgos, defienden la carrera por la superinteligencia, mientras que los expertos firmantes, como Stuart Russell y Hinton, advierten sobre la urgencia de diseñar sistemas que sean incapaces de causar daño, ya sea por desalineación o por un uso malicioso.

Algunos puntos importantes sobre el tema:

  • El 64 % de los adultos cree que la superinteligencia no debería desarrollarse hasta ser segura y controlable.
  • El 69 % de los estadounidenses cree que el gobierno no está haciendo lo suficiente para regular la IA.
  • Más de la mitad desconfía de las empresas tecnológicas para desarrollar la tecnología de forma responsable.
  • Un 73 % exige una regulación estricta.
  • Sólo un 5 % apoya el statu quo de un avance rápido y sin supervisión.