chatgpt IA latam NOTICIAS PORTADA

Se descubre una vulnerabilidad en ChatGPT que podría haber robado datos de Google Drive

Un grupo de investigadores de seguridad ha revelado una vulnerabilidad en la integración de ChatGPT con Google Drive, la cual permitía a los atacantes robar datos confidenciales mediante el uso de «prompts» ocultos dentro de documentos.

Los expertos Michael Bargury y Tamir Ishay Sharbat, quienes presentaron el hallazgo en la conferencia Black Hat en Las Vegas, demostraron cómo un atacante podía explotar la integración de ChatGPT con servicios como Google Drive. El ataque, bautizado como «AgentFlayer», funcionaba compartiendo un documento malicioso con la víctima, que contenía instrucciones ocultas para la IA. Estas instrucciones, escritas en un tamaño de letra minúsculo o en color blanco sobre un fondo blanco, no eran visibles para el usuario (Fuente AgentFlayer).

Cuando el usuario pedía a ChatGPT que procesara el documento, el «prompt» oculto secuestraba las operaciones del modelo, instruyéndole a buscar información sensible como claves de API o archivos confidenciales en otras partes de la cuenta de Google Drive y luego enviarla al atacante. Lo más alarmante es que el hack podría ocurrir sin que el usuario notara que se estaba produciendo una fuga de datos. La buena noticia es que OpenAI ya ha corregido esta vulnerabilidad. Sin embargo, este tipo de ataques, conocidos como «inyección de prompts indirecta», subraya la importancia de implementar medidas de seguridad más robustas en el uso de herramientas de inteligencia artificial.