Publicado 23/12/2025 12:19

OpenAI trabaja para frenar las vulnerabilidades de inyección de código en su navegador ChatGPT Atlas

OpenAI trabaja para frenar las vulnerabilidades de inyección de código en su navegador ChatGPT Atlas.
OpenAI trabaja para frenar las vulnerabilidades de inyección de código en su navegador ChatGPT Atlas. - OPENAI

   MADRID, 23 Dic. (Portaltic/EP) -

   OpenAI ha compartido sus avances para reforzar la seguridad del navegador ChatGPT Atlas frente a vulnerabilidades de ataques de inyección, con la implementación de un nuevo sistema de defensa continua que se anticipa a estas amenazas y trata de reducir los riesgos para los usuarios.

   El navegador ChatGPT Atlas, lanzado en octubre, ofrece funciones versátiles que permiten al asistente visualizar páginas web y realizar acciones dentro del navegador de forma autónoma, de manera que aumenta la productividad de navegación y ayuda al usuario de múltiples formas.

   Sin embargo, ChatGPT Atlas, como el resto de navegadores agénticos con capacidad para actuar de manera autónoma, es vulnerable a los ataques de tipo inyección, que introducen instrucciones ocultas para que el modelo de lenguaje las procese y ejecute acciones que normalmente tiene bloqueadas por ser potencialmente dañinas.

   Esta vulnerabilidad, que los convierte en un objetivo de valor para los ciberataques, se dio a conocer recientemente, tras identificar un caso de inyección de portapapeles, que hace que la IA copie un enlace malicioso en el portapeles sin que el usuario se dé cuenta para activarlo en el momento en que decide pegar el contenido en la barra de direcciones.

   Ahora, OpenAI ha trasladado que está llevando a cabo un refuerzo continuo contra ataques de inyección rápida, de cara a descubrir y corregir de forma proactiva las vulnerabilidades de los agentes antes de que "se conviertan en armas en la prácticas".

   Así lo ha detallado la compañía en un comunicado en su blog, donde ha compartido que ha implementado una actualización de seguridad para ChatGPT Atlas que incluye un nuevo modelo entrenado para enfrentar adversarios y con medidas de seguridad reforzadas.

   Esta actualización de seguridad incluye un ciclo de respuesta rápida, desarrollado de la mano de su equipo rojo interno, que dispone capacidades para investigar y descubrir continuamente ataques y enviar mitigaciones rápidamente.

   Asimismo, la tecnológica ha especificado que, para investigar nuevas estrategias de ataque con este sistema, han empleado un "atacante automatizado basado en LLM", es decir, un bot entrenado para desempeñar el papel que llevaría a cabo un 'hacker', para que busque maneras de enviar instrucciones maliciosas a un agente de IA en ChatGPT Atlas.

"Nuestro atacante entrenado mediante aprendizaje de refuerzo puede inducir a un agente a ejecutar flujos de trabajo dañinos sofisticados y de largo alcance que se desarrollan en decenas (o incluso cientos) de pasos", ha explicado OpenAI.

   De esta forma, el bot lleva a cabo ataques en simulaciones para identificar cómo actuaría el agente de IA al respecto y qué acciones debería tomar para evitar dichos ataques. Este proceso se realiza en bucle, dado que, el bot analiza la respuesta del agente ante su ataque y lo ajusta para volver a intentarlo.

   Como resultado, OpenAI ha detallado que, gracias a este ciclo, están descubriendo nuevas estrategias de ataque internamente, "antes de que aparezcan en el mundo real". Por tanto, esta forma de abordar la inyección rápida, junto con una mayor inversión en los controles de seguridad, "puede hacer que los ataques sean cada vez más difíciles y costosos", reduciendo el riesgo de inyección rápida en la realidad.

   Con todo ello, la compañía ha trasladado su intención de continuar trabajando para que los usuarios puedan confiar en un agente de ChatGPT para usar su navegador "de la manera en que confiaría en un amigo altamente competente y consciente de la seguridad".

   No obstante, OpenAI también ha admitido que es "improbable" que la inyección rápida, "al igual que las estafas y la ingeniería social en la web" se resuelvan por completo. "Consideramos que la inyección rápida es un desafío a largo plazo para la seguridad de la IA, y necesitaremos fortalecer continuamente nuestras defensas contra ella", ha sentenciado la tecnológica.

Contador

Contenido patrocinado