OpenAI lanza el modo Lockdown en ChatGPT para frenar ataques de inyección de prompts

OpenAI lanza el modo Lockdown en ChatGPT para frenar ataques de inyección de prompts 2

La seguridad en la inteligencia artificial ha dado un paso de gigante esta semana con el anuncio de OpenAI sobre sus nuevas herramientas de protección. La compañía responsable de ChatGPT ha presentado oficialmente el denominado «Lockdown Mode» (Modo de Bloqueo) y las etiquetas de riesgo elevado, dos funciones diseñadas para blindar las conversaciones de los usuarios ante posibles amenazas externas. Según ha explicado la fuente oficial, estas medidas buscan mitigar los ataques de «prompt injection», una técnica donde terceros intentan engañar al sistema para que revele información confidencial o ejecute comandos maliciosos sin que el usuario se dé cuenta.

De acuerdo con la información facilitada por la empresa tecnológica, estas novedades no son solo una actualización menor, sino una respuesta directa a los nuevos riesgos que surgen a medida que la IA se vuelve más capaz y autónoma. Con la integración de ChatGPT en entornos laborales y el uso de herramientas conectadas a la red, la superficie de ataque para los hackers ha crecido considerablemente. Por ello, OpenAI ha decidido implementar controles más estrictos que permitan a los usuarios tener una visibilidad clara sobre cuándo están realizando acciones que podrían comprometer su privacidad o la seguridad de sus datos corporativos.

Qué es el Modo de Bloqueo y cómo protege tus conversaciones

El «Lockdown Mode» se presenta como una configuración de seguridad avanzada y opcional, pensada específicamente para aquellos perfiles que manejan información extremadamente sensible. Según los datos de la compañía, este modo está orientado a ejecutivos, equipos de seguridad, periodistas o investigadores que puedan ser objetivo de ataques dirigidos de alta sofisticación. No es una función que el usuario medio necesite activar para sus tareas cotidianas, pero supone una capa de defensa crucial para quienes necesitan garantías deterministas de que su información no saldrá del entorno controlado de OpenAI.

Cuando este modo está activo, ChatGPT limita drásticamente sus interacciones con sistemas externos. Por ejemplo, de acuerdo con la nota de prensa, la navegación web se restringe únicamente al contenido almacenado en caché, evitando que se realicen peticiones de red en vivo que un atacante podría interceptar. La fuente también señala que se desactivan funciones como la generación de imágenes dentro de las respuestas y el uso de «Deep Research» o el «Agent Mode», ya que estas capacidades podrían ser explotadas para exfiltrar datos si no se cuenta con una seguridad total.

Además, el Modo de Bloqueo afecta a la forma en que el sistema maneja el código y los archivos. Según detalla OpenAI, en este estado no se permite que el código generado en Canvas acceda a la red, ni que el sistema descargue archivos de forma automática para análisis de datos. Sin embargo, los usuarios aún pueden trabajar con archivos subidos manualmente, lo que mantiene la utilidad de la herramienta sin abrir puertas traseras a posibles intrusos. Es una forma de «cerrar las escotillas» ante la sospecha de una amenaza inminente o en entornos de trabajo de alta confidencialidad.

Las nuevas etiquetas de riesgo elevado para una navegación segura

Junto al modo de bloqueo, OpenAI ha introducido las etiquetas de «Elevated Risk» (Riesgo Elevado), un sistema de señalización visual que aparecerá en ChatGPT, ChatGPT Atlas y Codex. Estas etiquetas tienen como objetivo avisar al usuario antes de que realice una acción que conlleve un peligro potencial intrínseco, como abrir un enlace externo desconocido o conectar la IA a una red interna. Según la fuente, estas advertencias no bloquean la acción, pero sirven para que la persona sea consciente de que está entrando en una zona donde la seguridad no puede ser garantizada al cien por cien.

El funcionamiento de estas etiquetas es dinámico y se basa en la capacidad de la empresa para verificar la seguridad del destino o de la herramienta utilizada. Según el comunicado oficial, el aviso de riesgo aparecerá solo cuando no se pueda confirmar la seguridad de la actividad. Si en el futuro OpenAI desarrolla tecnologías que mitiguen ese peligro específico, la etiqueta se retirará de forma automática. Este enfoque permite que los usuarios disfruten de la versatilidad de la IA pero con un «semáforo» de seguridad que les indica cuándo deben proceder con precaución extra.

«Estas protecciones están diseñadas para ofrecer a los usuarios y organizaciones una visibilidad más clara de los riesgos y controles más fuertes contra los ataques de prompt injection», afirma la compañía en su comunicado de prensa.

Disponibilidad y despliegue de las nuevas funciones de seguridad

En cuanto a quién puede usar ya estas novedades, OpenAI ha confirmado que el Modo de Bloqueo ya está disponible para los suscriptores de ChatGPT Enterprise, Edu, Healthcare y el plan específico para profesores. Los administradores de estos espacios de trabajo pueden gestionar estas funciones mediante controles basados en roles, permitiendo que solo ciertos empleados tengan acceso a estas restricciones máximas. Según los planes de la compañía, se espera que el Modo de Bloqueo llegue al público general en los próximos meses, democratizando así una herramienta de ciberseguridad que antes era exclusiva de grandes corporaciones.

La implementación de estas medidas se enmarca en un calendario de lanzamientos muy activo para la empresa, que recientemente también ha presentado mejoras en sus modelos GPT-5.2 y GPT-5.3-Codex-Spark. De acuerdo con los datos facilitados, el objetivo final es que la inteligencia artificial no solo sea más inteligente, sino también más segura por defecto. La fuente indica que, a largo plazo, esperan que los avances en seguridad hagan innecesarias estas etiquetas de riesgo, integrando protecciones invisibles que no interrumpan la experiencia de usuario pero que mantengan los datos a salvo de cualquier intento de robo.

  • Modo de Bloqueo: Desactiva navegación en vivo y funciones de agente para evitar fugas de datos.
  • Etiquetas de Riesgo: Avisos visuales ante enlaces o conexiones externas potencialmente peligrosas.
  • Público objetivo: Usuarios de alto perfil y entornos corporativos con información crítica.
  • Futuro: Expansión gradual a todos los usuarios de la plataforma en los próximos meses.

Para terminar, cabe destacar que estas actualizaciones no afectarán a funciones básicas como la memoria del chat o la capacidad de compartir conversaciones, que seguirán funcionando con normalidad. Según concluye la nota de prensa, OpenAI mantendrá estas configuraciones bajo revisión constante para adaptarse a las nuevas técnicas que utilizan los ciberdelincuentes. En un mundo donde la IA toma decisiones cada vez más importantes, el control del usuario sobre su privacidad se convierte en la máxima prioridad para los desarrolladores de la industria tecnológica actual.

Fuente: https://openai.com/index/introducing-lockdown-mode-and-elevated-risk-labels-in-chatgpt


También podría ser de tu interés:

Deja un comentario