OpenAI activa las alarmas con sus próximos modelos de IA: son una gran amenaza para la seguridad
OpenAI es muy consciente de los riesgos de la inteligencia artificial, y uno de ellos podría tener consecuencias para muchos usuarios, incluso aunque estos no utilicen los productos de la compañía. Según un nuevo informe compartido por la propia empresa a varios medios especializados, hay posibilidades de que los nuevos modelos de IA representen una gran amenaza para la seguridad por varios motivos. Y, por supuesto, esto puede tener consecuencias fatales.
La compañía ha advertido que los hackers podrían aprovechar las altas capacidades de la IA para que esta les ayude a llevar a cabo ciberataques, incluso aunque el atacante no tenga conocimientos previos. Los últimos modelos de OpenAI, de hecho, cuentan con funciones adicionales que pueden ser muy útiles para realizar este tipo de ataques, incluyendo la posibilidad de realizar tareas de forma autónoma durante más tiempo.
La propia OpenAI ha realizado diferentes pruebas para comprobar el riesgo de utilizar sus modelos para realizar ciberataques. Los resultados arrojaron que GPT-5, uno de los modelos más recientes, obtuvo un 27 % de puntuación en una prueba de “captura la bandera”. Se trata de una prueba que consiste en diferentes retos para encontrar cadenas de texto secretas ocultas en sistemas vulnerables. Esta misma prueba también se realizó con GPT-5.1 Codex Max, uno de los modelos de IA más potentes de OpenAI; consiguió un resultado de un 76 %.
Los próximos modelos de OpenAI podrían suponer un riesgo elevado

OpenAI ha explicado al medio Axios que este tipo de riesgos en sus modelos de IA se evalúan con diferentes niveles, y que muchos de ellos, sobre todo futuros modelos de IA, podrían alcanzar niveles “altos” de capacidad cibernética. Esto quiere decir que podrían utilizarse de una forma mucho más fácil y precisa a la hora de realizar ciberataques.
Precisamente, OpenAI ya ha realizado otro tipo de advertencias similares. La más importante, cuando detectaron que ChatGPT Agent, una versión especial de su chatbot de IA, alcanzó una clasificación “alta” a causa de riesgos relacionados con armas biológicas.
¿En qué puede afectar esto a un usuario? Uno de los mayores inconvenientes, es un crecimiento en los ciberataques y estafas. Precisamente, un reciente informe alertaba de una versión falsa de ChatGPT Altlas con la que los atacantes podían obtener datos privados, tales como credenciales y contraseñas.
En cualquier caso, la compañía ha confirmado que están trabajando para mejorar la detección de estos riesgos relacionados con su modelo de IA. En concreto, OpenAI creará un Consejo de Riesgo Fronterizo con diferentes expertos para colaborar estrechamente.