El que más sabe de IA tiene claro que se está volviendo peligrosa y ofrece medio millón de dólares a quien le ayude a controlarla
Cada día la IA está avanzando y mostrándonos que puede ser la tecnología del futuro, el presente ya es parte de ella y desafortunadamente algunos hacen daño, OpenAI busca a un elemento que pueda contrarrestar estos malos efectos
La IA está avanzando a pasos agigantados, muy probablemente sea la tecnología del futuro que más rápido está teniendo avances y que por el mismo motivo se está convirtiendo en una tendencia peligrosa de riesgos y problemas. La aprovechan todos por igual pero los ciberdelincuentes son los primeros en tomarlas y que buscan vulnerar a quién se deje de forma sencilla. Una de las empresas líder en IA como es OpenAI busca elementos que sean capaces de frenar estos comportamientos desmedidos y eliminarlos de una vez por todos para poder fortalecer su propia tecnología. De esta forma planean hacerlo, publicado en su sitio web.
Medio millón de dólares a la persona que pueda controlar los peligros de la IA en internet
Sam Altman, CEO de OpenAI, se pronunció en su perfil de X y a través de la página de su compañía respecto a los peligros que existen respecto a los modelos de IA haciendo énfasis en la seguridad informática y la salud mental. Estas dos ramas serán importante de una nueva posición en OpenAI. Un jefe de preparación que haga un plan que incluya esos dos temas y lo que se pueda derivar respecto a la IA, hacerse cargo de los problemas que surgen en el ámbito emocional y en la seguridad.
We are hiring a Head of Preparedness. This is a critical role at an important time; models are improving quickly and are now capable of many great things, but they are also starting to present some real challenges. The potential impact of models on mental health was something we…
— Sam Altman (@sama) December 27, 2025
Ni más ni menos que 555.000 dólares anuales más ofertas de capital en OpenAI es la cifra que ha puesto Sam Altman para este puesto de entera responsabilidad. Se deberá cumplir con la labor de comprender y medir de una forma matizada de cómo se podría limitar las desventajas que implica el abuso de las capacidades de la IA, además de evaluar cómo debe ser la seguridad a nivel personal o de sufrir ataques cibernéticos con IA.

Sam Altman, creador de OpenAI
Formará parte del equipo de sistemas de seguridad donde se garantiza que los modelos de OpenAI se desarrollen e implementen de forma responsable, según lo que se lee en la descripción del equipo. OpenAI quiere ampliar, fortalecer y guiar el programa de preparación para que los estándares de seguridad de la empresa se puedan adaptar enteramente a las capacidades de cada sistema que se desarrolla desde el interior al exterior.
OpenAI ve este puesto con un fondo próspero, la persona que sea elegida puede durar mucho más tiempo de esta forma
Si la persona contratada tiene mucho conocimiento en aprendizaje automático, seguridad de IA, además de tener experiencia en el diseño o ejecución de evaluaciones, junto con la comunicación clara y emisión de juicios técnicos claros, puede durar mucho tiempo en la empresa y tener asegurado el puesto por varios años. Además, desearían tener experiencia en ciberseguridad, bioseguridad, cualquier experiencia en engaño u otros dominios de riesgo fronterizo, además del modelado de amenazas.

OpenAI lanza la app de Sora para la creación de vídeos con IA
El puesto es para desempeñarse en el área de San Francisco y seguramente muchos estarán aplicando a la vacante con la finalidad de cumplir con una misión realmente valiosa que pueda ayudar a OpenAI y al mundo en general a contrarrestar riesgos y vulnerabilidades en la red, especialmente cuando se utiliza a la IA para hacer el mal.
Puedes seguir a iPadizate en Facebook, WhatsApp, Twitter (X) o consultar nuestro canal de Telegram para estar al día con las últimas noticias de tecnología.