OpenAI busca jefe de alerta para riesgos de IA con sueldo de hasta 555.000 dólares

OpenAI busca jefe de alerta para riesgos de IA con sueldo de hasta 555.000 dólares 2

OpenAI ha lanzado una oferta de empleo para un «jefe de alerta» que supervise los riesgos de sus herramientas de inteligencia artificial como ChatGPT y Sora. Según la compañía, este puesto conlleva un sueldo anual de hasta 555.000 dólares y se describe como extremadamente estresante. Sam Altman, CEO de OpenAI, lo anunció en X destacando que la persona contratada se enfrentará de inmediato a problemas complejos.

OpenAI anuncia un rol clave para la seguridad

De acuerdo con la fuente, OpenAI busca a alguien que amplíe y fortalezca el programa de sistemas de seguridad de la empresa. Este departamento se encarga de crear salvaguardas reales para que los modelos de IA se comporten como se espera en el mundo real. La misión principal es anticiparse a posibles fallos o abusos.

La compañía enfatiza que el rol implica guiar estrategias de preparación ante escenarios de riesgo. Según los datos facilitados, el candidato deberá evaluar modelos y mitigar funciones no deseadas. Esto responde a la necesidad de estar siempre listos para emergencias.

Los desafíos actuales de ChatGPT y Sora

En 2025, ChatGPT ha enfrentado alucinaciones en temas legales, acumulando cientos de quejas, según la nota de prensa. Usuarios han reportado errores delicados y hasta crisis de salud mental provocadas por interacciones con la IA. OpenAI atribuye parte de estos incidentes a usos abusivos.

Con Sora, la herramienta de generación de vídeo, surgieron problemas como la creación de contenidos con figuras históricas como Martin Luther King Jr.. La compañía eliminó funciones para evitar abusos con personajes respetados. Esto multiplica la capacidad de falsificación con apariencia real, de acuerdo con la fuente.

  • Deepfakes no consentidos: Conversión de imágenes de mujeres vestidas en versiones en bikini.
  • Uso en salud mental: Casos donde la IA influyó negativamente en usuarios vulnerables.
  • Errores legales: Información falsa que generó demandas judiciales.

Demanda legal por el caso de Adam Raine

La familia de Adam Raine presentó una demanda alegando que consejos de ChatGPT contribuyeron a su muerte, según la fuente. OpenAI argumenta que se trató de un uso abusivo del producto y violaciones de sus reglas. En noviembre, abogados de la compañía lo señalaron en una presentación judicial.

Este caso plantea preguntas sobre la responsabilidad de las empresas de IA. De acuerdo con la nota, OpenAI defiende que los usuarios deben respetar las normas establecidas. Sin embargo, el debate persiste sobre qué nivel de previsión cabe en estos productos masivos.

Amplias ambiciones comerciales de OpenAI

Sam Altman ha insinuado elevar los ingresos anuales de 13.000 a 100.000 millones de dólares en menos de dos años, según la fuente. La compañía acelera el lanzamiento de productos avanzados para competir en el mercado. Esto incluye planes para dispositivos de consumo más allá de chatbots web.

OpenAI ve un futuro en la automatización de la ciencia, lo que generaría enorme valor económico. Sin embargo, Altman reconoce vulnerabilidades como impactos en la salud mental. La fuente indica que el negocio depende de mantener productos en producción sin retirarlos del mercado.

Responsabilidades detalladas del nuevo puesto

El «jefe de alerta» deberá desarrollar un marco de alerta vivo ante nuevos riesgos, según la descripción del empleo. Esto implica imaginar formas inéditas en que la IA pueda perjudicar a personas o sociedad. OpenAI busca mitigar desventajas sin renunciar a los beneficios, de acuerdo con la compañía.

El rol abarca desde la evaluación de modelos existentes hasta plataformas futuras. La fuente destaca que se necesita un radar de riesgos constante para escalar con seguridad. En un contexto de crecimiento rápido, este puesto se convierte en pieza central del motor operativo.

«Es una posición estresante», advierte Sam Altman en su publicación en X, según la nota de prensa. La persona elegida se meterá de inmediato en el núcleo de los problemas de seguridad de la IA.

Contexto de la industria de la inteligencia artificial

El anuncio llega en un momento donde la IA genera fricciones éticas y legales a nivel global. Empresas como OpenAI enfrentan presión para innovar mientras gestionan abusos predecibles. Según la fuente, distinguir entre mal uso y uso normal se complica con herramientas accesibles a millones.

La creación de este puesto refleja conciencia de que los fallos escalan con el tamaño de la empresa. OpenAI prioriza preparación estratégica para mantener la confianza de usuarios y reguladores. Esto podría influir en cómo otras compañías abordan la seguridad en 2026.

En resumen, aunque no se detalla fecha de cierre de la oferta, el sueldo atractivo busca atraer expertos top. La fuente subraya que el éxito dependerá de equilibrar innovación y protección. Para más detalles, consulta el anuncio original en la web de OpenAI.

Fuente: https://www.theverge.com/news/850537/sam-altman-openai-head-of-preparedness


También podría ser de tu interés:

Deja un comentario