
Anthropic ha presentado Claude Mythos Preview, un nuevo modelo de inteligencia artificial centrado en ciberseguridad que, según la información difundida por la compañía y recogida por Hipertextual, no estará disponible para el público general debido a su capacidad para detectar y explotar vulnerabilidades críticas. La firma ha optado por limitar su acceso a través de Project Glasswing, una alianza con grandes tecnológicas como Amazon, Apple, Google, Microsoft y la Fundación Linux para reforzar la protección de infraestructuras digitales clave.
Un modelo de IA que no se liberará al público
A diferencia de otros lanzamientos recientes en inteligencia artificial, Anthropic ha decidido no abrir Mythos al mercado general. Según la fuente, la empresa considera que sus capacidades son demasiado sensibles, ya que el sistema ha demostrado una habilidad inédita para localizar fallos graves en sistemas ampliamente utilizados. La preocupación principal es evitar que estas herramientas acaben en manos maliciosas, donde podrían facilitar ataques automatizados a gran escala.
De acuerdo con los datos facilitados por Anthropic, Mythos encontró miles de vulnerabilidades desconocidas en pocas semanas. Entre ellas figuran errores en sistemas operativos, navegadores y software crítico que llevaban años sin detectarse. La compañía sostiene que esta capacidad marca un punto de inflexión en la relación entre IA y seguridad informática, porque reduce drásticamente el tiempo necesario para localizar amenazas complejas.
El fallo de 27 años en OpenBSD y otros hallazgos relevantes
Uno de los casos más llamativos detectados por Mythos afecta a OpenBSD, un sistema reconocido precisamente por su enfoque en seguridad. Según la información publicada, la IA identificó una vulnerabilidad que llevaba 27 años oculta y permitía inutilizar remotamente una máquina con una simple conexión. El hallazgo ha sorprendido al sector porque se trata de uno de los entornos más auditados del ecosistema open source.
La herramienta también descubrió un error de 16 años en FFmpeg, una librería presente en una enorme cantidad de programas de vídeo. Según la fuente, ese fallo había sobrevivido a millones de pruebas automatizadas sin ser detectado. Esto refuerza la idea de que los modelos avanzados de IA pueden encontrar patrones que los métodos tradicionales pasan por alto durante años.
- 27 años llevaba oculto el fallo en OpenBSD.
- 16 años permaneció sin detectar la vulnerabilidad en FFmpeg.
- Más de 40 organizaciones ya tienen acceso restringido al sistema.
Qué es Project Glasswing y quién participa
Para canalizar el uso de Mythos, Anthropic ha puesto en marcha Project Glasswing, una iniciativa de ciberseguridad que reúne a grandes compañías tecnológicas y financieras. Entre los socios fundadores figuran Amazon Web Services, Apple, Google, Microsoft, NVIDIA, Cisco, CrowdStrike y JPMorgan Chase. El objetivo declarado es usar la IA de forma defensiva, corrigiendo vulnerabilidades antes de que sean explotadas por atacantes.
Según la compañía, ninguna organización puede afrontar sola este nuevo escenario. Por eso, Glasswing nace como una red coordinada donde las empresas participantes analizan sus propios sistemas con ayuda de Mythos. Anthropic ha anunciado además hasta 100 millones de dólares en créditos de uso del modelo para esta fase inicial, junto con financiación adicional para proyectos de seguridad open source.
Una nueva etapa para la ciberseguridad impulsada por IA
El lanzamiento de Mythos refleja un cambio profundo en la industria tecnológica. Hasta ahora, la mayoría de modelos de IA generativa se enfocaban en texto, imagen o productividad. En este caso, la aplicación está dirigida a encontrar brechas reales en infraestructuras críticas. Eso convierte a Mythos en una herramienta estratégica, tanto para defensa digital como para el debate sobre regulación y acceso responsable a sistemas avanzados.
La decisión de restringir su disponibilidad también abre preguntas sobre gobernanza tecnológica. Según la fuente, Anthropic defiende que limitar el acceso es una medida preventiva mientras se evalúa el impacto real de estas capacidades. La compañía se ha comprometido a publicar en 90 días un informe con vulnerabilidades corregidas, aprendizajes obtenidos y posibles pasos siguientes del proyecto.
Por qué este movimiento importa más allá de Anthropic
La relevancia de este anuncio va más allá de un nuevo producto de IA. El hecho de que Apple, Google, Microsoft o la Fundación Linux participen en Glasswing muestra que el sector considera inminente una nueva generación de amenazas automatizadas. La carrera ya no consiste solo en crear modelos más potentes, sino en decidir cómo desplegarlos sin comprometer la seguridad global.
Si las previsiones de Anthropic se cumplen, Mythos podría redefinir cómo se descubren y corrigen vulnerabilidades. En lugar de auditorías manuales prolongadas, los fallos críticos podrían localizarse en minutos. Eso aceleraría la defensa, pero también eleva la presión sobre reguladores, empresas y desarrolladores, que tendrán que adaptarse a una era donde la IA no solo conversa o crea contenido: también encuentra las grietas invisibles del software que sostiene internet.
Fuente: https://hipertextual.com/inteligencia-artificial/anthropic-mythos-proyecto-glasswing-ciberseguridad-ia