La vista previa de Claude Mythos de Anthropic ha desencadenado una oleada de atrevidas afirmaciones sobre la IA del futuro y su papel en la ciberseguridad. Los informes sobre miles de vulnerabilidades descubiertas, incluidos problemas que supuestamente llevaban décadas sin detectarse, sitúan al modelo como una fuerza transformadora tanto en ataque como en defensa. Junto a esto, iniciativas como el Proyecto Glasswing señalan un esfuerzo de la industria por adelantarse a los riesgos antes de que se materialicen por completo.
Sin embargo, es importante señalar que Mythos no se ha hecho público y sigue estando restringido a un grupo controlado de organizaciones, por lo que la validación independiente de estas afirmaciones es limitada. Pero como ocurre con cualquier tecnología emergente, es importante separar la capacidad del bombo publicitario.
Desde el punto de vista de la ciberseguridad, las afirmaciones en torno a Mythos exigen un escrutinio. Según Richard Ford, CTO de Integrity360, las primeras evaluaciones del modelo presentan una realidad más comedida:
"Las evaluaciones de Mythos como herramienta de ataque autónoma muestran que es capaz, pero no necesariamente mejor que los grandes modelos lingüísticos existentes. Dicho esto, si es utilizado por agentes de amenazas, será eficaz para atacar organizaciones con posturas de seguridad débiles".
La cuestión no es si Mythos es revolucionario aisladamente, sino cómo funciona en condiciones reales. Aunque no supere de forma significativa a los modelos actuales, su capacidad para escalar la actividad y operar de forma autónoma introduce un tipo de riesgo diferente. La capacidad de ataque no necesita ser perfecta para ser peligrosa. Basta con que sea coherente y ampliamente accesible.
Las afirmaciones de Anthropic sobre el descubrimiento de vulnerabilidades llaman especialmente la atención. La sugerencia de que se han descubierto miles de vulnerabilidades no identificadas previamente, incluidas algunas que datan de hace casi tres décadas, habla del potencial del análisis impulsado por la IA. Sin embargo, estos resultados son en gran medida autodeclarados, con una validación independiente limitada.
Como señala Richard:
"Hay que tener cierta cautela. Los resultados son autoproclamados, con escasa verificación externa. La cuestión es si se están exagerando o si reflejan una capacidad real. ¿Se trata más bien de una exageración comercial? Quizá haya que ver esto junto con la reciente retirada de sus productos para uso federal en Estados Unidos. Un escéptico podría preguntarse si necesitan una buena noticia".
El escepticismo está justificado en la comunidad de la ciberseguridad. Las nuevas tecnologías suelen llegar con pretensiones ambiciosas, y se necesita tiempo para que las pruebas independientes y el uso en el mundo real las validen. Ya vimos un bombo y una preocupación similares cuando se lanzó ChatGPT, y el alarmismo sobre la creación de malware de IA y los ataques de malware autónomo, ninguno de los cuales fructificó en la forma y los plazos sugeridos. El calendario de estos anuncios también invita a un examen más detenido, sobre todo teniendo en cuenta la dinámica general de la industria y las presiones comerciales.
Si se examina la tarjeta del sistema Mythos Preview de Anthropic, que resume su evaluación de las capacidades del sistema, se puede ver que ha logrado algunas de las afirmaciones en condiciones específicas. Esto incluye puntos de control sin censura y la eliminación de barreras de seguridad para optimizar el rendimiento y evitar rechazos. Todo ello junto con escenarios de forzamiento bruto con un gran coste computacional. Ambos no son representativos del uso en el mundo real una vez liberados.
Si las capacidades descritas son exactas, las implicaciones son significativas. Una de las repercusiones más inmediatas podría ser el ecosistema de recompensas por fallos y el papel de los hackers éticos:
"Si estas afirmaciones son ciertas, podrían perturbar los programas de recompensas por fallos y el mercado de la piratería ética en general. Ya estamos viendo los primeros indicadores de esto, con plataformas impulsadas por IA que obtienen buenos resultados en entornos CTF competitivos".
Sin embargo, las limitaciones actuales de la IA siguen siendo un contrapeso importante:
"Donde estos sistemas fallan es en la comprensión de la lógica empresarial profunda. Esa capa contextual sigue siendo algo que requiere experiencia humana".
Esto refuerza un punto clave. La IA avanza rápidamente, pero no ha sustituido la necesidad de profesionales cualificados. Por el contrario, está cambiando su forma de trabajar y dónde su experiencia es más valiosa.
También existe una interpretación más amplia y constructiva de estos avances. Si la IA puede identificar vulnerabilidades a gran escala, tiene el potencial de mejorar significativamente la seguridad de las organizaciones. La detección más rápida de los "días cero" y las pruebas continuas podrían reforzar la resistencia en todos los ámbitos.
Pero esto introduce un nuevo reto operativo, como explica Richard:
"La cuestión no es sólo encontrar vulnerabilidades, sino qué hacer con ellas. Las organizaciones ya tienen dificultades para establecer prioridades y aplicar parches de forma eficaz. Si la IA aumenta exponencialmente el volumen, ese reto se hace aún más difícil, mientras que los atacantes ganan más oportunidades".
Aquí es donde la conversación vuelve al control. Se cumplan o no las afirmaciones de Anthropic, la dirección está clara. La IA aumentará la velocidad y la escala tanto del ataque como de la defensa. Las organizaciones deben estar preparadas para gestionar esta realidad.
Iniciativas como el Proyecto Glasswing son un paso en la dirección correcta, con el objetivo de asegurar los sistemas de IA antes de que sean ampliamente explotados. Sin embargo, como subraya Richard
"Identificar vulnerabilidades es sólo una parte de la ecuación. Parchear, probar e implantar correcciones a gran escala no es rápido ni trivial, sobre todo si el número aumenta considerablemente. Y no se trata sólo de aplicar parches, hay que crear los propios parches. Si los modestos plazos que ofrece el Proyecto Glasswing darán tiempo suficiente a los proveedores para crear parches, especialmente si hay un gran volumen de ellos, es algo que averiguaremos en las próximas semanas y meses. El lanzamiento de Mythos está en suspenso por ahora, pero Anthropic no lo dejará para siempre".
En última instancia, el debate en torno a Anthropic Mythos gira menos en torno a si las afirmaciones son del todo exactas y más sobre lo que representan. La IA está remodelando la ciberseguridad a un nivel fundamental. Las organizaciones que triunfen serán las que se adapten rápidamente, creando tanto la capacidad de aprovechar la IA como los controles para gestionarla con eficacia.
En palabras de Richard:
"Cualquier organización que no esté construyendo una ciberdefensa impulsada por la IA se quedará atrás y pasará directamente al punto de mira de los atacantes".
Aunque las afirmaciones en torno a Mythos sean exageradas, la necesidad de control no lo es.
Y lo que es más importante, refuerza la importancia de aplicar correctamente los principios básicos. La aplicación periódica de actualizaciones de seguridad, los controles de acceso estrictos, la configuración segura y el registro exhaustivo siguen siendo esenciales. La protección frente a las amenazas comunes sigue siendo la base de una ciberseguridad eficaz, independientemente de que dichas amenazas estén o no asistidas por la IA. Las organizaciones que incorporen estos principios básicos, junto con la creación de capacidades de ciberdefensa basadas en IA, estarán mejor situadas para seguir siendo resistentes a medida que evolucione el panorama de las amenazas.
Si necesitas ayuda con tus necesidades de ciberseguridad, ponte en contacto con los expertos de Integrity360 hoy mismo.