Lo que ilustra el lanzamiento de Claude Mythos sobre política e innovación

Juan Londoño dice que las idas y venidas de la Casa Blanca con respecto al uso de los productos de Anthropic ponen de relieve uno de los peligros más graves de los intentos de regular las tecnologías emergentes.

Por Juan Londoño

A principios de abril, Anthropic anunció el lanzamiento de Claude Mythos, un potente modelo centrado en la ciberseguridad que promete resolver la mayoría de las vulnerabilidades de ciberseguridad a una velocidad sin precedentes. Sin embargo, debido a que el Pentágono ha calificado a Anthropic como un "riesgo para la cadena de suministro" y a las medidas posteriores del Gobierno, es posible que el Gobierno federal se haya privado a sí mismo del acceso a Mythos. Algunas agencias estatales ya han decidido utilizar el modelo a pesar de la designación del Departamento de Defensa, ya que consideran que las protecciones de ciberseguridad que ofrece son fundamentales. Mientras el gobierno sigue defendiendo la designación de riesgo para la cadena de suministro, la Casa Blanca ya ha reanudado el diálogo con el director ejecutivo de Anthropic, Dario Amodei, para llegar a un acuerdo que permita al poder ejecutivo volver a utilizar Claude.

Las idas y venidas de la Casa Blanca con respecto al uso de los productos de Anthropic ponen de relieve uno de los peligros más graves de los intentos de regular las tecnologías emergentes. Se trata de sectores en rápida evolución en los que el contexto, los actores y las capacidades suelen evolucionar a un ritmo que a los políticos les resulta extremadamente difícil seguir. Los actores relevantes en juego pueden cambiar drásticamente en cuestión de meses, y no hay garantía de que los líderes del mercado de hoy mantengan esa posición dentro de un par de años. Por ejemplo, hace seis años, OpenAI era el claro líder del sector tras lanzar GPT-3, mientras que Anthropic era un nombre prácticamente desconocido. En menos de un año, Meta renovó por completo su enfoque de la IA, creando Meta Superintelligence Labs en julio de 2025 y lanzando un nuevo modelo insignia de IA —Muse Spark— en abril de 2026.

Aunque la capacidad de Mythos para analizar grandes cantidades de código y explotar o detectar vulnerabilidades de ciberseguridad en poco tiempo se consideraba antes factible, era casi imposible predecir la rapidez con la que se podría desarrollar esta capacidad. La IA ha avanzado rápidamente, lo que ha dado lugar tanto a mayores riesgos de ciberseguridad como a un mayor potencial para mejorar las defensas. A modo de referencia, solo han pasado siete años entre la preocupación de OpenAI de que GPT-2 —un modelo que se limitaba a la generación de texto y que se consideraría significativamente obsoleto según los estándares actuales— fuera "demasiado peligroso para lanzarlo" y el lanzamiento de un modelo con la complejidad de Mythos. Del mismo modo, lo que hoy parece inalcanzable, inquietante o peligroso podría llegar a ser omnipresente en el futuro. Esto también demuestra por qué es beneficioso un enfoque moderado. Una regulación onerosa de la IA no habría permitido que estas tecnologías se desarrollaran tan rápidamente. Si bien puede haber preocupaciones sobre los riesgos potenciales de Mythos, las consecuencias de una regulación excesivamente estricta podrían ser más significativas.

Si bien existen preocupaciones sobre el uso estatal de la tecnología de IA, también hay sectores en los que puede ser fundamental, como la ciberseguridad. En lugar de designar a Anthropic como un riesgo para la cadena de suministro, el Pentágono podría simplemente haber rescindido el contrato, buscado otro proveedor que pudiera satisfacer sus demandas y, a continuación, haber reevaluado la situación cuando necesitara recursos específicos. Calificar a la empresa como un riesgo para la cadena de suministro no solo plantea dudas constitucionales sobre la medida, sino que también corre el riesgo de atar las manos de la propia administración a la hora de acceder al mejor producto del mercado.

Dado que un número creciente de estados está considerando su propia política de IA, estos gobiernos también deberían ser cautelosos ante consecuencias similares. Aunque los gobiernos estatales podrían beneficiarse del despliegue de un modelo como Mythos para proteger su infraestructura digital, algunos están considerando prohibiciones a nivel estatal de infraestructuras de IA vitales, incluidos los centros de datos.

El tira y afloja de la Casa Blanca con Anthropic debería ofrecer a los políticos una valiosa lección: elegir ganadores y perdedores en un mercado dinámico es algo que se hace a su propio riesgo. Al igual que la administración no previó lo rápido que necesitaría los servicios de Anthropic cuando incluyó los productos de la empresa en la lista negra, los políticos que se apresuran a regular la IA no pueden prever con precisión los costos y las consecuencias de unas regulaciones de IA excesivamente estrictas. Por eso, un enfoque regulatorio basado en principios, con objetivos específicos y poco intrusivo se adapta mejor a las tecnologías emergentes. Esto permite una respuesta más flexible y menos prescriptiva ante los entornos en rápida evolución, habituales en las industrias incipientes. Esperemos que la Administración y los gobiernos estatales presten atención a esta lección y se lo piensen dos veces antes de recurrir imprudentemente al martillo regulador en el futuro.

Este artículo fue publicado originalmente en Cato At Liberty (Estados Unidos) el 28 de abril de 2026.