La demanda contra Anthropic plantea serias dudas sobre el poder del Gobierno y los derechos amparados por la Primera Enmienda
Jennifer Huddleston dice que independientemente de si está de acuerdo o en desacuerdo con las preocupaciones de Anthropic sobre un posible abuso si se eliminaran las salvaguardias, el patrón de hechos subyacente de la represalia del Pentágono por su negativa a eliminarlas debería preocuparle.
El 9 de marzo, Anthropic presentó dosdemandas contra el Gobierno en relación con su calificación como "riesgo para la cadena de suministro". Una de ellas es una solicitud específica de reconsideración, en virtud de la legislación vigente, de la decisión del Pentágono. La otra es una impugnación más amplia, en la que se alega que la inclusión de la empresa en la lista negra es excesivamente amplia y plantea cuestiones relacionadas con la Primera Enmienda.
Independientemente de cuál sea su postura respecto a la empresa, debería seguir de cerca estos casos. En el fondo de la cuestión no está solo lo que le suceda a Anthropic, sino también serias cuestiones sobre el poder del Gobierno, las alegaciones de seguridad nacional y los derechos de la Primera Enmienda de los individuos y las empresas privadas.
Por qué se trata de una cuestión relacionada con la Primera Enmienda
Algunos se preguntarán cuál es la cuestión de la "libertad de expresión" en este caso. El problema es que a menudo olvidamos que la Primera Enmienda va más allá de la simple "libertad de expresión" en el sentido de las palabras escritas en una página. Al calificar a Anthropic como un riesgo para la cadena de suministro por negarse a modificar su producto, el Gobierno está obligando a Anthropic a diseñar su producto de una manera concreta, a incluir determinados contenidos o a responder a ciertas consultas.
Como explican mis colegas de nuestro Centro de Estudios Constitucionales al analizar el escrito amicus curiae que ayudaron a presentar en este caso: "Anthropic diseñó el sistema de IA e identificó los datos para 'entrenar' el modelo. Claude solo funciona porque Anthropic le inculca un conjunto de directrices editoriales, que son intrínsecamente expresivas y gozan de la protección de la Primera Enmienda. En ese sentido, sus respuestas algorítmicas son similares a los medios tradicionales curados por editores humanos".
Puede que la Corte Suprema no haya considerado directamente las cuestiones de diseño relacionadas con la IA como protegidas por la Primera Enmienda, pero sí ha examinado una serie de actividades expresivas que siguen un patrón similar. Por ejemplo, la Corte Suprema ha sostenido que los derechos de la Primera Enmienda se aplican a las plataformas de redes sociales que se dedican a la moderación de contenidos y a las decisiones de diseño de sitios web personalizados para bodas. Las funciones clave de diseño y editoriales necesarias para crear y operar un modelo de IA constituyen, de manera similar, una actividad expresiva.
La posibilidad de que el Gobierno dicte las funciones clave de diseño utilizadas para la actividad expresiva o de que se enfrente a represalias por negarse a tomar las medidas preferidas constituye el núcleo de por qué este caso plantea importantes preocupaciones en relación con la Primera Enmienda que podrían extenderse más allá de la interacción de una sola empresa con el Gobierno.
La preocupante extralimitación del Gobierno en la designación de la cadena de suministro
Como resultado de calificar a Anthropic como un riesgo para la cadena de suministro, una de las empresas líderes de Estados Unidos ha quedado, a efectos prácticos, en la lista negra de los contratos gubernamentales y de los contratistas del Gobierno. El presidente Trump publicó en Truth Social un mensaje en el que pedía a todas las agencias gubernamentales que dejaran de utilizar los productos de IA de Anthropic, y es probable que intensifique aún más dicha medida mediante un decreto ejecutivo.
Si el Pentágono hubiera decidido simplemente cancelar el contrato y optar por otro proveedor, se podría haber debatido si la decisión estaba ligada a meras decisiones estándar en materia de contratación pública o a las decisiones de diseño de Anthropic y sus declaraciones externas. Sin embargo, al calificar a la empresa como un riesgo para la cadena de suministro, parece haber una clara represalia por la negativa de la empresa a cumplir con las exigencias.
Esto será relevante para el análisis subyacente de la Primera Enmienda. El Gobierno tendrá que demostrar que la designación de riesgo para la cadena de suministro es el medio menos restrictivo para resolver sus preocupaciones de seguridad nacional respecto a la empresa. Cabe destacar que estas medidas califican a Anthropic como un riesgo mayor para la seguridad nacional que la empresa de IA DeepSeek, que tiene vínculos conocidos con China, lo que pone de relieve la gravedad de esta respuesta.
Aunque las alegaciones de seguridad nacional parecen en gran medida un pretexto para la negativa de Anthropic a modificar su producto para satisfacer las exigencias del Pentágono, incluso si fueran válidas, existen medios significativamente menos restrictivos que calificar a la empresa como un riesgo para la cadena de suministro. Como señala Anthropic en su escrito, el más obvio de ellos habría sido simplemente rescindir el contrato. En resumen, basándonos en los hechos de dominio público, cuesta imaginar que incluir en una lista negra a una empresa estadounidense líder en IA, impidiéndole realizar negocios no solo con el Pentágono, sino también con todo el Gobierno y sus proveedores, sea el medio menos restrictivo.
Las posibles consecuencias de permitir que algo así se mantenga podrían tener repercusiones no solo en Estados Unidos, sino también en lo que respecta a las medidas gubernamentales para exigir que los modelos de IA estadounidenses se plieguen a sus caprichos en todo el mundo. Como escribí en mi primer artículo sobre este tema, esperamos que las empresas estadounidenses se enfrenten a las exigencias de los gobiernos extranjeros y defiendan los valores de una sociedad libre. Deberíamos aplaudirlo igualmente cuando se enfrentan a nuestro propio gobierno por la misma razón. En este caso, estamos viendo cómo una empresa estadounidense hace precisamente eso.
Conclusión
El mercado libre parece haber reconocido el compromiso de Anthropic con sus valores como algo positivo y no como un riesgo, tal y como el gobierno parece intentar pintarlo. Claude ha saltado a lo más alto de las descargas de la App Store en materia de IA desde que se ha mantenido firme en sus principios.
La situación subyacente indica un ámbito en el que se necesita una política federal de IA. Un marco normativo de IA debería aclarar las limitaciones adecuadas al uso gubernamental de los productos de IA y sus datos para proteger los derechos civiles y las libertades de los ciudadanos estadounidenses. Este enfoque crearía salvaguardias y certeza para los ciudadanos y los innovadores, al tiempo que permitiría un despliegue gubernamental beneficioso para fines tales como los servicios a los electores o la toma de notas en reuniones clasificadas. Gran parte del debate subyacente gira en torno a lo que constituye un "uso lícito" y qué medidas de protección tiene una empresa para garantizar dicho uso. Una mayor claridad y una reforma más amplia en cuestiones como la vigilancia gubernamental y la IA merecen sin duda un debate político constructivo.
Independientemente de si está de acuerdo o en desacuerdo con las preocupaciones de Anthropic sobre un posible abuso si se eliminaran las salvaguardias, el patrón de hechos subyacente de la represalia del Pentágono por su negativa a eliminarlas debería preocuparle. El Pentágono le dio a una empresa privada una opción: cambiar su producto para satisfacer nuestras exigencias o enfrentarse a ser incluida en gran medida en una lista negra. Tal elección es una afrenta a los valores consagrados en la Primera Enmienda y a aquellos que Estados Unidos ha representado como sociedad libre.
Este artículo fue publicado originalmente en Cato At Liberty (Estados Unidos) el 11 de marzo de 2026.