La campaña de represalias del Pentágono contra Anthropic es inconstitucional

Thomas A. Berry considera que las represalias del Pentágono contra Anthropic, la empresa tecnológica conocida por el modelo de IA Claude, violaron la Primera Enmienda.

Por Thomas A. Berry

Anthropic es una empresa tecnológica conocida principalmente por desarrollar el modelo de IA Claude. Hasta hace poco, Anthropic tenía un contrato con el Departamento de Defensa (también conocido como Departamento de Guerra) para proporcionar tecnología de IA para uso del departamento. Pero Anthropic estableció dos límites: no proporcionaría servicios de IA para ayudar en la guerra autónoma letal ni en la vigilancia masiva de los estadounidenses. El departamento se sintió frustrado por la negativa de Anthropic a apartarse de estas políticas. Este punto muerto llegó a su punto álgido en febrero de este año, cuando el departamento no solo rescindió sus contratos con Anthropic (sujetos a un período de liquidación de seis meses), sino que también calificó a Anthropic como "riesgo para la seguridad nacional en la cadena de suministro".

Esta última designación prohíbe a cualquier empresa que tenga contratos con el Gobierno federal trabajar con Anthropic en cualquier capacidad, lo que ha devastado el negocio de Anthropic.

Ahora Anthropic ha demandado al departamento, argumentando que estas acciones del Gobierno eran una represalia inconstitucional contra Anthropic por su discurso protegido por la Primera Enmienda. Y Cato se ha unido a la Fundación para los Derechos y la Expresión Individual (FIRE), la Fundación Frontera Electrónica (EFF), la Cámara del Progreso y la Asociación de Abogados de la Primera Enmienda (FALA) para presentar un amicus brief en la corte federal de distrito en apoyo de Anthropic (gracias a Addison Bennett, Sopen Shah y Sarah Grant, de Perkins Coie, por redactar el escrito).

En nuestro escrito, explicamos por qué las decisiones de diseño de Anthropic para sus modelos de IA constituyen una expresión protegida por la Primera Enmienda. Claude es fundamentalmente expresivo. Se trata de un "gran modelo de lenguaje" que recoge enormes cantidades de datos y se involucra en un patrón de "razonamiento" para responder a las indicaciones del usuario. Puede ofrecer una amplia gama de resultados, incluyendo respuestas escritas a preguntas y la generación de bases de datos estructuradas. Todo lo que hace, desde responder a las solicitudes hasta procesar datos y ayudar al usuario a completar tareas, implica este intercambio recíproco de expresiones e ideas.

Los seres humanos, los desarrolladores de Anthropic, crearon a Claude. Anthropic diseñó el sistema de IA e identificó los datos para "entrenar" el modelo. Claude solo funciona porque Anthropic le inculca un conjunto de directrices editoriales, que son intrínsecamente expresivas y gozan de la protección de la Primera Enmienda. De ese modo, sus respuestas algorítmicas son similares a las de los medios de comunicación tradicionales seleccionados por editores humanos.

El Departamento de Defensa sancionó a Anthropic porque esta se negó a cambiar su algoritmo y a desechar sus directrices para producir los resultados que el Pentágono deseaba. La decisión del Pentágono de sancionar a Anthropic por su negativa a utilizar Claude para ajustarse a las preferencias políticas del Pentágono constituye una represalia contra la libertad de expresión protegida.

Además, nuestro informe señala que no hay duda sobre los motivos de represalia del Gobierno. Esto se debe a que el Pentágono ya los ha anunciado. En el anuncio del secretario Hegseth de su decisión "definitiva" de designar a Anthropic como un riesgo para la cadena de suministro, reprendió a Anthropic por supuestamente no haber creado un modelo de IA suficientemente "patriótico". Criticó los "caprichos ideológicos" de Anthropic, su política de "altruismo eficaz", su supuesta "señalización de virtudes" y, en última instancia, su "postura" sobre el diseño de Claude como "fundamentalmente incompatible con los principios estadounidenses". Y dejó claro que todo ello se basaba en si Anthropic decidía eliminar o modificar el código de Claude.

Este castigo a Anthropic por su libertad de expresión protegida violó la Primera Enmienda. La corte del distrito debería prohibir lo antes posible la designación inconstitucional y represalia del Pentágono de Anthropic como un riesgo para la cadena de suministro.

Este artículo fue publicado originalmente en Cato At Liberty (Estados Unidos) el 10 de marzo de 2026.