Por qué la regulación excesiva de la IA podría acabar con la próxima revolución tecnológica mundial

Peter Goettler sostiene que la inteligencia artificial promete aumentar la prosperidad, estimular el desarrollo humano y enriquecer nuestras vidas... si se lo permitimos.

da-kuk/E+ via Getty Images

Por Peter Goettler

La inteligencia artificial (IA) podría ser la revolución tecnológica más prometedora de todos los tiempos. La IA promete avanzar en el ámbito de la salud y la medicina, acelerar los descubrimientos científicos, transformar la educación y el aprendizaje, y aumentar drásticamente la productividad y la riqueza.

Los beneficios que aporta la IA no son teóricos, ni se materializarán en un futuro lejano y nebuloso. La mayoría de mis colegas utilizan habitualmente herramientas de IA en mi propia organización para aumentar su productividad y mejorar su creatividad. La eficiencia obtenida gracias a la IA les permite disponer de más tiempo para la reflexión razonada y el pensamiento profundo, lo que hace que nuestro trabajo genere un mayor impacto y mejores resultados.

Como ejemplo del mundo empresarial, Microsoft ha informado de que el aumento de la productividad y la eficiencia impulsado por la IA en sus centros de atención telefónica ha generado un ahorro de 500 millones de dólares en un solo año. Y ya hemos visto aplicaciones de esta tecnología que salvan vidas en áreas tan diversas como la recuperación tras un derrame cerebral o la lucha contra los incendios forestales.

La inteligencia artificial promete aumentar la prosperidad, estimular el florecimiento humano y enriquecer nuestras vidas... si se lo permitimos.

Pero los beneficios obtenidos hasta la fecha podrían ser insignificantes en comparación con lo que nos depara un futuro no muy lejano. Sí, algunos expertos creen que las ganancias económicas derivadas de la aplicación de la IA serán modestas, del orden de un aumento del 1 al 2% del producto interior bruto (PIB) de Estados Unidos durante la próxima década. Y aunque eso no es nada despreciable, los pronósticos más optimistas prevén un aumento del PIB de hasta un 8% o incluso un 15% durante el mismo periodo.

La amenaza regulatoria para el progreso

El exceso de regulación estatal puede suponer una grave amenaza para las tecnologías emergentes y prometedoras. Esto es especialmente cierto en el caso de la IA, ya que muchos pronosticadores han argumentado que la IA podría suponer riesgos sustanciales, incluso existenciales, para la humanidad. Esto ha puesto a los responsables políticos y a los reguladores en alerta máxima para discernir las amenazas emergentes de la IA y los ha dejado demasiado dispuestos a aplicar una regulación severa para hacer frente a esas amenazas percibidas.

La mayoría de nosotros no somos tecnólogos ni, Dios lo sabe, futuristas. Pero todo el mundo puede reconocer uno de los patrones más familiares de la historia: la aparición de una tecnología prometedora casi siempre va acompañada de temores sobre los riesgos o las desventajas de esa tecnología, que a menudo incluyen escenarios apocalípticos. Y en todos los casos históricos, las tecnologías efectivamente conllevaban riesgos e inconvenientes, pero estos se veían eclipsados por los enormes beneficios para la humanidad. Los argumentos en contra de la IA no carecen de plausibilidad. Pero aún más plausible es el argumento de que la IA podría ser una de las tecnologías más beneficiosas que la humanidad haya creado jamás.

Por eso la regulación excesiva es especialmente preocupante en el caso de la IA.

En primer lugar, el costo de equivocarse, de estrangular la tecnología y negar a la sociedad sus ventajas, es incalculable. Y frenar la innovación en IA puede causar daños por sí mismo, por ejemplo, ralentizando inventos que salvan vidas, como los autos autónomos y las herramientas sanitarias, o negando el acceso a aplicaciones de ciberseguridad basadas en IA.

En segundo lugar, el impulso de la regulación para hacer que la IA sea "segura" enfrenta los temores especulativos con los beneficios tangibles y crecientes de la tecnología. Y, irónicamente, "regular la IA para que sea segura" es sin duda una tarea inútil: al igual que no se puede impedir que el agua fluya cuesta abajo, la evolución de las capacidades avanzadas de la IA, tanto buenas como malas, seguirá avanzando a buen ritmo independientemente de las regulaciones promulgadas por Estados Unidos u otros países desarrollados de Occidente. El resultado más probable será colocar a Estados Unidos en una posición de desventaja competitiva frente a la otra superpotencia de la IA, China. Y con herramientas de IA de código abierto, gratuitas y de alta calidad fácilmente disponibles, es difícil imaginar cómo la regulación podría impedir que la gente utilice estas aplicaciones, que pueden descargarse fácilmente de Internet.

A esta amenaza se suma el riesgo de captura regulatoria. Las grandes empresas establecidas suelen convertirse en defensoras de la regulación, ya que les ayuda a afianzar su posición: pueden presionar para que se aprueben regulaciones, cuya carga económica pueden absorber fácilmente, sabiendo que los competidores más pequeños y emergentes no pueden hacerlo. Las empresas emergentes innovadoras son, lógicamente, las menos capaces de soportar esa carga. En el ámbito de la IA, las regulaciones basadas en el tamaño de los modelos o los recursos computacionales favorecen inherentemente a las grandes empresas frente a los nuevos participantes innovadores que, de otro modo, podrían desarrollar enfoques más eficientes.

Aprender de la historia

Hoy en día, siete de las diez empresas más valiosas del mundo son gigantes tecnológicos estadounidenses. Una de las razones de este éxito es el enfoque regulatorio flexible que los responsables políticos estadounidenses han adoptado sabiamente con respecto a la tecnología en general, y a Internet en particular, durante los últimos 25 años. Sin embargo, es posible que acabemos siguiendo un camino muy diferente con la tecnología de IA, que es al menos igual de prometedora.

Mi colega, Jennifer Huddleston, Senior Fellow del Instituto Cato, observó: "Gran parte del debate sobre la política en materia de IA se ha basado en la presunción de que esta tecnología es intrínsecamente peligrosa y necesita la intervención y la regulación del Estado".

Esta mentalidad motivó a la administración del presidente estadounidense Joe Biden a emitir su "Orden ejecutiva sobre el desarrollo y el uso seguro y fiable de la inteligencia artificial" en octubre de 2023. La orden ejecutiva se centró en gran medida en los posibles inconvenientes de la IA, entre los que se incluyen la seguridad, las amenazas a la privacidad y los derechos individuales, los riesgos para el mercado laboral relacionados con la dilución o la eliminación de puestos de trabajo, y la posibilidad de que los algoritmos de IA exacerben los prejuicios o la discriminación.

El amplio alcance de la orden ejecutiva prometía crear amplios requisitos de información y un importante marco regulatorio. Sin embargo, gran parte de este marco seguía sin definirse, ya que se encargó a numerosas agencias gubernamentales la elaboración de normas, directrices y reglamentos para abordar cuestiones muy generales en una amplia gama de industrias y disciplinas.

Esta medida temprana y exhaustiva hacia la regulación de la IA plantea dos señales de alerta.

En primer lugar, aunque el desarrollo y la aplicación de la inteligencia artificial se remonta a décadas atrás, la rapidez con la que avanza ahora la tecnología significa que nos encontramos en las primeras etapas de su evolución. Quizás sea el colmo de la arrogancia de los responsables políticos creer que, en un momento como este, se puede diseñar y aplicar un marco regulatorio que sea eficaz para alcanzar sus objetivos notablemente ambiciosos sin sofocar la tecnología ni perjudicar a la industria estadounidense de la IA. La trayectoria y el impacto global de la IA siguen siendo demasiado inciertos.

En segundo lugar, esta incertidumbre sugiere que cualquier medida encaminada a una regulación exhaustiva puede ser desacertada. Sin duda, este es el caso cuando dicha medida se toma mediante una acción ejecutiva. Si Estados Unidos se plantea adoptar una regulación significativa de la IA a nivel federal, lo que está en juego y la incertidumbre hacen que, en ese contexto, sea fundamental respetar nuestra arquitectura constitucional. Es decir, que los cambios significativos en la política de IA solo deben realizarse a través del proceso legislativo y no mediante órdenes ejecutivas, y que los tribunales deben aplicar las leyes existentes a las aplicaciones emergentes de IA sin adoptar teorías jurídicas novedosas.

La actual administración estadounidense, bajo la presidencia de Donald Trump, dio un paso en la dirección correcta al revocar la orden ejecutiva sobre IA de 2023 del presidente Biden en la primera oportunidad que tuvo. Y su Plan de Acción de Estados Unidos sobre IA, publicado recientemente, articula algunos objetivos sensatos para la política de IA. Entre ellos destacan la eliminación de las barreras que limitan el desarrollo y la aplicación de la IA, la promoción de la IA de código abierto y la reducción de las barreras normativas que impiden el desarrollo de la infraestructura crítica necesaria para apoyar la creciente utilización de la IA.

Sin embargo, el plan de acción también sugiere un papel del Gobierno federal en la educación sobre IA, la formación de los trabajadores y una serie de posibles inversiones y ayudas en una amplia gama del ecosistema de la IA. Aunque se necesitan más detalles para comprender plenamente el alcance de estas posibles intervenciones, es probable que revelen una confianza en la eficacia de dicha acción estatal que contradice la experiencia histórica.

Y quizás la omisión más evidente del plan de la administración es cualquier mención a la posible migración y retención de talento internacional para reforzar los esfuerzos de Estados Unidos en materia de inteligencia artificial. Aunque se defiende enérgicamente que Estados Unidos necesita "ganar la carrera de la IA" a China, no se menciona uno de nuestros activos más importantes en este sentido: el deseo de tantas personas en todo el mundo —entre las que, sin duda, se encuentran los mejores investigadores e ingenieros de IA— de emigrar a Estados Unidos. A la luz de la postura general de la Administración sobre la inmigración, tal vez esto no sea una sorpresa. Pero sin duda es un error.

El camino por delante

Se podría argumentar que el sector tecnológico es uno de los pocos éxitos del régimen regulador estadounidense en este siglo: un enfoque ligero y orientado al mercado que se preocupó por preservar las enormes ventajas de la industria sin una fuerte presunción de riesgo a la baja.

Debemos permitir que la historia se repita y seguir un curso similar en la futura regulación de las tecnologías de IA. Con cada innovación que conlleva sus propios riesgos, tendemos a olvidar que la red de leyes existentes —incluidas las relacionadas con el fraude, la discriminación y la protección del consumidor— es suficiente para hacer frente a gran parte de los posibles inconvenientes. Además, antes de recurrir al garrote de la regulación, es aconsejable considerar las alternativas. Por ejemplo, la educación y la alfabetización digital desempeñan un papel importante en la protección de las personas contra el fraude facilitado por la IA y otras amenazas, como los deepfakes. Estas defensas empoderan a los consumidores al tiempo que preservan los beneficios de la innovación en IA.

Por último, otra lección que se desprende de la explosión de nuevas tecnologías en los últimos 30 años y del dominio estadounidense del sector es el papel fundamental que desempeña el extraordinario talento que Estados Unidos es capaz de atraer a sus costas. La prevalencia de inmigrantes entre los líderes de las empresas tecnológicas estadounidenses y las prometedoras startups tecnológicas debería decirnos algo.

Para hacer realidad la promesa de la inteligencia artificial, no podemos imponer cargas normativas que amenacen con acabar con lo que podría ser una gallina de los huevos de oro. Y si Estados Unidos se toma en serio, como afirma, el mantenimiento de su liderazgo en IA, al igual que en tantos otros ámbitos tecnológicos, las barreras estatales y normativas a la migración del talento y la innovación deben eliminarse y mantenerse eliminadas.

Este artículo fue publicado originalmente en International Banker (Estados Unidos) el 3 de septiembre de 2025.