Bloquear la explosión de información de la IA perjudica a todos
Kevin T. Frazier dice que destacar la IA para imponer prohibiciones especiales específicas para esta tecnología desvía la atención de los daños y la centra en los métodos, lo que desalienta precisamente la innovación que proporciona a las personas la información que necesitan para prosperar.
Just_Super/E+ via Getty Images
Por Kevin T. Frazier
Casi dos millones de estadounidenses llevan buscando trabajo durante al menos 27 semanas; son los llamados desempleados de larga duración. A este subgrupo del total de 7,5 millones de desempleados le ha resultado especialmente difícil encontrar un nuevo empleo. Sin embargo, hay alrededor de siete millones de puestos vacantes. ¿Por qué persiste este desajuste entre los trabajadores que buscan empleo y los puestos vacantes?
Al menos parte de esta desconexión puede explicarse por la falta de información. Por un lado, las empresas no encuentran trabajadores con las habilidades adecuadas. Por otro lado, los trabajadores tienen dificultades para encontrar empleos con el salario y el horario adecuados.
Muchos estadounidenses de edad avanzada experimentan dificultades económicas y necesitan ayuda adicional para cubrir sus gastos básicos y los costos sanitarios. Sin embargo, alrededor de 16 millones de adultos mayores con bajos ingresos que reunían los requisitos para recibir ayuda a través del Programa de Asistencia Nutricional Suplementaria (SNAP) de Estados Unidos no la solicitaron en 2022. Para muchos de estos mayores, esto significa perder unos 300 dólares al mes en ayudas del SNAP. Según la AARP, la falta de conocimiento entre los adultos que cumplen los requisitos puede ser la causa. Es de suponer que, con mejor información, el Departamento de Agricultura de los Estados Unidos, organismo que administra el SNAP, podría identificar de forma más fácil y eficaz a los participantes que cumplen los requisitos y ofrecerles un proceso de solicitud simplificado.
Un último ejemplo. Los niños en acogida a menudo esperan años para encontrar un hogar permanente. Este retraso no es sorprendente por varias razones relacionadas con la escasez de información o de tiempo para procesarla.Los trabajadores sociales suelen gestionar unas 30 familias, lo que les obliga a actuar con rapidez. Es posible que las familias no sepan de antemano qué niño puede ser el más adecuado para su hogar, su barrio y su comunidad. Los niños, por su parte, pueden no estar seguros del entorno en el que prosperarán. En resumen, las colocaciones a menudo fracasan porque el sistema no proporciona fácilmente a los actores adecuados la información correcta, ni el tiempo suficiente para actuar en función de la información que reciben.
Los problemas causados por la fricción de la información, como el desempleo prolongado y los retrasos en la colocación en hogares de acogida, pronto podrían resolverse o, al menos, ser menos frecuentes. Las herramientas tecnológicas que están desarrollando empresas de Estados Unidos y de todo el mundo son muy eficaces a la hora de agregar grandes cantidades de datos e identificar patrones que antes pasaban desapercibidos. Además, estas herramientas son rápidas, fáciles de usar y asequibles.
Los gobiernos, las organizaciones sin ánimo de lucro y las partes interesadas privadas están encontrando usos novedosos y significativos para estas herramientas. Washington, DC, por ejemplo, ha creado un portal de empleo utilizando esta tecnología, lo que facilita el proceso de emparejar a los trabajadores con los empleadores. En solo dos semanas, el portal ha facilitado 84.000 emparejamientos laborales. Iniciativas similares se están llevando a cabo en Bélgica y Grecia. Los Institutos Nacionales de Salud han implementado herramientas similares para emparejar a posibles voluntarios con ensayos de investigación clínica. Un estudio de la Alianza Nacional para la Vivienda Justa (National Fair Housing Alliance) descubrió que esta tecnología puede reducir las disparidades en la concesión de hipotecas provocadas por los prejuicios humanos contra ciertos grupos desfavorecidos.
En términos más generales, los consumidores confían cada vez más en esta herramienta para analizar las condiciones de servicio, los contratos y las políticas de privacidad que pueden contradecir sus preferencias e intereses. "Las ventajas informativas que los vendedores, los proveedores de servicios y los intermediarios disfrutan sobre los consumidores" pueden llegar pronto a su fin, ya que esta tecnología "se está generalizando", según The Economist.
Como habrás adivinado, estas tecnologías se basan en la inteligencia artificial (IA). Sus algoritmos pueden entrenarse para mejorar algunas de las asimetrías de información más persistentes, como demuestran los ejemplos anteriores y otros muchos casos de uso. Sin embargo, esta es precisamente la tecnología a la que se dirigen las legislaturas estatales de todo el país. Los proyectos de ley que prohíben de forma generalizada la "discriminación algorítmica" amenazan con socavar algunos de los casos de uso más valiosos de la IA.
El proyecto de ley 2157 de la Cámara de Representantes del estado de Washington, por ejemplo, obliga a los desarrolladores de IA a actuar con "el cuidado razonable para proteger a los consumidores de cualquier riesgo conocido o razonablemente previsible de discriminación algorítmica". Dicho esto, el proyecto de ley incluye una excepción para el uso de la IA con el fin de ampliar "el número de solicitantes, clientes o participantes para aumentar la diversidad o corregir la discriminación histórica". Pero los desarrolladores no se arriesgarán a diseñar y desplegar herramientas de IA que logren resultados tan positivos si están sujetos a requisitos vagos de "cuidado razonable". El proyecto de ley 2157 define de manera general la discriminación algorítmica como "el uso de un sistema de IA que da lugar a un trato diferencial ilegal o a un impacto que desfavorece a una persona o grupo de personas" basándose en una larga lista de características. El "cuidado razonable" no está definido.
Este es uno de los muchos proyectos de ley sobre IA que existen en todo el país. Contienen definiciones igualmente amplias e incluso contradictorias de la IA. A menudo se centran en comportamientos, como la discriminación en las decisiones sobre vivienda y contratación, que ya son ilegales según la legislación estatal y federal. Además, imponen normas poco claras a los desarrolladores de IA.
Desde el punto de vista de un desarrollador de IA, estas leyes tendrán inevitablemente un efecto disuasorio. Si el proyecto de ley HB 2157 y otros proyectos similares se convierten en ley, las empresas emergentes que se disponen a ayudar a resolver algunas de las asimetrías de información mencionadas anteriormente podrían optar por vías "más seguras", creando herramientas que presenten un menor riesgo de litigio. Los inversores también podrían evitar apoyar a innovadores con grandes ambiciones de mejorar la adecuación entre empresas y trabajadores o de ayudar a las personas a encontrar becas, prestaciones y otros programas.
Sabemos cómo es el mundo cuando los responsables de la toma de decisiones carecen de acceso a este tipo de herramientas de IA. El desempleo persiste innecesariamente. Las personas mayores se pierden las prestaciones que necesitan para alcanzar la seguridad financiera. Y los niños en acogida esperan más tiempo para encontrar un hogar adecuado. Los legisladores que señalan la IA como una tecnología que requiere un trato "especial" están perpetuando de hecho este statu quo.
El camino adecuado a seguir es tratar la IA como cualquier otra herramienta y centrar la atención legislativa y los recursos normativos en hacer cumplir las leyes existentes que prohíben resultados específicos, independientemente de los medios tecnológicos utilizados para lograr esos fines. La discriminación en materia de vivienda, la discriminación en el empleo y el fraude en las prestaciones ya son ilegales. Cuando se producen, los reguladores y las cortes deben responder con firmeza, independientemente de si el responsable de la decisión fue un ser humano que utilizó una hoja de cálculo, un procesador de textos o una herramienta de IA.
Destacar la IA para imponer prohibiciones especiales específicas para esta tecnología invierte esta lógica. Desvía la atención de los daños y la centra en los métodos, desalentando precisamente las innovaciones que podrían ayudar a reducir las brechas de información persistentes e ineficientes.
Este artículo fue publicado originalmente en Cato At Liberty (Estados Unidos) el 11 de febrero de 2026.