¿Y si los chatbots con IA estuvieran salvando vidas?
Adam Omary y Jennifer Huddleston sostienen que La Ley GUARD (Directrices para la verificación de la edad de los usuarios y el diálogo responsable) nos pide que cambiemos una pérdida cuantificable de libertad y privacidad por un impacto incalculable —y posiblemente negativo— en la seguridad.
Thai Liang Lim/E+ via Getty Images
Por Adam Omary y Jennifer Huddleston
La IA en la asistencia sanitaria: un marco normativo para la innovación, la responsabilidad y la autonomía del paciente — Parte 8
La Comisión Judicial del Senado ha dado luz verde al proyecto de ley GUARD (Directrices para la verificación de la edad de los usuarios y el diálogo responsable) del senador Josh Hawley. El proyecto de ley obligaría a todos los estadounidenses a verificar su edad antes de utilizar un chatbot de IA generativa y prohibiría a cualquier menor de dieciocho años utilizar un chatbot "de compañía". En la sala durante la sesión de revisión se encontraban los padres de niños que se suicidaron tras mantener conversaciones con productos de IA. Su dolor es inimaginable y sus motivos son irreprochables. Sin embargo, resulta preocupante que una política de este tipo pueda acabar costando vidas en lugar de salvarlas.
El argumento más sólido que impulsa este proyecto de ley es la creencia de que restringir el acceso de los menores a los chatbots de IA prevendrá el suicidio. A la luz de las pruebas disponibles, esa afirmación se acerca más a una hipótesis que a una conclusión —y a una hipótesis que va en contra de varias décadas de datos sobre cómo mueren los jóvenes.
Según los Centros para el Control y la Prevención de Enfermedades, la tasa de suicidios en Estados Unidos comenzó a subir alrededor del año 2000, antes incluso de que existieran ChatGPT, los teléfonos inteligentes o las redes sociales. Se aceleró a lo largo de la década de 2010 y, luego, contrariamente a la narrativa popular, se estabilizó y disminuyó ligeramente después de 2018, incluso cuando la IA generativa pasó de los laboratorios de investigación a los bolsillos de casi todos los adolescentes del país. Si los chatbots fueran un factor significativo del suicidio adolescente, las curvas deberían haberse movido al unísono. No ha sido así y, lo que es más importante, las tasas de suicidio entre los jóvenes estadounidenses siguen siendo las más bajas de todos los grupos de edad.
Si bien la pérdida de una vida joven por suicidio es una tragedia, lo que sea que esté matando a los jóvenes estadounidenses es anterior a la tecnología que los legisladores proponen ahora prohibirles.
Lo que los patrocinadores de la Ley GUARD no tienen en cuenta seriamente es la otra cara de la moneda. Hay casos en los que la IA podría ayudar a estadounidenses de todas las edades en lo que respecta a la salud mental. Aproximadamente la mitad de los estadounidenses con un trastorno de salud mental diagnosticable nunca busca ayuda profesional; el estigma, el costo y el miedo a una intervención involuntaria los mantienen en silencio. Para algunos de ellos —especialmente los adolescentes de hogares donde la terapia es inasequible, no está disponible o no es seguro revelarla—, un chatbot es su forma más fiable de apoyo emocional.
En una encuesta realizada a más de 1.000 adolescentes y adultos jóvenes, el 13% había utilizado un chatbot para recibir apoyo en materia de salud mental, y más del 90% de ellos lo consideró útil. En otro estudio realizado a más de 1.000 usuarios de Replika, un popular chatbot de IA, 30 personas informaron espontáneamente de que su compañero artificial les había salvado de suicidarse.
No sabemos cuántas vidas ha salvado la IA generativa al mejorar el acceso a la atención de salud mental. Pero por cada caso de psicosis o suicidio relacionado con la IA, puede haber docenas de resultados positivos que pasan desapercibidos. Una política que solo prevé los peores resultados también impide los mejores.
Las consecuencias de la propuesta también podrían disuadir la inversión o coartar la libertad de expresión que permitiría ofrecer mejores opciones. Ante sanciones de 100.000 dólares por infracción, los proveedores no invertirán en mejores modelos de detección del suicidio y, en su lugar, probablemente eliminarán cualquier contenido que pueda estar relacionado con ese tema, limitando así los recursos a las líneas de atención de crisis para quienes están pasando por dificultades. También limitaría la disponibilidad de información para quienes buscan comprender un evento profundamente traumático o ayudar a un amigo que pueda estar pasando por dificultades. Los profesionales clínicos saben desde hace décadas que las derivaciones bruscas a tratamiento sin haber establecido primero una relación de confianza pueden agravar la vergüenza y bloquear la revelación de información. Los mejores datos científicos sugieren que los marcos de prevención del suicidio anteponen el fomento de la confianza a la provisión de recursos precisamente porque el orden importa. Un régimen regulatorio que castiga a los proveedores por los matices producirá menos de ellos.
Más allá de ser una mala política, es casi seguro que estas leyes son inconstitucionales. La política subyacente no se basa en un interés gubernamental imperioso ni está adaptada a un ámbito específico. Afecta a los derechos de expresión y al anonimato de todos los usuarios de herramientas en línea, no solo de los menores, basándose en justificaciones que distan mucho de ser aceptadas. El régimen de cumplimiento es lo suficientemente amplio como para abarcar a quienes ayudan con los deberes, a los chatbots de atención al cliente y a los motores de búsqueda que generan respuestas conversacionales, aplicando un enfoque de "papeles, por favor" a una franja amplia y creciente de Internet. Para hacerla cumplir, todos los adultos estadounidenses tendrían que subir un documento de identidad oficial o someterse a un escaneo biométrico para hacer una pregunta, completar una interacción con el servicio de atención al cliente o practicar un idioma extranjero.
Existen respuestas políticas más mesuradas y adecuadas si los responsables políticos quieren apoyar a los padres y adolescentes que puedan encontrar dificultades con los chatbots de IA o la IA generativa. Esto incluye formar y proporcionar los recursos adecuados a las fuerzas del orden para perseguir a los malhechores que abusan de la tecnología para crear o solicitar contenido sexual a menores. La inversión en alfabetización en IA, del tipo que Idaho ha incorporado recientemente en sus escuelas públicas, prepara a los jóvenes para utilizar estas herramientas de la forma en que inevitablemente tendrán que hacerlo como adultos y puede incluir información sobre qué hacer si se encuentran con problemas.
Lejos de ser un problema, las exenciones de responsabilidad inspiradas en la Sección 230, junto con incentivos de puerto seguro para los proveedores que inviertan en una mejor detección de problemas de salud mental, recompensarían el tipo de desarrollo cuidadoso que el proyecto de ley actual castiga. Ninguna de estas medidas proporcionaría la claridad catártica de una prohibición, pero todas ellas tienen más probabilidades de salvar vidas. Es importante destacar que también empoderan a los padres y otros adultos de confianza, y no a los responsables políticos, para que sean ellos quienes determinen qué tiene sentido en lo que respecta al uso de la IA por parte de niños y adolescentes.
Los patrocinadores del proyecto de ley no actúan de mala fe. Los casos que los motivan son reales, y el impulso de proteger a los vulnerables es una de las características más honorables de nuestros instintos políticos. Pero el patrón nos resulta familiar de anteriores pánicos morales sobre los cómics, la música rock y los videojuegos. Cada uno de ellos se sintió con sinceridad. Cada uno se basó en una ciencia social débil amplificada por una fuerte emoción pública. Cada uno produjo una política que envejeció mal.
La Ley GUARD nos pide que cambiemos una pérdida cuantificable de libertad y privacidad por un impacto no cuantificable, y posiblemente negativo, en la seguridad. Las fuerzas que empujan a las personas al suicidio —el aislamiento, los conflictos familiares, las enfermedades no tratadas, la pérdida de sentido— operan en escalas de tiempo y a través de mecanismos que ninguna política tecnológica podrá abordar. Pretender lo contrario es ofrecer a las familias en duelo un consuelo que la política no puede proporcionar honestamente, mientras se cierra silenciosamente una puerta por la que otros jóvenes, menos visibles para nosotros, siguen caminando en busca de ayuda.
Para leer otras partes de esta serie de entradas del blog, vaya aquí.
Este artículo fue publicado originalmente en Cato At Liberty (Estados Unidos) el 5 de mayo de 2026.