El Peligro de la Deshonestidad Algorítmica

La Prohibición de la Discriminación Algorítmica en Texas y Colorado

Recientemente, Texas se convirtió en el segundo estado en aprobar una ley que prohíbe la discriminación algorítmica. Esto significa que los operadores de sistemas de IA pueden ser sancionados si sus sistemas, por ejemplo, niegan injustamente un préstamo bancario, una segunda entrevista de trabajo o una póliza de seguros. Estas regulaciones podrían tener consecuencias desastrosas para la verdad, la innovación y, en última instancia, la libertad humana.

La Ley Responsable de Gobernanza de IA de Texas

La Texas Responsible AI Governance Act, que se firmó el mes pasado y entrará en vigor el próximo enero, prohíbe crear o utilizar IA de manera que infrinja, restrinja o impida un derecho constitucional o discrimine por motivos de una clase protegida. Aquellos que sean encontrados creando tal IA podrían enfrentar multas y la intervención del fiscal general del estado.

Esta ley requiere que se demuestre la intención de discriminar, lo que la distingue ligeramente de la ley de Colorado, que se aprobó el año pasado y será efectiva el próximo febrero.

Protección al Consumidor en IA de Colorado

La ley de Protecciones al Consumidor para la Inteligencia Artificial de Colorado establece que cualquier sistema de IA considerado de alto riesgo y que juegue un papel sustancial en una decisión consequential debe someterse a rigurosas evaluaciones anuales de impacto, planificación de mitigación de riesgos y auditorías continuas para detectar sesgos. Una decisión consequential es aquella que tiene un efecto legal material o significativo en la provisión o negación de servicios.

El incumplimiento de estas leyes puede resultar en demandas, multas regulatorias o peores consecuencias. En palabras del Gobernador de Colorado, esta ley regula “los resultados del uso de sistemas de IA, independientemente de la intención”.

Desafíos y Consecuencias de la Regulación

A pesar de la intención de estas leyes de prohibir la discriminación algorítmica, en la práctica, los desarrolladores de IA tendrán que anticipar cada posible impacto desigual que sus sistemas puedan generar y ajustar sus herramientas en consecuencia. Esto podría llevar a que los desarrolladores entren a sus modelos para evitar verdades incómodas y a que cada respuesta generada suene como si hubiera sido redactada con el asesoramiento legal a la vista.

Las leyes de discriminación algorítmica incorporan un tipo de cobardía en el código que ya afecta a muchas de nuestras instituciones públicas y privadas. Por ejemplo, en Harvard, el profesor Roland Fryer enfrentó una reacción adversa por su investigación controvertida, que incluyó un estudio que encontró que los sospechosos negros eran menos propensos a ser disparados por la policía que los sospechosos blancos.

El Futuro de la IA y la Libertad de Expresión

Al imponer esta presión de conformidad sobre los sistemas que dominarán nuestro futuro, el mercado de ideas en tecnología comenzará a parecerse al de la educación superior. Cuanto más se aleje la IA de decir la verdad, menos útil será y más improbable será que estas soluciones se implementen.

La idea de que los sistemas de IA se vuelvan más inteligentes que los humanos no es lo que debería preocuparnos. Lo que realmente debería alarmarnos es que, si se vuelven más inteligentes, les habremos enseñado nuestros peores hábitos: el miedo a hablar con claridad, la obsesión por evitar la culpa y la disposición a torcer los hechos para que se ajusten a la moda moral actual.

Conclusión

Si bien las leyes tienen el potencial de prevenir la discriminación algorítmica, someter el uso de sistemas de IA a la amenaza constante de castigo gubernamental por “ideas equivocadas” es una estrategia peligrosa. Necesitamos IA que sea honesta, no IA que haya sido entrenada para nunca decir nada que pueda provocar una demanda. Un compromiso inquebrantable con la verdad es más crucial que nunca.

More Insights

Guía Práctica de IA Responsable para Desarrolladores .NET

La era de la Inteligencia Artificial (IA) está sucediendo ahora, y aunque ofrece velocidad y precisión en sectores como la banca y la salud, plantea desafíos éticos sobre su confianza. Para abordar...

Ley de Transparencia en IA: Un Hito en California

Los legisladores de California han hecho historia al aprobar una ley pionera sobre la transparencia en inteligencia artificial que se centra en los "modelos fronterizos", los sistemas de inteligencia...

Desafíos legales del uso de IA en el proceso de contratación

El uso de herramientas de IA en el proceso de solicitud permite a las empresas optimizar sus procesos, pero los empleadores deben asegurarse de que los sistemas utilizados sean transparentes, no...

Los Cuatro Pilares de los Guardrails en GenAI: Construyendo Sistemas de IA Responsables

A medida que la inteligencia artificial generativa transforma cómo operan las empresas, es fundamental implementar sistemas de guardrails para asegurar un despliegue responsable. Estos guardrails, que...

IA Responsable para Mercados Emergentes: Inclusión desde el Diseño

La inteligencia artificial está transformando el mundo, pero los beneficios no llegan a todos de manera equitativa. Es fundamental diseñar sistemas de IA inclusivos que aborden las barreras de...