La Prohibición de la Discriminación Algorítmica en Texas y Colorado
Recientemente, Texas se convirtió en el segundo estado en aprobar una ley que prohíbe la discriminación algorítmica. Esto significa que los operadores de sistemas de IA pueden ser sancionados si sus sistemas, por ejemplo, niegan injustamente un préstamo bancario, una segunda entrevista de trabajo o una póliza de seguros. Estas regulaciones podrían tener consecuencias desastrosas para la verdad, la innovación y, en última instancia, la libertad humana.
La Ley Responsable de Gobernanza de IA de Texas
La Texas Responsible AI Governance Act, que se firmó el mes pasado y entrará en vigor el próximo enero, prohíbe crear o utilizar IA de manera que infrinja, restrinja o impida un derecho constitucional o discrimine por motivos de una clase protegida. Aquellos que sean encontrados creando tal IA podrían enfrentar multas y la intervención del fiscal general del estado.
Esta ley requiere que se demuestre la intención de discriminar, lo que la distingue ligeramente de la ley de Colorado, que se aprobó el año pasado y será efectiva el próximo febrero.
Protección al Consumidor en IA de Colorado
La ley de Protecciones al Consumidor para la Inteligencia Artificial de Colorado establece que cualquier sistema de IA considerado de alto riesgo y que juegue un papel sustancial en una decisión consequential debe someterse a rigurosas evaluaciones anuales de impacto, planificación de mitigación de riesgos y auditorías continuas para detectar sesgos. Una decisión consequential es aquella que tiene un efecto legal material o significativo en la provisión o negación de servicios.
El incumplimiento de estas leyes puede resultar en demandas, multas regulatorias o peores consecuencias. En palabras del Gobernador de Colorado, esta ley regula “los resultados del uso de sistemas de IA, independientemente de la intención”.
Desafíos y Consecuencias de la Regulación
A pesar de la intención de estas leyes de prohibir la discriminación algorítmica, en la práctica, los desarrolladores de IA tendrán que anticipar cada posible impacto desigual que sus sistemas puedan generar y ajustar sus herramientas en consecuencia. Esto podría llevar a que los desarrolladores entren a sus modelos para evitar verdades incómodas y a que cada respuesta generada suene como si hubiera sido redactada con el asesoramiento legal a la vista.
Las leyes de discriminación algorítmica incorporan un tipo de cobardía en el código que ya afecta a muchas de nuestras instituciones públicas y privadas. Por ejemplo, en Harvard, el profesor Roland Fryer enfrentó una reacción adversa por su investigación controvertida, que incluyó un estudio que encontró que los sospechosos negros eran menos propensos a ser disparados por la policía que los sospechosos blancos.
El Futuro de la IA y la Libertad de Expresión
Al imponer esta presión de conformidad sobre los sistemas que dominarán nuestro futuro, el mercado de ideas en tecnología comenzará a parecerse al de la educación superior. Cuanto más se aleje la IA de decir la verdad, menos útil será y más improbable será que estas soluciones se implementen.
La idea de que los sistemas de IA se vuelvan más inteligentes que los humanos no es lo que debería preocuparnos. Lo que realmente debería alarmarnos es que, si se vuelven más inteligentes, les habremos enseñado nuestros peores hábitos: el miedo a hablar con claridad, la obsesión por evitar la culpa y la disposición a torcer los hechos para que se ajusten a la moda moral actual.
Conclusión
Si bien las leyes tienen el potencial de prevenir la discriminación algorítmica, someter el uso de sistemas de IA a la amenaza constante de castigo gubernamental por “ideas equivocadas” es una estrategia peligrosa. Necesitamos IA que sea honesta, no IA que haya sido entrenada para nunca decir nada que pueda provocar una demanda. Un compromiso inquebrantable con la verdad es más crucial que nunca.