La IA es nueva: las leyes que la rigen no tienen que serlo
El veto del gobernador de Virginia, Glenn Youngkin, al proyecto de ley House Bill 2094, conocido como la Ley de Alto Riesgo para Desarrolladores y Desplegadores de Inteligencia Artificial, resalta la creciente tendencia de la regulación de la IA en los Estados Unidos. Este proyecto de ley habría establecido un marco legal amplio para la IA, añadiendo restricciones a su desarrollo y outputs expresivos, lo que podría haber colisionado con la Primera Enmienda.
Este veto se suma a una serie de reveses a un movimiento en varios estados que busca regular el desarrollo de la inteligencia artificial, iniciado por un grupo de trabajo el año pasado. En febrero, dicho grupo se disolvió, indicando una agitación en una presión regulatoria que antes era ascendente.
Aunque las leyes existentes pueden o no aplicarse de manera prudente, la tendencia emergente de alejarse de la legislación apresurada y hacia una mayor deliberación es un signo positivo para el futuro entrelazado de la IA y la libertad de expresión.
El paisaje regulatorio
La IA promete una nueva era de generación de conocimiento y expresión, y estos desarrollos ocurren en un momento crítico a medida que la tecnología avanza. Las empresas actualizan sus modelos a un ritmo vertiginoso, como se ejemplifica con la nueva herramienta de generación de imágenes de OpenAI.
El interés público y político, alimentado por la fascinación y el temor, podría intensificarse en los próximos años, un periodo en el cual la IA, todavía emergiendo de su etapa inicial, se mantendrá vulnerable a nuevas amenazas regulatorias. Algunos analistas han hipotetizado que 2025 y 2026 podrían ser los últimos años para promulgar leyes que estén vigentes antes de que se liberen sistemas de IA con capacidades “cualitativamente transformadoras”.
Los estados han apresurado la propuesta de nuevos marcos legales, con alrededor de 700 proyectos de ley relacionados con la IA introducidos el año pasado, abarcando desde “deepfakes” hasta el uso de IA en elecciones. Este año, el número ya se aproxima a 900.
Un ejemplo de alto perfil de esta ola de proyectos de ley restrictivos es la TRAIGA (Ley de Gobernanza Responsable de la Inteligencia Artificial de Texas), que impone responsabilidades a los desarrolladores y distribuidores de sistemas de IA que puedan introducir el riesgo de “discriminación algorítmica”.
Alternativas modestamente diferentes
Un enfoque diferente parece estar tomando forma en Connecticut. El gobernador Ned Lamont mostró reservas sobre la legislación que regula la IA, sugiriendo que las leyes anti-discriminación existentes podrían aplicarse ya a la IA en áreas como el empleo y la vivienda.
La aplicación de las leyes existentes debe alinearse con las amplias protecciones de la Primera Enmienda. No todas las aplicaciones concebidas serán constitucionales, pero la tendencia de los estados que piensan detenidamente sobre las herramientas disponibles brinda a los desarrolladores y usuarios de IA la ventaja de operar dentro de marcos legales establecidos y predecibles.
La historia también enseña que muchos de los temores iniciales nunca se materializarán. Como observó el presidente Calvin Coolidge: “Si ves 10 problemas acercándose por el camino, puedes estar seguro de que nueve se desviarán antes de alcanzarte y solo tendrás que lidiar con uno de ellos”.
La mejor opción podría ser la paciencia. Permitir que las leyes existentes hagan su trabajo y evitar restricciones prematuras es crucial para el desarrollo de la IA.