Desafíos Constitucionales de la Regulación de la Inteligencia Artificial en los Estados

La Inteligencia Artificial en los Estados

La orden ejecutiva sobre inteligencia artificial invita a analizar una pregunta compleja: “¿Qué autoridad tienen realmente los estados para regular?” La respuesta común es que los estados pueden hacer lo que el gobierno federal no puede, basándose en los poderes residuales reservados por la Décima Enmienda.

Los estados tienen la responsabilidad de velar por la salud, seguridad y bienestar de sus residentes. Por lo tanto, pueden abordar preocupaciones locales a través de leyes de zonificación, certificaciones profesionales y asegurar la seguridad pública. Estas autoridades constituyen lo que a menudo se conoce como los “poderes policiales” de un estado.

El Contexto de la Orden Ejecutiva

A medida que el Grupo de Trabajo sobre Litigios de IA comienza su labor, se justifica una respuesta más específica sobre los poderes estatales. Este grupo está encargado de desafiar leyes estatales de IA que sean “inconstitucionales, preemptadas u otras ilegales que perjudiquen la innovación.” Su misión es cuestionar legislaciones estatales que interfieran con la visión de una política nacional de IA.

Sin embargo, esta no es una tarea ilimitada. Los tribunales federales solo anularán las leyes estatales si no se alinean con la Constitución o si resultan ser ilegales. Muchos actores en debates sobre IA interpretan liberalmente las autoridades que se otorgan a los estados, asumiendo que tienen el derecho de proteger la vida de sus ciudadanos, al igual que han podido imponer cuarentenas por preocupaciones de salud pública.

Los Límites de los Poderes Policiales

Los poderes policiales de los estados son amplios, pero no ilimitados. Deben respetar tanto un límite superior, que corresponde a los poderes enumerados reservados para la autoridad federal, como un límite inferior, que son los derechos de los ciudadanos de los estados. Esta dinámica ha sido probada en litigios a lo largo de la historia constitucional.

Cuando los estados promulgan leyes relacionadas con la IA bajo la supuesta preocupación por el bienestar de los residentes, deben cumplir con ciertas condiciones. ¿Abarca esta ley solo la jurisdicción geográfica del estado? ¿Aborda racionalmente un problema que enfrentan las comunidades locales? Estas condiciones serán escrutadas por el Grupo de Trabajo sobre Litigios de IA.

Áreas Susceptibles a Desafíos

Las leyes estatales sobre el uso de IA en el empleo y la contratación son probablemente válidas dentro del alcance de los poderes policiales. Sin embargo, las leyes que regulan la libertad de expresión son más ambiguas. Si se limitan a aplicar solo a los residentes del estado y promueven el bienestar general, podrían estar a salvo de la intervención del grupo de trabajo.

Las leyes sobre transparencia y seguridad, como las que exigen evaluaciones de riesgos previas al despliegue de IA, son especialmente susceptibles a desafíos. Estas regulaciones tienden a regular los laboratorios de IA antes de su despliegue, y su protección específica del bienestar de los residentes es difusa en el mejor de los casos.

Conclusiones

Con cientos de leyes estatales sobre IA, el Grupo de Trabajo sobre Litigios de IA deberá ser selectivo en su litigio. Aunque los estados pueden no estar contentos con un asalto políticamente motivado a su legislación, los responsables de políticas que han investigado los límites de los poderes policiales no deberían preocuparse. Este tipo de litigio aclarará el alcance de la acción estatal sobre la IA y garantizará que se implementen leyes de IA efectivas y apropiadas.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...