Regulación de la IA en EE. UU.: Comprendiendo la Conformidad de la IA en el Desarrollo de Software
El 16 de mayo de 2023, se realizó una audiencia en el Congreso donde se destacó la necesidad de establecer límites en los sistemas de IA. A lo largo de los años, la regulación de la inteligencia artificial ha evolucionado a través de diversas administraciones, desde la de Obama hasta la actual. Este artículo explora el desarrollo de la regulación de la IA en EE. UU., así como las implicaciones y riesgos asociados.
La Historia de la Regulación de la IA en EE. UU.
Administración de Obama
La administración de Obama emitió un informe titulado “Preparándose para el Futuro de la Inteligencia Artificial” en octubre de 2016, que abordaba el uso de la IA en la economía y el gobierno federal, enfatizando la equidad y la seguridad.
Administración de Trump
En febrero de 2019, se firmó la Orden Ejecutiva 13859, que estableció la iniciativa estadounidense en inteligencia artificial, enfocándose en reducir las barreras para el uso de tecnologías de IA.
Administración de Biden
En octubre de 2022, se presentó el “Plan de Derechos de la IA”, que establece principios para proteger al público en la era de la IA. En octubre de 2023, se firmó una nueva Orden Ejecutiva que incluye leyes sobre seguridad, innovación y derechos civiles.
La Ley de Derechos de la IA
Esta ley sugiere enfoques para hacer que la IA sea más transparente y segura. Se enfoca en la protección contra sistemas automatizados inseguros y en garantizar que se tomen medidas proactivas para evitar la discriminación algorítmica.
Principios Clave
- Sistemas Efectivos y Seguros: Se sugiere involucrar a expertos en el desarrollo de sistemas de software de IA y realizar pruebas de predespliegue.
- Discriminación Algorítmica: Se deben tomar medidas continuas para garantizar el uso justo de la IA.
- Privacidad de Datos: Los usuarios deben tener control sobre sus datos y ser informados sobre su uso.
- Alternativas Humanas: Los usuarios deben poder optar por interactuar con humanos en lugar de sistemas automatizados.
La Orden Ejecutiva: Acciones Clave
La Orden Ejecutiva establece siete acciones clave para garantizar un desarrollo responsable de la IA.
Nuevos Estándares para la Seguridad de la IA
Los desarrolladores de sistemas de IA deben compartir resultados de seguridad con el gobierno y establecer estándares para proteger la privacidad de los estadounidenses.
Avanzando los Derechos Civiles y de Equidad
Se deben proporcionar directrices claras para abordar la discriminación algorítmica y mantener la equidad en el sistema de justicia.
Implicaciones para las Empresas
Con la creciente adopción de la IA, las empresas deben prepararse para cumplir con las regulaciones. Esto incluye entender su modelo de IA, establecer políticas y diseñar estructuras de responsabilidad.
Conclusión
La regulación de la inteligencia artificial en EE. UU. está en evolución, y las empresas deben mantenerse informadas sobre los cambios para asegurar su conformidad. La colaboración entre el gobierno, la industria y la sociedad será esencial para abordar los desafíos emergentes en este ámbito.