Regulación de IA: Innovación y Confianza en Equilibrio

Necesitamos Dejar de Pretender Que la Regulación de la IA Sofoca la Innovación

La falta de regulación de la IA basada en el sentido común abre la puerta a daños reales y pone en riesgo una oportunidad potencial de 10.3 billones de dólares para desarrollar y utilizar IA generativa. Es necesario establecer directrices que incentiven a los innovadores a explorar nuevas tecnologías sin comprometer la confianza pública.

Los esfuerzos para garantizar una innovación responsable en IA han tomado un rumbo equivocado. La regulación, como la Ley de IA de la UE, es crucial para desbloquear los casos de uso más poderosos de la IA. Todas las innovaciones que hemos visto en IA hasta ahora son el resultado directo de la recopilación y uso de datos para el entrenamiento de modelos. Cuando los usuarios se sienten protegidos a través de políticas de datos transparentes y medidas de consentimiento, están más dispuestos a contribuir con los datos de alta calidad necesarios para avanzar en la IA.

Sin embargo, si las empresas descuidan la protección de los usuarios, se quedarán sin «combustible» o datos para avanzar.

¿Son Excesivas las Barreras?

La comunidad global de IA ha progresado en los últimos años en cómo gobernar la tecnología de IA para que la innovación no sacrifique la confianza y la seguridad del usuario. La Asociación de Ingenieros Eléctricos y Electrónicos (IEEE) sentó las bases en 2016 con sus principios de diseño éticamente alineados, y la Organización para la Cooperación y el Desarrollo Económico (OCDE) adoptó sus propios principios de IA tres años después. En 2022, la Casa Blanca presentó la Declaración de Derechos de IA, seguida por una orden ejecutiva del expresidente Joe Biden sobre IA en 2023. En marzo pasado, la UE aprobó su Ley de IA histórica.

Sin embargo, las declaraciones del Vicepresidente JD Vance en la Cumbre de IA de París del mes pasado, que afirmaron que «la regulación excesiva del sector de IA podría matar a una industria transformadora», enfrentan la oportunidad de la IA contra la seguridad. ¿Por qué deberíamos tener que elegir entre ambos? Los programas de privacidad centrados en el usuario construyen una confianza duradera entre consumidores y empresas.

Productos y servicios que priorizan la confianza del consumidor y empoderan la elección del usuario pueden acelerar la innovación en lugar de bloquearla. Tomemos los dátiles biométricos y los dispositivos inteligentes. Desde el reconocimiento facial y la exploración de huellas dactilares hasta los asistentes inteligentes siempre activos y los automóviles conectados, estas tecnologías emergentes han seguido planteando preguntas de privacidad.

En respuesta, regulaciones como la Ley de Privacidad de Información Biométrica de Illinois, el Reglamento General de Protección de Datos de la UE y la Ley de Seguridad de IoT de California han establecido reglas más claras sobre la recopilación, almacenamiento y compartición de datos. Esto ha ayudado a tranquilizar al público, lo que ha llevado a una mayor adopción de tecnologías como la verificación de identidad digital, dispositivos de salud portátiles y asistentes de hogar inteligentes.

Regulando los Daños Conocidos

La falta de regulación de la tecnología tiene consecuencias preocupantes. Los automóviles autónomos de empresas chinas han recorrido millones de millas recopilando cantidades incalculables de información sobre ciudadanos estadounidenses debido a la falta de leyes específicas que gobiernen tecnologías de países adversarios que pueden estar recopilando datos.

En contraste, la Ley de IA de la UE establece las barreras necesarias alrededor de las tecnologías de IA con daños conocidos, como la vigilancia biométrica en espacios públicos, la policía predictiva o los sistemas de reconocimiento emocional en el lugar de trabajo o escuelas.

El riesgo de discriminación racial por parte de la tecnología de reconocimiento facial está bien documentado. En 2020, la policía de Detroit arrestó a Robert Williams, un hombre negro, después de que un software de reconocimiento facial lo identificara erróneamente como sospechoso de robo. Tres años después, la misma fuerza policial se basó en otra coincidencia errónea, acusando erróneamente a Porcha Woodruff, una mujer negra embarazada, de robo de automóvil.

En lugar de sofocar la innovación, las regulaciones impulsan a las empresas a seguir mejorando sus productos. Las leyes de privacidad han obligado a las empresas a repensar la recopilación y uso de datos, e innovar en áreas como la encriptación, la minimización de datos y la gestión del consentimiento del usuario, lo que lleva a una mayor seguridad, mejor confianza del consumidor y nuevos modelos de negocio.

Por ejemplo, Apple introdujo una protección avanzada de datos para la encriptación de extremo a extremo de categorías de datos de iCloud más allá de las contraseñas y la información de salud protegida. Las regulaciones de consentimiento del usuario han creado nuevas tecnologías, desde startups hasta grandes empresas como IBM, que gobiernan todo el ciclo de vida de los permisos del usuario, desde la captura inicial y el almacenamiento hasta el manejo de solicitudes de acceso a datos granulares y eliminación.

Innovación y Confianza

Regulaciones como la Ley de IA de la UE que buscan abordar los riesgos más críticos de la tecnología emergente no son ejemplos de exceso gubernamental. Ninguna regulación es perfecta, pero estas leyes pueden servir como esquemas para una legislación significativa en EE. UU. que promueva la confianza pública y la adopción de IA (algo que Colorado ya ha hecho a través de su propia Ley de IA).

EE. UU. no firmó declaraciones en la Cumbre de París que delinean enfoques conjuntos para la mitigación de riesgos de IA y el desarrollo ético de IA. Esto es preocupante, dado el enfoque deregulatorio de la administración actual y la revocación de la orden ejecutiva de Biden sobre el uso y desarrollo seguro de IA.

El futuro del liderazgo en IA de EE. UU. depende de forjar un camino donde la innovación y la gobernanza responsable coexistan. La historia demuestra que la confianza—construida a través de prácticas de datos transparentes y guardias prácticas—es la moneda del progreso. Los marcos que priorizan la seguridad tranquilizarán a los usuarios y empoderarán a los innovadores para experimentar.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...