California establece un hito con la primera ley de seguridad para IA en EE. UU.

California se convierte en el primer estado de EE. UU. en promulgar una ley dedicada a la seguridad de la IA

La discusión global sobre la gobernanza de la inteligencia artificial ha entrado en una nueva etapa, ya que California se convierte en el primer estado en EE. UU. en promulgar una ley dedicada a la seguridad de la IA. La Ley de Transparencia en la Inteligencia Artificial de Frontera (TFAIA) exige a empresas como Google, Meta y OpenAI, así como a otros desarrolladores importantes, que reporten incidentes de alto riesgo, divulguen medidas de seguridad y protejan a los denunciantes.

La ley también obliga a las empresas a publicar marcos que muestren cómo incorporan estándares de seguridad y a crear un mecanismo para reportar incidentes críticos de seguridad a las autoridades estatales.

Implicaciones de la Ley

La columnista Stefanie Schappert destacó que la ley de California podría ser un paso significativo hacia la responsabilidad, pero sin coordinación federal, podría también llevar a «más confusión que claridad».

Mientras las principales economías compiten por establecer regulaciones de IA, el enfoque de India contrasta notablemente. Este desarrollo es un aviso oportuno para India, que aún no ha implementado un marco específico dedicado a la IA. Los principales objetivos de las iniciativas actuales de India, como la misión IndiaAI y la propuesta de Ley Digital de India, se centran en el desarrollo de infraestructura y la facilitación de la innovación. Sin embargo, ninguno de ellos aborda específicamente la responsabilidad de los modelos, el uso ético o la seguridad de la IA, áreas que actualmente se están definiendo en las leyes de EE. UU. y Europa.

Desafíos en la Gobernanza de la IA en India

Las empresas que utilizan modelos de IA en sistemas públicos vulnerables como la salud, las finanzas y la educación aún no están sujetas a requisitos claros de auditoría, pruebas o divulgación. Según Arjun Goswami, director de políticas públicas en el bufete de abogados Cyril Amarchand Mangaldas, «los actuales marcos de trabajo de India se centran en habilitar la IA, no en regularla».

A falta de obligaciones de seguridad o responsabilidad vinculantes, hay poca claridad sobre cómo las empresas deberían gestionar los riesgos en sectores críticos como la salud o las finanzas. «La mayor brecha que enfrentamos es la responsabilidad. No hay claridad sobre quién es responsable si un sistema de IA causa daño, ya sea el desarrollador, el implementador o el usuario final», agregó Goswami.

Direcciones Globales en la Regulación de la IA

Los países de todo el mundo están tomando direcciones diferentes. La Ley de IA de la UE, que se espera que se implemente el próximo año, adopta una estrategia basada en el riesgo y aplica los requisitos más altos a los sistemas que representan un riesgo significativo. Las evaluaciones de seguridad y los registros de algoritmos ya son obligatorios en China.

Incluso los gobiernos se unieron en la Cumbre de Seguridad de IA del Reino Unido en 2023 para formular directrices uniformes de prueba. Por otro lado, India se está enfocando en un enfoque sectorial y voluntario, permitiendo que ministerios o reguladores específicos publiquen asesorías de IA dentro de su ámbito. «Las directrices éticas voluntarias son un primer paso útil», dijo Goswami, «porque fomentan que las empresas incorporen la seguridad y la responsabilidad sin sofocar la innovación».

Sin embargo, sin un mandato legal, no hay garantía de que los sistemas de alto riesgo sean auditados o monitoreados adecuadamente. Los expertos advierten que una supervisión fragmentada podría dejar a India vulnerable. «Necesitaremos un marco nacional de gobernanza de IA que alinee la innovación con la seguridad, especialmente a medida que se expande el uso de IA en el sector público», afirmó Varun Singh, socio fundador de Foresight Law Offices.

La Necesidad de un Marco de Gobernanza de IA en India

Singh agregó que un enfoque gradual podría funcionar mejor. «India podría comenzar con la divulgación obligatoria, la presentación de informes de incidentes y auditorías para sectores de alto riesgo como la salud, las finanzas y los servicios gubernamentales. Con el tiempo, estas normas pueden extenderse más ampliamente, equilibrando la innovación con la responsabilidad».

El dilema que los gobiernos deben enfrentar es cómo exigir transparencia sin limitar el crecimiento, como lo demuestra el experimento de California. Esta decisión es crucial para India. A medida que la IA se incorpore a los programas y servicios del gobierno que interactúan con los ciudadanos, la falta de mecanismos claros de seguridad y reparación podría aumentar los riesgos antes de que la nación establezca las salvaguardias necesarias.

«Esperar demasiado para definir la responsabilidad significa que terminaremos reaccionando a crisis en lugar de prevenirlas», advirtió Singh. «India necesita un marco modular y por niveles de riesgo que exija transparencia, seguridad y explicabilidad, al mismo tiempo que deja espacio para la innovación y la experimentación».

A medida que California establece un precedente y otras jurisdicciones siguen su ejemplo, India enfrenta una ventana crítica para establecer su propio enfoque equilibrado, uno que proteja a los ciudadanos mientras preserva su ventaja competitiva en la carrera global de la IA.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...