Tendencias Legales y Regulatorias de la IA en EE. UU. y el Mundo

Regulación y Tendencias Legales de la IA en EE. UU. y en el Extranjero

La implementación de la inteligencia artificial (IA) y el aprendizaje automático (ML) en el sector de la salud está evolucionando rápidamente, introduciendo nuevos desafíos. No solo los dispositivos médicos utilizan IA para diagnósticos, algo que se ha estado haciendo durante décadas, sino que también estamos viendo usos innovadores de la IA, incluyendo la IA generativa dentro de las organizaciones, ya sea para codificación, análisis de datos en busca de tendencias, entre muchas otras aplicaciones.

La importancia de la IA y el ML en la salud no puede ser subestimada. Estas tecnologías son utilizadas diariamente por los fabricantes para innovar productos nuevos o mejorados, que asisten a los proveedores de atención médica y mejoran la atención al paciente. Sin embargo, el avance rápido de estas tecnologías también ha llevado a desafíos regulatorios y legales significativos, así como a cambios de políticas tanto en EE. UU. como en otros países, incluyendo Europa y China. Además de estas regulaciones, los riesgos existentes de privacidad y ciberseguridad, así como las consideraciones de propiedad intelectual (PI), siguen siendo relevantes, con una activa aplicación y litigios en estas áreas.

Regulaciones de IA en EE. UU.: Desarrollos Federales y Estatales

En EE. UU., una orden ejecutiva de la era Biden sobre IA, que enfatizaba la protección del consumidor y las salvaguardias, fue reemplazada en enero por la Orden Ejecutiva 14179, «Eliminando Barreras para el Liderazgo Americano en IA», que, como se describe, tiene la intención de minimizar el impacto de la regulación federal en la innovación de la IA. Esto sigue a los esfuerzos bipartidistas en 2024 para establecer el Instituto de Seguridad de IA en el Instituto Nacional de Estándares y Tecnología (NIST), que ha desarrollado un marco de IA similar a otros marcos del NIST. A pesar de que se han propuesto legislaciones federales sobre el uso de IA en el sector privado, hasta la fecha ha habido poco impulso, con muchos legisladores reacios a implementar barreras a la tecnología.

En lugar de acción federal, estados como California, Colorado y Utah han aprobado sus propias leyes para regular los sistemas de IA. El Colorado AI Act, notablemente para el sector de la salud, se centra en sistemas de IA de alto riesgo, que incluyen aquellos que «son un factor sustancial en la toma de decisiones». Requiere que los desarrolladores proporcionen documentación detallada y faciliten evaluaciones de impacto. Aunque la ley otorga exenciones para ciertos productos regulados por la FDA que cumplen con estándares «sustancialmente equivalentes», y para entidades reguladas por HIPAA que realizan recomendaciones de salud no de alto riesgo, la ley es muy amplia y estas exenciones tienen un impacto incierto.

Regulación de la IA en la Unión Europea

En la Unión Europea (UE), el EU AI Act y el Reglamento General de Protección de Datos (GDPR) son los marcos regulatorios clave que rigen la IA. El EU AI Act define los sistemas de IA y coloca una alta carga regulatoria sobre los sistemas de IA de alto riesgo, que incluyen muchos dispositivos médicos. La ley enfatiza la gestión de riesgos, la gobernanza de datos, la documentación técnica y la transparencia a lo largo del ciclo de vida del sistema de IA. También se requieren evaluaciones de conformidad para los sistemas de IA de alto riesgo, similares a los requisitos de los organismos notificados para dispositivos médicos. Para los fabricantes de dispositivos médicos, estas reglas deben cumplirse para el 2 de agosto de 2026, y en muchos casos incluirán obligaciones adicionales sobre las regulaciones actuales de dispositivos médicos.

Enfoque de China hacia la Regulación de la IA

China también está activa en la regulación de la IA, considerando medidas enfocadas en equilibrar la seguridad de la IA y la innovación con los objetivos de liderazgo. Hasta ahora, la regulación china se ha centrado en gran medida en la regulación de la IA generativa, aunque el desarrollo de la IA de manera más amplia probablemente verá más regulación en algún momento. De manera similar a la reciente formulación de políticas en EE. UU., China parece estar buscando equilibrar las salvaguardias de IA y fomentar la innovación.

Consideraciones de Propiedad Intelectual

Las disputas de propiedad intelectual (PI) son otra área activa en la ley de IA, con numerosos casos en curso en EE. UU. relacionados con el uso de obras protegidas por derechos de autor para entrenar modelos de IA/ML. Las consideraciones de PI tienen dos caras: el uso no gestionado de herramientas de IA generativa puede arriesgar la pérdida inadvertida de PI o secretos comerciales, mientras que, por otro lado, las empresas de ciencias de la vida también deben considerar cuidadosamente si los derechos de propiedad intelectual y otros derechos de propiedad de datos pueden restringir el uso de datos para desarrollar o mejorar sus propios modelos de IA/ML. A medida que el caso jurisprudencial se desarrolle, habrá más claridad sobre dónde se trazan estas líneas.

Riesgos de Privacidad y Ciberseguridad en el Desarrollo de IA

Además, las consideraciones de privacidad y ciberseguridad continúan impactando tanto el uso como el desarrollo en IA/ML. El uso de datos personales para entrenar IA sigue siendo un área significativa de preocupación para los reguladores tanto en EE. UU. como en el extranjero, particularmente datos de salud. Y el uso de dicha información como insumos para herramientas de IA/ML también plantea preocupaciones sobre la privacidad y la ciberseguridad, ya que las empresas luchan con el uso de herramientas de IA por parte de empleados y proveedores para realizar trabajo, arriesgando en algunos casos la protección de la PI o la privacidad de los datos de entrada cuando estas herramientas no son adecuadamente evaluadas.

Afortunadamente, estos riesgos pueden mitigarse manteniéndose informado, planificando, implementando políticas y capacitación, evaluaciones de riesgo de proveedores, conocimiento de los requisitos de privacidad y términos contractuales apropiados.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...