Regulación y Tendencias Legales de la IA en EE. UU. y en el Extranjero
La implementación de la inteligencia artificial (IA) y el aprendizaje automático (ML) en el sector de la salud está evolucionando rápidamente, introduciendo nuevos desafíos. No solo los dispositivos médicos utilizan IA para diagnósticos, algo que se ha estado haciendo durante décadas, sino que también estamos viendo usos innovadores de la IA, incluyendo la IA generativa dentro de las organizaciones, ya sea para codificación, análisis de datos en busca de tendencias, entre muchas otras aplicaciones.
La importancia de la IA y el ML en la salud no puede ser subestimada. Estas tecnologías son utilizadas diariamente por los fabricantes para innovar productos nuevos o mejorados, que asisten a los proveedores de atención médica y mejoran la atención al paciente. Sin embargo, el avance rápido de estas tecnologías también ha llevado a desafíos regulatorios y legales significativos, así como a cambios de políticas tanto en EE. UU. como en otros países, incluyendo Europa y China. Además de estas regulaciones, los riesgos existentes de privacidad y ciberseguridad, así como las consideraciones de propiedad intelectual (PI), siguen siendo relevantes, con una activa aplicación y litigios en estas áreas.
Regulaciones de IA en EE. UU.: Desarrollos Federales y Estatales
En EE. UU., una orden ejecutiva de la era Biden sobre IA, que enfatizaba la protección del consumidor y las salvaguardias, fue reemplazada en enero por la Orden Ejecutiva 14179, «Eliminando Barreras para el Liderazgo Americano en IA», que, como se describe, tiene la intención de minimizar el impacto de la regulación federal en la innovación de la IA. Esto sigue a los esfuerzos bipartidistas en 2024 para establecer el Instituto de Seguridad de IA en el Instituto Nacional de Estándares y Tecnología (NIST), que ha desarrollado un marco de IA similar a otros marcos del NIST. A pesar de que se han propuesto legislaciones federales sobre el uso de IA en el sector privado, hasta la fecha ha habido poco impulso, con muchos legisladores reacios a implementar barreras a la tecnología.
En lugar de acción federal, estados como California, Colorado y Utah han aprobado sus propias leyes para regular los sistemas de IA. El Colorado AI Act, notablemente para el sector de la salud, se centra en sistemas de IA de alto riesgo, que incluyen aquellos que «son un factor sustancial en la toma de decisiones». Requiere que los desarrolladores proporcionen documentación detallada y faciliten evaluaciones de impacto. Aunque la ley otorga exenciones para ciertos productos regulados por la FDA que cumplen con estándares «sustancialmente equivalentes», y para entidades reguladas por HIPAA que realizan recomendaciones de salud no de alto riesgo, la ley es muy amplia y estas exenciones tienen un impacto incierto.
Regulación de la IA en la Unión Europea
En la Unión Europea (UE), el EU AI Act y el Reglamento General de Protección de Datos (GDPR) son los marcos regulatorios clave que rigen la IA. El EU AI Act define los sistemas de IA y coloca una alta carga regulatoria sobre los sistemas de IA de alto riesgo, que incluyen muchos dispositivos médicos. La ley enfatiza la gestión de riesgos, la gobernanza de datos, la documentación técnica y la transparencia a lo largo del ciclo de vida del sistema de IA. También se requieren evaluaciones de conformidad para los sistemas de IA de alto riesgo, similares a los requisitos de los organismos notificados para dispositivos médicos. Para los fabricantes de dispositivos médicos, estas reglas deben cumplirse para el 2 de agosto de 2026, y en muchos casos incluirán obligaciones adicionales sobre las regulaciones actuales de dispositivos médicos.
Enfoque de China hacia la Regulación de la IA
China también está activa en la regulación de la IA, considerando medidas enfocadas en equilibrar la seguridad de la IA y la innovación con los objetivos de liderazgo. Hasta ahora, la regulación china se ha centrado en gran medida en la regulación de la IA generativa, aunque el desarrollo de la IA de manera más amplia probablemente verá más regulación en algún momento. De manera similar a la reciente formulación de políticas en EE. UU., China parece estar buscando equilibrar las salvaguardias de IA y fomentar la innovación.
Consideraciones de Propiedad Intelectual
Las disputas de propiedad intelectual (PI) son otra área activa en la ley de IA, con numerosos casos en curso en EE. UU. relacionados con el uso de obras protegidas por derechos de autor para entrenar modelos de IA/ML. Las consideraciones de PI tienen dos caras: el uso no gestionado de herramientas de IA generativa puede arriesgar la pérdida inadvertida de PI o secretos comerciales, mientras que, por otro lado, las empresas de ciencias de la vida también deben considerar cuidadosamente si los derechos de propiedad intelectual y otros derechos de propiedad de datos pueden restringir el uso de datos para desarrollar o mejorar sus propios modelos de IA/ML. A medida que el caso jurisprudencial se desarrolle, habrá más claridad sobre dónde se trazan estas líneas.
Riesgos de Privacidad y Ciberseguridad en el Desarrollo de IA
Además, las consideraciones de privacidad y ciberseguridad continúan impactando tanto el uso como el desarrollo en IA/ML. El uso de datos personales para entrenar IA sigue siendo un área significativa de preocupación para los reguladores tanto en EE. UU. como en el extranjero, particularmente datos de salud. Y el uso de dicha información como insumos para herramientas de IA/ML también plantea preocupaciones sobre la privacidad y la ciberseguridad, ya que las empresas luchan con el uso de herramientas de IA por parte de empleados y proveedores para realizar trabajo, arriesgando en algunos casos la protección de la PI o la privacidad de los datos de entrada cuando estas herramientas no son adecuadamente evaluadas.
Afortunadamente, estos riesgos pueden mitigarse manteniéndose informado, planificando, implementando políticas y capacitación, evaluaciones de riesgo de proveedores, conocimiento de los requisitos de privacidad y términos contractuales apropiados.