Nuevas Directrices de la Comisión Europea sobre la Definición de Sistemas de IA

Publicación de Directrices del Comisión Europea sobre la Definición de Sistemas de IA bajo la Ley de IA de la UE

La Comisión Europea ha publicado directrices sobre la definición de sistemas de IA, las cuales explican la aplicación práctica de la definición contenida en el Artículo 3(1) de la Ley de IA:

“un sistema basado en máquinas que está diseñado para operar con niveles variables de autonomía y que puede exhibir adaptabilidad tras su despliegue y que, para objetivos explícitos o implícitos, infiere, a partir de la entrada que recibe, cómo generar salidas como predicciones, contenido, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales”.

Objetivo de las Directrices

La guía de la Comisión tiene como objetivo ayudar a las organizaciones a determinar si un sistema de software constituye un sistema de IA, facilitando así la aplicación efectiva de las normas establecidas.

Es importante señalar que las directrices sobre la definición de sistemas de IA no son vinculantes. Están diseñadas para evolucionar con el tiempo y se actualizarán a la luz de experiencias prácticas, nuevas preguntas y casos de uso que surjan.

Clasificación de los Sistemas de IA

La Ley de IA, que busca promover la innovación mientras garantiza altos niveles de salud, seguridad y protección de derechos fundamentales, clasifica los sistemas de IA en diferentes categorías de riesgo, que incluyen:

  • Prohibido
  • Alto riesgo
  • Obligaciones de transparencia

Desde el 2 de febrero, las primeras normas bajo la Ley de IA han entrado en vigor. Estas incluyen la definición de sistemas de IA, la alfabetización en IA y los casos de uso de IA prohibidos que presentan riesgos inaceptables en la UE, tal como se establece en la Ley de IA.

Estado Actual de las Directrices

Aunque las directrices son un borrador, la Comisión aún no ha indicado cuándo podrían convertirse en definitivas.

More Insights

Espacios Seguros para la Innovación: Sandboxes de IA en Gobiernos Estatales

En 2023, el Departamento de Tecnología de California lanzó un sandbox de inteligencia artificial generativa que permite a los empleados estatales experimentar de manera segura con la integración de la...

Aumento de confianza en GenAI a nivel global a pesar de las brechas en la seguridad de IA

A pesar de las preocupaciones sobre la privacidad de datos y la transparencia, la confianza en la IA generativa ha aumentado globalmente, con el 48% de los encuestados indicando "confianza total" en...

Revolución digital en Kazajistán: Transformación a través de la IA y las criptomonedas

Kazajistán está transformando su economía basada en materias primas hacia un enfoque centrado en la digitalización y el desarrollo de inteligencia artificial. El presidente Tokayev ha anunciado la...

Colaboración y Competencia en la Gobernanza de la IA

La carrera por la inteligencia artificial está redefiniendo nuestra ética y la geopolítica, desafiando la noción de que se puede "ganar" esta competencia. La innovación en IA debe ser colaborativa y...

Política Nacional de IA en Pakistán: Un Futuro Innovador

Pakistán ha introducido una ambiciosa Política Nacional de IA destinada a construir un mercado de IA doméstico de 2.7 mil millones de dólares en cinco años. Esta política se basa en seis pilares...

Implementación de la ética en la IA: Guía práctica para empresas

La nueva guía de Capgemini destaca la importancia de la gobernanza ética de la IA como una prioridad estratégica para las organizaciones que buscan escalar la inteligencia artificial de manera...

Estrategia Integral de IA para la Educación Superior

La inteligencia artificial está transformando la educación superior al mejorar la experiencia académica y abordar problemas como la salud mental de los estudiantes. Las instituciones deben equilibrar...

Gobernanza de IA: Alineando políticas organizacionales con estándares globales

La inteligencia artificial (IA) está moldeando los servicios financieros, la agricultura y la educación en África, pero también trae riesgos significativos como sesgos y violaciones de privacidad...