Nuevas Directrices de la Comisión Europea sobre la Definición de Sistemas de IA

Publicación de Directrices del Comisión Europea sobre la Definición de Sistemas de IA bajo la Ley de IA de la UE

La Comisión Europea ha publicado directrices sobre la definición de sistemas de IA, las cuales explican la aplicación práctica de la definición contenida en el Artículo 3(1) de la Ley de IA:

“un sistema basado en máquinas que está diseñado para operar con niveles variables de autonomía y que puede exhibir adaptabilidad tras su despliegue y que, para objetivos explícitos o implícitos, infiere, a partir de la entrada que recibe, cómo generar salidas como predicciones, contenido, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales”.

Objetivo de las Directrices

La guía de la Comisión tiene como objetivo ayudar a las organizaciones a determinar si un sistema de software constituye un sistema de IA, facilitando así la aplicación efectiva de las normas establecidas.

Es importante señalar que las directrices sobre la definición de sistemas de IA no son vinculantes. Están diseñadas para evolucionar con el tiempo y se actualizarán a la luz de experiencias prácticas, nuevas preguntas y casos de uso que surjan.

Clasificación de los Sistemas de IA

La Ley de IA, que busca promover la innovación mientras garantiza altos niveles de salud, seguridad y protección de derechos fundamentales, clasifica los sistemas de IA en diferentes categorías de riesgo, que incluyen:

  • Prohibido
  • Alto riesgo
  • Obligaciones de transparencia

Desde el 2 de febrero, las primeras normas bajo la Ley de IA han entrado en vigor. Estas incluyen la definición de sistemas de IA, la alfabetización en IA y los casos de uso de IA prohibidos que presentan riesgos inaceptables en la UE, tal como se establece en la Ley de IA.

Estado Actual de las Directrices

Aunque las directrices son un borrador, la Comisión aún no ha indicado cuándo podrían convertirse en definitivas.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...