Categoría: Régulation de l’IA

Marco Nacional de Confianza para la IA en Malasia

Malaysia está desarrollando un Marco Nacional de Confianza en IA para guiar el uso responsable y construir la confianza pública en la gobernanza de la inteligencia artificial. El Ministro Digital Gobind Singh Deo mencionó que se está explorando un entorno regulatorio para supervisar el despliegue ético de la IA.

Read More »

La presión de Big Tech diluye el Código de Práctica de IA

Las empresas de Big Tech presionaron a la Comisión Europea para suavizar el Código de Práctica sobre IA de Propósito General, según un informe de Corporate Europe Observatory y LobbyControl. El estudio revela que las empresas tecnológicas tuvieron más acceso al proceso de redacción que otros interesados, lo que resultó en reglas debilitadas en torno a la IA avanzada.

Read More »

Las nuevas leyes de vigilancia biométrica en Hungría y su violación de la normativa de IA

Las nuevas leyes de vigilancia biométrica de Hungría violan la Ley de IA de la UE al permitir el uso de tecnología de reconocimiento facial en procedimientos de infracción, lo que afecta el derecho a la libertad de reunión y expresión. Esta expansión de la vigilancia en protestas pacíficas socava la confianza en la democracia y debe ser examinada urgentemente por la UE.

Read More »

La Ley Pionera contra el Abuso de Deepfakes en EE.UU.

El 28 de abril, la Cámara de Representantes aprobó la primera ley importante que aborda el daño causado por la inteligencia artificial: la Ley Take It Down. Esta ley criminaliza la pornografía deepfake no consensuada y exige que las plataformas eliminen dicho material dentro de las 48 horas siguientes a la notificación.

Read More »

La confusión en la regulación de los chatbots de IA

El regulador de seguridad en línea Ofcom ha sido acusado de tener una respuesta «confusa y desordenada» ante la regulación de los peligros de los chatbots de IA, que podrían representar un «riesgo claro» para el público. Se argumenta que muchas empresas tecnológicas están lanzando chatbots de IA sin suficientes salvaguardias, lo que presenta serias preocupaciones sobre la seguridad de los usuarios.

Read More »

La regulación confusa de los chatbots de IA y su riesgo para la seguridad pública

El regulador de seguridad en línea Ofcom ha sido acusado de tener una respuesta «confusa y desordenada» ante la regulación de los peligros que presentan los chatbots de IA, que podrían representar un «claro riesgo» para el público. Andy Burrows, director ejecutivo de la Molly Rose Foundation, afirmó que muchas empresas tecnológicas están apresurando la salida de chatbots de IA en una lucha por ganar participación de mercado en el nuevo ámbito de la IA generativa.

Read More »

Despliegue Responsable de la IA: Claves del Acta de la UE

En Salesforce, creemos que la inteligencia artificial responsable comienza con límites claros y abogamos por un enfoque basado en riesgos para la gobernanza de la IA que prioriza los derechos humanos y consideraciones éticas. La Ley de IA de la Unión Europea establece un conjunto de «prácticas prohibidas» que prohíben el uso de la IA que representa riesgos significativos para los derechos fundamentales.

Read More »

Guías de la Comisión Europea sobre Prácticas Prohibidas de IA

La Comisión Europea ha publicado directrices sobre las prácticas de inteligencia artificial (IA) prohibidas bajo la Ley de IA, que prohíben técnicas manipulativas y sistemas que explotan vulnerabilidades. Estas directrices tienen como objetivo proporcionar claridad legal y ayudar a las empresas a cumplir con la legislación.

Read More »

Desafíos y Estrategias en la Gobernanza de la IA

La inteligencia artificial se ha convertido rápidamente en un motor crítico en cada industria, pero también conlleva riesgos significativos. En una conversación reciente, el Dr. Enzo Tolentino destacó la importancia de gestionar estos riesgos y mantener la confianza en los sistemas de IA.

Read More »