Día: mayo 4, 2026

Coalición alemana rechaza recortes a la IA de la UE

Merz presionó para reducir las normas de IA industrial, pero el socio de coalición, los socialdemócratas alemanes, se opusieron firmemente, advirtiendo riesgos para los consumidores y la protección europea. En una carta urgente, instaron a los legisladores a rechazar cualquier debilitamiento del AI Act durante las negociaciones trilog.

Read More »

IA de rápido avance como prioridad regulatoria en el Reino Unido

El foro de cooperación de regulación digital del Reino Unido, formado por sus cuatro principales reguladores, se centrará en la IA que plantea nuevos retos y oportunidades regulatorias, generando conocimientos transversales para orientar su enfoque. Además, fortalecerá la colaboración en datos inteligentes, impulsará el crecimiento económico y abordará los daños en línea.

Read More »

Fracasó el intento de posponer la Ley de IA en la UE

Los legisladores de la UE no lograron acordar un aplazamiento de la Ley de Inteligencia Artificial, lo que mantiene la fecha de entrada en vigor para agosto. Las discusiones se centraron en permitir que maquinaria y dispositivos médicos cumplan con la normativa sectorial en lugar de la Ley de IA, pero la propuesta fue rechazada.

Read More »

AI en servicios financieros: oportunidades y riesgos de cumplimiento

El uso de IA en servicios financieros ha aumentado rápidamente, con el 61 % de los profesionales utilizándola a diario, pero solo el 32 % cuenta con sistemas de monitoreo capaces de detectar riesgos. Los profesionales desean una supervisión más robusta para garantizar que las interacciones asistidas por IA sean transparentes y defendibles.

Read More »

Cómo las leyes actuales regulan la IA

En este episodio, los expertos explican cómo leyes existentes como anti‑discriminación, empleo y privacidad ya regulan el uso de la IA, y por qué el caso de uso específico determina el nivel de riesgo. Además, analizan la tensión percibida entre innovación y salvaguardas, mostrando que las organizaciones pueden fomentar la innovación mientras gestionan los impactos en empleados y clientes.

Read More »

AI y Derecho: El nuevo debate global

El podcast «Beyond the Code: AI and Law», lanzado por la UJ y liderado por el Vicerrector Prof. Letlhokwa George Mpedi, sitúa a la universidad en el centro del debate global sobre la gobernanza de la IA, abogando por regulaciones obligatorias en lugar de guías éticas voluntarias. El programa destaca la urgencia de marcos legales y de rendición de cuentas que acompañen el rápido avance de la IA en sectores como finanzas, salud y seguridad.

Read More »

Gobernanza responsable de IA en Arabia Saudí

Saudi Arabia ha abierto una consulta pública sobre su borrador de Política de IA Responsable, invitando a empresas y demás actores a presentar sus comentarios antes del 3 de mayo de 2026. El borrador propone un marco de gobernanza operativa que clasifica los sistemas de IA en cuatro niveles de riesgo y establece requisitos de registro, etiquetado ético, auditoría y sandbox regulatorio.

Read More »

Mejora y gobernanza responsable de IA en el sector público

El proyecto mejoró significativamente la eficiencia y estabilidad de los sistemas de IA del ministerio, triplicando su capacidad de procesamiento y facilitando una mayor implantación en procesos de política y operacionales. Además, se fortaleció el marco de gobernanza de IA alineándolo con la legislación europea, garantizando un despliegue responsable y escalable en el sector público.

Read More »

Governanza de IA para el sector público con 2Trust y Carahsoft

2Trust.AI se asocia con Carahsoft para ofrecer una plataforma de gobernanza y cumplimiento de IA al sector público, facilitando el acceso a soluciones auditables y seguras. La colaboración busca acelerar la implementación de IA responsable en agencias gubernamentales, cumpliendo con regulaciones como la EU AI Act y normas estatales de EE. UU.

Read More »

Regulación colaborativa de IA: el modelo SRO como solución definitiva

El artículo argumenta que la autorregulación competitiva está fallando en la seguridad de la IA y propone adoptar el modelo de organizaciones autorreguladoras supervisadas (SRO), similar al utilizado en finanzas, para coordinar normas de seguridad entre laboratorios sin vulnerar la legislación antimonopolio. Un SRO supervisado por una agencia gubernamental permitiría actualizaciones rápidas, mitigaría la asimetría de información y evitaría la carrera hacia el abismo en la seguridad de la IA.

Read More »