Categoría: Gobernanza de IA

Regulación Basada en Entidades para la IA Avanzada

En el corazón de la política de inteligencia artificial (IA) de frontera se encuentra un debate clave: ¿debería la regulación centrarse en la tecnología en sí, los modelos de IA, o en los usos de la tecnología? Proponemos un enfoque alternativo de regulación de IA de frontera que se centra en las grandes entidades empresariales que desarrollan los modelos y sistemas de IA más poderosos.

Read More »

Inspeccionando Salidas de GenAI para una Adopción Segura de IA

Las organizaciones que adoptan herramientas de inteligencia artificial generativa como Zoom AI Companion y Microsoft Copilot deben establecer políticas claras y robustas para proteger datos sensibles. La inspección del contenido generado por IA se convierte en un paso esencial para garantizar que los resultados cumplan con las normativas internas y regulatorias.

Read More »

El Marco de Seguridad AI de Pillar: Un Avance Clave en la Industria

Pillar Security ha desarrollado un marco de seguridad de IA que representa un importante avance en los esfuerzos de la industria para garantizar operaciones seguras para la inteligencia artificial. Este marco, conocido como Secure AI Lifecycle Framework (SAIL), aborda más de 70 riesgos y proporciona mitigaciones alineadas con otros marcos líderes.

Read More »

IA en Cumplimiento y Verificación: La Clave para la Confianza Empresarial

En el Día de Apreciación de la IA, es importante destacar el papel transformador de la inteligencia artificial en la infraestructura de confianza de las empresas en la economía digital de India. La IA se ha convertido en un pilar fundamental para la verificación de identidad y la prevención del fraude en sectores críticos como BFSI y fintech.

Read More »

Informe de Model Card: Clave para una IA Responsable

Un informe de tarjeta de modelo es una herramienta esencial para la transparencia y la responsabilidad en el desarrollo y despliegue de modelos de inteligencia artificial. Proporciona un registro estandarizado del propósito, uso, pruebas y limitaciones de un modelo, ayudando a cumplir con las regulaciones emergentes y a construir confianza con las partes interesadas.

Read More »

La discriminación en la inteligencia artificial financiera

Un grupo de defensa advierte que la inteligencia artificial financiera está discriminando y explotando a los consumidores, ya que muchas decisiones sobre préstamos, precios de seguros y acceso a cuentas bancarias se delegan a sistemas de IA sin que los consumidores se den cuenta. Peter Norwood, de Finance Watch, señala que sin reformas urgentes, la IA en las finanzas podría socavar la equidad, la transparencia y la confianza pública.

Read More »

Riesgos de Cumplimiento por el Uso de AI No Autorizada en el Trabajo

Con la creciente adopción de herramientas de inteligencia artificial, muchos trabajadores utilizan herramientas de IA no autorizadas en el lugar de trabajo, lo que plantea riesgos de cumplimiento y reputación para las empresas. En sectores altamente regulados, como la atención médica y las finanzas, el uso de estas herramientas puede amenazar la privacidad y la seguridad de los datos.

Read More »

Código de Práctica para Modelos de IA: Nuevas Normas de Cumplimiento

El 11 de julio de 2025, la Comisión Europea publicó la versión final de su Código de Práctica para la Inteligencia Artificial de Propósito General (GPAI), destinado a ayudar a los proveedores a cumplir con las obligaciones de transparencia, derechos de autor y seguridad. La adhesión al Código es voluntaria y se espera que facilite la conformidad con la Ley de IA que entrará en vigor el 2 de agosto de 2025.

Read More »