Categoría: Conformité IA pour la sécurité

California promulga una ley pionera sobre la transparencia en la inteligencia artificial

El 29 de septiembre de 2025, el gobernador de California, Gavin Newsom, firmó la Ley de Transparencia en la Inteligencia Artificial de Frontera (TFAIA), convirtiendo a California en el primer estado en establecer un marco legal integral para garantizar la transparencia y la responsabilidad en el desarrollo de modelos de inteligencia artificial avanzada. La TFAIA impone obligaciones significativas de gestión de riesgos y transparencia a todos los desarrolladores de IA de frontera, particularmente a aquellos con ingresos anuales superiores a 500 millones de dólares.

Read More »

California establece la primera ley integral de seguridad y transparencia en inteligencia artificial

California, un epicentro global de innovación en inteligencia artificial, ha promulgado la Ley de Transparencia en la Inteligencia Artificial de Frontera, estableciendo un marco para la seguridad y la responsabilidad en el desarrollo de modelos de IA avanzados. Esta legislación marca un cambio significativo hacia la gestión proactiva de riesgos y la protección del consumidor en un paisaje tecnológico en rápida evolución.

Read More »

Anthropic lanza Petri, herramienta para auditorías automatizadas de seguridad en IA

Anthropic ha presentado Petri, una herramienta de auditoría de seguridad de IA de código abierto que utiliza agentes autónomos para probar modelos de lenguaje grande (LLMs) en busca de comportamientos riesgosos. Esta herramienta permite auditar modelos como Claude Sonnet 4.5 y OpenAI GPT-5, identificando tendencias problemáticas en áreas como el engaño y la búsqueda de poder.

Read More »

California Establece un Precedente Nacional con la Nueva Ley de Seguridad AI

California ha dado un paso histórico hacia la regulación de la inteligencia artificial, promulgando la Ley de Transparencia en la Inteligencia Artificial de Frontera (SB 53), la primera ley estatal en Estados Unidos dedicada completamente a la seguridad y responsabilidad en IA. Esta ley requiere que los principales desarrolladores de IA publiquen marcos de seguridad, informen sobre incidentes graves y protejan a los empleados que denuncien violaciones.

Read More »

Integrando la ciberseguridad empresarial con la seguridad de IA

En estos tiempos emocionantes para la inteligencia artificial, las empresas están integrando capacidades de IA con datos empresariales para mejorar los resultados. Sin embargo, a medida que se incorpora la IA en los sistemas, también se convierten en objetivos más atractivos para los ciberdelincuentes, lo que requiere una evaluación cuidadosa de las amenazas y vulnerabilidades.

Read More »

Alineación con la Ley de IA en Dispositivos Médicos

La Ley de Inteligencia Artificial de la UE (AIA) es la primera ley integral sobre IA en el mundo y transformará el desarrollo, aprobación y comercialización de dispositivos médicos habilitados por IA. Este seminario web, organizado por BSI Group y McDermott Will & Schulte, reunirá a expertos legales, regulatorios y técnicos para proporcionar claridad sobre lo que significa la AIA en la práctica.

Read More »

California Establece la Primera Ley de Seguridad de IA en EE. UU.

California ha aprobado la primera ley de seguridad de IA del país, que obliga a los principales desarrolladores de IA a hacer públicas sus prácticas de seguridad. Esta legislación, firmada por el gobernador Gavin Newsom, establece un marco de informes para las amenazas y busca abordar las preocupaciones sobre los peligros de la IA poderosa.

Read More »

Seguridad en IA Generativa para Ejecutivos C-Suite

La seguridad de la IA generativa requiere una sólida gobernanza desde la alta dirección para mitigar riesgos como violaciones de datos y fallas de cumplimiento. Las mejores prácticas incluyen la supervisión continua de las herramientas de IA, la aplicación de controles de acceso y la adaptación de políticas según los riesgos emergentes.

Read More »