La Curaduría Responsable de la IA en las Organizaciones
Muchas organizaciones utilizan inteligencia artificial (IA) sin darse cuenta. La pregunta es cómo lo hacen y cómo pueden asegurarse de que lo están haciendo de manera responsable.
Muchas organizaciones utilizan inteligencia artificial (IA) sin darse cuenta. La pregunta es cómo lo hacen y cómo pueden asegurarse de que lo están haciendo de manera responsable.
Las empresas de EE. UU. aumentaron sus presupuestos en un 71% para asegurar sus datos, según un informe de Blancco publicado el miércoles. Más de la mitad de las empresas globales incrementaron sus presupuestos de cumplimiento y protección de la privacidad de datos en un 46% en promedio.
Una nueva encuesta de EY revela una desconexión significativa entre la confianza de los ejecutivos de nivel C en los sistemas de inteligencia artificial y los niveles de gobernanza existentes. A pesar de que el 72% de las empresas tienen AI integrada en sus iniciativas, solo un tercio cuenta con controles responsables para los modelos de IA actuales.
En el ecosistema digital impulsado por la inteligencia artificial, las herramientas de IA se utilizan cada vez más para examinar la creatividad humana. Sin embargo, esta dependencia excesiva en el juicio automatizado plantea la pregunta ética de si estamos priorizando el cumplimiento con los algoritmos sobre el contexto y la intención.
El mercado de la inteligencia artificial en India está experimentando un rápido crecimiento, impulsado por iniciativas gubernamentales y se espera que alcance los 17 mil millones de dólares para 2027. Sin embargo, las organizaciones enfrentan desafíos en términos de cumplimiento y ciberseguridad, que son preocupaciones prioritarias para las empresas indias.
La inteligencia artificial ha evolucionado rápidamente, pasando de ser herramientas de automatización simples a sistemas sofisticados capaces de tomar decisiones de forma independiente. Esta creciente autonomía plantea preguntas legales críticas, especialmente bajo la ley de agencia, que regula la relación entre un principal y un agente.
Únase al seminario web de Mayer Brown donde explicaremos el reciente anuncio de la Administración Trump sobre un enfoque cambiado hacia las restricciones de seguridad nacional en los chips y servidores de IA. La Administración ha señalado su apoyo a las exportaciones de productos avanzados de IA a socios de confianza en todo el mundo, al tiempo que ha anunciado nuevos requisitos de diligencia debida para las empresas que utilizan estos artículos fuera de los Estados Unidos.
La adopción de Gen AI en 2025 está transformando los marcos de privacidad, gobernanza y cumplimiento en diversas industrias globales. A medida que la regulación se vuelve más compleja, la necesidad de personas que naveguen y traduzcan estas obligaciones está en aumento.
Este verano, el Senado de EE. UU. considerará y votará sobre un plan masivo de impuestos y gastos que incluye un moratorio de 10 años sobre las leyes de IA a nivel estatal o local. Los defensores de este congelamiento argumentan que detendría un intrincado mosaico de leyes estatales, mientras que los críticos advierten que plantea más preguntas de las que responde.
Los republicanos de la Cámara de Representantes avanzaron esta semana con una propuesta para prohibir la regulación estatal de la inteligencia artificial (IA), lo que ha generado un debate entre la comunidad tecnológica y los legisladores. La propuesta, que forma parte de un amplio proyecto de ley de impuestos y gastos, busca imponer una moratoria de diez años sobre las leyes estatales que regulan modelos y sistemas de IA.