Categoría: Responsabilidad de IA

La regulación del AI: ¿Necesaria o prematura?

El gobernador de Virginia, Glenn Youngkin, vetó la Ley de Desarrollo y Despliegue de Inteligencia Artificial de Alto Riesgo, que habría establecido un marco legal amplio para la IA. Este veto se suma a una serie de contratiempos en el movimiento para regular el desarrollo de la inteligencia artificial en varios estados.

Read More »

Métricas Esenciales para una IA Responsable

El avance rápido de los Modelos de Lenguaje Grande (LLMs), como GPT y LLaMA, ha transformado profundamente el paisaje de la inteligencia artificial. Sin embargo, con este poder también viene una gran responsabilidad, lo que requiere estándares de evaluación y métricas precisas para garantizar que estos modelos sean confiables y éticos.

Read More »

Falta de Consecuencias en la Política Nacional de IA

La política nacional de inteligencia artificial de Sudáfrica es un paso en la dirección correcta, pero los expertos advierten sobre la falta de consecuencias severas para las organizaciones que transgreden las prácticas éticas. Esto podría tener graves ramificaciones para las empresas locales que no adopten instrumentos legalmente vinculantes para proteger a los usuarios de esta tecnología emergente.

Read More »

Inteligencia Artificial Responsable: Un Imperativo Ético

A medida que las tecnologías de inteligencia artificial influyen profundamente en todos los aspectos de nuestras vidas, las responsabilidades éticas en su desarrollo y uso se vuelven cada vez más importantes. La «IA Responsable» busca establecer un equilibrio saludable entre el progreso tecnológico y los valores éticos.

Read More »

El arte generado por IA no tiene derechos de autor

Un tribunal ha dictaminado que el arte generado por inteligencia artificial no califica para la protección de derechos de autor, lo que significa que cualquiera puede usarlo sin dar crédito o compensación al creador. Esto se basa en el argumento de que las obras generadas por máquinas no pueden ser atribuidas a un autor humano.

Read More »

La Ley «No Robo Jefes» de California: Limitando el Uso de IA en Decisiones Laborales

El senador estatal de California, Jerry McNerney, presentó este mes la “Ley No Robo Bosses”, que prohibiría a los empleadores de California utilizar herramientas de inteligencia artificial o sistemas de toma de decisiones automatizados sin supervisión humana para decisiones de contratación, promoción, disciplina o despido. La legislación tiene como objetivo equilibrar la innovación tecnológica con la protección de los trabajadores.

Read More »

La paradoja del reconocimiento emocional en la regulación de la IA

La tecnología de reconocimiento de emociones (ERT) ha sido objeto de controversia desde su creación, a pesar de su creciente uso en diversas industrias. La regulación actual en la UE clasifica a las ERT como tecnologías de «alto riesgo» y prohíbe su uso en el lugar de trabajo y las instituciones educativas debido a preocupaciones sobre su fiabilidad y sesgos.

Read More »

La ambigua doctrina de IA de Trump

El artículo aborda la incertidumbre en la doctrina de inteligencia artificial (IA) del presidente Trump, destacando la necesidad de equilibrar la innovación rápida con la seguridad. A medida que la IA avanza, se vuelve crucial establecer regulaciones que fomenten el desarrollo responsable sin comprometer la confianza pública.

Read More »

Nuevos Riesgos de IA: Alucinaciones y Uso Criminal en Wall Street

Goldman Sachs, Citigroup y JPMorgan advierten sobre los nuevos riesgos asociados con el uso creciente de la inteligencia artificial, incluyendo alucinaciones de software y su uso por parte de criminales cibernéticos. Los bancos están cada vez más preocupados por la calidad de los modelos de IA y los posibles efectos negativos en la moral de los empleados.

Read More »

Inteligencia Artificial Responsable en la Ingeniería de Software

La inteligencia artificial ha impulsado a la humanidad hacia un potencial ilimitado, revolucionando la forma en que las personas viven y trabajan. Sin embargo, su uso indebido ha llevado a los ingenieros a priorizar prácticas responsables de IA para abordar problemas de seguridad y garantizar la transparencia y la equidad en los modelos de IA.

Read More »