Anthropic invierte $20 millones en la regulación de la IA

La batalla por la regulación de la IA se intensifica: compromiso de $20 millones contra OpenAI

Anthropic se compromete a donar $20 millones a candidatos políticos de EE. UU. que abogarán por una mayor regulación y transparencia en la inteligencia artificial (IA) antes de las elecciones intermedias de noviembre.

Según un comunicado de la empresa, la donación política se realizará a un grupo de defensa que promueve la idea de que los estados deben establecer sus propias normas sobre la IA. Este grupo se creó para rivalizar con la red de comités de acción política fundada por ejecutivos de una empresa de IA y un capitalista de riesgo.

Postura sobre la regulación de la IA

El grupo se opone a que los estados sean los principales laboratorios de regulación de IA y propaga la idea de la «preempción federal», permitiendo que una única ley nacional gobierne la inteligencia artificial.

Anthropic afirma que «las empresas que desarrollan IA tienen la responsabilidad de garantizar que la tecnología sirva al bien público, no solo a sus propios intereses». En las próximas elecciones intermedias de noviembre, la industria de la IA y los gigantes tecnológicos jugarán un papel importante en la configuración del panorama electoral.

Desafíos actuales y la necesidad de regulación

Anthropic, posicionándose como un desarrollador de IA «prioritario en seguridad», advierte que «la IA se está adoptando más rápido que cualquier tecnología en la historia, y la ventana para obtener las políticas correctas se está cerrando». Actualmente, no existen normas oficiales y no hay un marco federal a la vista.

Brad Carson, un excongresista demócrata y co-líder del grupo, menciona que, con la ayuda de la donación de Anthropic y otras contribuciones, el grupo reunirá $75 millones. Otro grupo llamado «Liderando el Futuro» también participa, ya que ha recaudado más de $125 millones, según informes.

Este último grupo está respaldado por la misma empresa de IA y un capitalista de riesgo, y también se opone a regulaciones estrictas en la IA que puedan afectar la innovación.

Conclusión

La creciente inversión de empresas en la política para influir en la regulación de la IA indica la importancia del tema en el futuro cercano. Las elecciones intermedias de noviembre pueden ser un punto crucial para definir cómo se manejará la regulación de la inteligencia artificial en EE. UU.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...