Anthropic se compromete a $20 millones para contrarrestar la máquina política de OpenAI
La batalla entre empresas de inteligencia artificial ha saltado del mundo tecnológico a la política estadounidense. Anthropic anunció que invertirá 20 millones de dólares en las elecciones de medio término de este año.
El dinero se destinará a un nuevo grupo llamado Public First Action, que busca que los estados mantengan su poder para redactar regulaciones sobre inteligencia artificial (IA). Esto coloca a Anthropic en curso de colisión tanto con la operación política de OpenAI como con la administración del expresidente Trump, que desea que Washington controle la política de IA a nivel nacional.
Anthropic declaró que “las empresas que desarrollan IA tienen la responsabilidad de asegurar que la tecnología sirva al bien público, no solo a sus propios intereses”. El grupo está apoyando candidatos que se oponen a los esfuerzos por despojar a los estados de su autoridad sobre la tecnología de IA. Un beneficiario temprano es un candidato republicano que se ha opuesto a proyectos de ley federales que habrían bloqueado a las legislaturas estatales de aprobar sus propias leyes sobre IA.
Desafíos y Oposición
Public First Action enfrenta grandes desafíos contra un grupo opositor respaldado por el presidente de OpenAI y un inversionista tecnológico. Este último ha recaudado 125 millones de dólares desde su lanzamiento. La firma de capital riesgo que apoya a OpenAI tiene una participación en la empresa, lo que hace que la lucha por financiación sea aún más personal entre los desarrolladores de IA rivales.
Un decreto firmado por el expresidente en diciembre amenaza directamente las leyes estatales que Anthropic desea proteger. Este decreto instruye a las agencias federales a construir un marco nacional de IA con reglas mínimas y usarlo para anular regulaciones estatales más estrictas. Además, se ha creado un grupo de trabajo del Departamento de Justicia para desafiar legalmente las leyes estatales de IA.
Varios estados tienen regulaciones que entrarán en vigor en 2026. Aunque una ley ha sido retrasada, aún requerirá que las empresas que desarrollan sistemas de IA de “alto riesgo” eviten la discriminación en sus algoritmos.
División Ideológica y Consecuencias
La publicación de Anthropic realizó una crítica velada hacia OpenAI, advirtiendo que “vastos recursos han fluido hacia organizaciones políticas que se oponen” a los esfuerzos por hacer la IA más segura. Si los candidatos apoyados por Public First Action logran suficientes escaños, podrían bloquear proyectos de ley en el Congreso que busquen la preeminencia federal.
La rivalidad entre Anthropic y OpenAI va más allá de los niveles de financiación. Anthropic se fundó tras la salida de algunos de sus miembros de OpenAI debido a preocupaciones de seguridad, construyendo su identidad en torno a la reducción de riesgos en la tecnología de IA. OpenAI, por otro lado, prefiere reglas más ligeras que permitan una innovación más ágil.
Los votantes en los estados que han aprobado leyes de IA tendrán la oportunidad de elegir qué visión prefieren al emitir sus votos. Su decisión podría determinar si el desarrollo de IA se realiza bajo un conjunto de reglas estatales fragmentadas o un sistema federal uniforme con menos restricciones.