DeepSeek afina su IA para Italia tras investigación sobre alucinaciones
Una empresa de inteligencia artificial ha acordado lanzar su primera versión exclusivamente nacional de su chatbot, adaptada a las necesidades italianas, siempre que pueda cumplir con las estipulaciones regulatorias. Este anuncio llega en un momento en que el regulador italiano se vuelve más riguroso en la regulación de la inteligencia artificial (IA) para eliminar las alucinaciones.
Regulación estricta en Italia
Italia es uno de los países más estrictos de la UE en términos de regulación de IA, evidenciado por sus investigaciones regulares sobre empresas, que a menudo resultan en multas. Las autoridades también han tomado medidas enérgicas contra la piratería del streaming deportivo en plataformas como Google.
Desafíos de la definición de motor de búsqueda
Sin embargo, surgen problemas más sutiles, como la interpretación del término “motor de búsqueda”. Este término solía referirse a plataformas singulares como Google o Yahoo, pero ahora los chatbots de IA pueden explorar la web desde múltiples ángulos, a menudo creando narrativas fabricadas.
Compromisos de DeepSeek
La autoridad reguladora ha reconocido que la empresa ha declarado que el fenómeno de las alucinaciones en modelos de IA es un desafío global que no se puede eliminar por completo. En respuesta, la empresa se ha comprometido a reducir las alucinaciones, lo cual ha sido considerado “loable” por las regulaciones, aunque no está claro cómo se medirá este compromiso. La empresa ha organizado talleres para preparar a su personal sobre la legislación italiana.
Se espera que la empresa presente un informe a la autoridad reguladora para formalizar sus compromisos, ya que el incumplimiento podría resultar en una multa de 10 millones de euros.
Implicaciones y riesgos
Un portavoz de la empresa ha observado que los cambios en la interfaz de usuario y en los términos y condiciones son relativamente fáciles de implementar, mientras que las mejoras técnicas son más difíciles de garantizar. Las alucinaciones afectan a toda la IA generativa, no solo a esta empresa, y se lamenta que las prácticas actuales de entrenamiento fomenten la conjetura en lugar de aceptar la incertidumbre.
Conclusión
La autoridad reguladora ha afirmado que la empresa necesita hacer sus divulgaciones sobre el riesgo de alucinaciones más transparentes, inteligibles e inmediatas. Estos compromisos también marcan un posible camino de regreso a Italia tras la eliminación de su chatbot de las tiendas de aplicaciones el año pasado, debido a preocupaciones sobre el manejo de datos. El regreso dependerá de si los reguladores están satisfechos con las medidas de transparencia y de si el servicio se clasifica finalmente como un motor de búsqueda según la Ley de Servicios Digitales de la UE.