Seminario sobre los límites éticos del modelo de IA Claude de Anthropic
La Escuela de Humanidades y Ciencias Sociales organizó un seminario que examinó cuestiones filosóficas y éticas en torno al modelo de inteligencia artificial Claude de Anthropic. El seminario, titulado Una crítica filosófica de la «constitución» de Anthropic para su modelo de IA «Claude», reunió a miembros de la facultad, académicos, investigadores y estudiantes para discutir temas relacionados con la inteligencia artificial, la ética y la filosofía.
Presentación clave
La presentación fue realizada por un profesor que analizó el enfoque «constitucional» de Anthropic para la gobernanza de la IA, centrándose en las afirmaciones de que Claude sigue principios éticos relacionados con la seguridad, la privacidad y la precisión. Se cuestionó si la gobernanza basada en una constitución puede respaldar de manera significativa las afirmaciones sobre el razonamiento ético, el juicio moral o la conciencia en los sistemas artificiales, dado que carecen de experiencia vivida y conciencia contextual.
Discusión y preguntas
Durante la sesión de preguntas y respuestas, los participantes plantearon si los sistemas de IA guiados constitucionalmente podrían poseer alguna vez conciencia, ya que dependen del reconocimiento de patrones en lugar de la comprensión. El profesor expresó escepticismo, afirmando que la simulación por sí sola no constituye conciencia.
Se abordaron otras preguntas sobre los límites del aprendizaje automático frente a la falibilidad moral humana y si la sociedad impone una responsabilidad ética excesiva a los sistemas de IA. En este contexto, se distinguió entre la psicosis inducida por IA y la asociada, sugiriendo que estos casos deberían examinarse desde la perspectiva de la psicopatología.
Acceso a conocimiento y derechos de autor
También se discutió el acceso al conocimiento, incluyendo si los sistemas de IA entrenados con grandes volúmenes de material público podrían beneficiar a estudiantes sin acceso a ciertos recursos académicos. Se mencionó que la base de conocimientos de Claude incluye millones de libros y otros materiales disponibles legalmente, aunque existen tensiones éticas en los debates sobre el acceso y la equidad.
Reflexiones finales
Finalmente, se comentó sobre la dificultad de evaluar la ausencia de conciencia en los modelos de IA, argumentando que el comportamiento observable muestra que el tipo de «conocimiento» que poseen sistemas como Claude es insuficiente para replicar la complejidad del pensamiento humano. Se concluyó que los marcos éticos incrustados en los sistemas de IA pueden reflejar sesgos culturales e ideológicos, y el problema fundamental radica no solo en cómo se diseñan estas tecnologías, sino en cómo las sociedades responden y se involucran críticamente con ellas.