Consejos éticos para el uso de la inteligencia artificial en la educación

Seton Hall introduce un consejo asesor para dar forma a la política ética de IA y orientación en el aula

Recientemente, se anunció la creación del nuevo Consejo Asesor de Inteligencia Artificial (AIAC) para ayudar a estudiantes y personal a adaptarse al auge de la IA. Esta iniciativa se alinea con el plan estratégico de la universidad, que busca mejorar el aprendizaje y el bienestar de los estudiantes.

El AIAC se estableció para asegurar que, a medida que las tecnologías de IA evolucionen, la universidad aborde estos cambios de manera reflexiva y ética, en consonancia con su misión católica y su plan estratégico. El consejo es copresidido por dos miembros y funciona como un órgano asesor que mantiene los valores católicos de la institución al abordar la IA.

Objetivos y funciones del AIAC

El consejo tiene como objetivo proporcionar orientación a la comunidad universitaria, promoviendo la innovación basada en la enseñanza moral católica, el respeto por la dignidad humana y los valores institucionales. Se ofrecerá formación en ética de la IA, recursos y políticas para apoyar el aprendizaje de los estudiantes y prepararlos para ser líderes responsables.

El AIAC guía a los líderes de la universidad en áreas como la gobernanza de la IA, la práctica educativa, la supervisión ética y la capacitación en IA. Apoya la enseñanza, el aprendizaje, la investigación y la excelencia operativa, manteniendo la integridad académica, la equidad y la transparencia.

Implementación en el aula

Los estudiantes pueden notar el trabajo del AIAC en sus programas de estudio al inicio del semestre, con nuevas cláusulas sobre IA que varían según el profesor. La universidad no tiene una política oficial sobre IA, sólo recomendaciones del AIAC.

En su sitio web, el AIAC proporciona ejemplos de declaraciones que los profesores pueden incluir en sus programas, que van desde una prohibición total hasta permitir el uso de IA con divulgación. También se pueden ver tareas integradas con IA, como aquellas que requieren el uso de herramientas de IA y la presentación de consultas y respuestas, aunque esto contraviene la orientación del AIAC, que recomienda limitar el uso de IA.

Consideraciones finales

El AIAC ofrece nuevas perspectivas sobre las tareas en clase y propone ideas para reducir el uso de IA generativa, reconociendo que «el uso de IA puede no ser apropiado para todas las disciplinas». Este consejo se adapta a medida que la tecnología de IA evoluciona, y los estudiantes pueden mantenerse informados sobre los desarrollos más recientes a través de su sitio web.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...