Ingenieros de IA Automotriz en la Encrucijada de la Tecnología y la Ética
Conducir es la operación controlada y el movimiento de un vehículo, una acción que requiere tomar decisiones continuas, muchas de ellas de manera instantánea.
A medida que entramos en la era de los vehículos autónomos, la pregunta no es si un cerebro de IA puede tomar muchas decisiones críticas instantáneamente, sino más bien, ¿quién definirá el sentido de lo correcto y lo incorrecto de la IA?
Desafíos de la Toma de Decisiones Éticas
Programar vehículos autónomos para la toma de decisiones éticas es un desafío moderno del mundo real. Las “situaciones dilemáticas” inevitables no pueden ser excluidas y los programadores automotrices deben prepararse para ellas. Sin embargo, no existe un código moral universal para la ética de las máquinas y los coches autónomos.
Se están enfrentando a problemas que no solo son internos para la ingeniería, sino que también son reconocidos por la sociedad como preguntas críticas que desean respuestas. Aunque existen teorías éticas como el libertarismo, el utilitarismo y el kantianismo, la implementación algorítmica de cualquiera de ellas parecería arbitraria. Las diferentes preferencias morales encontradas en los grupos culturales occidentales, orientales y otros también dificultarían el diseño de un sistema de control vehicular moralmente sólido y globalmente válido.
La Educación en Ingeniería y la Ética
Abordar estos problemas es ahora crítico y requiere cambios en la educación en ingeniería, especialmente en el diseño y la enseñanza apropiados de la IA. Se prevé que la transición a vehículos autónomos tomará más de una década. Este tiempo debería utilizarse para planificar la esfera de IA en rápida expansión.
Los accidentes automovilísticos en los EE.UU. causan aproximadamente 40,000 muertes al año, más que homicidios, accidentes aéreos y desastres naturales combinados. El costo social de las lesiones y muertes en accidentes automovilísticos es demasiado alto.
El proyecto proporciona una oportunidad única para integrar temas como la filosofía moral en las clases de ingeniería típicas, una necesidad creciente. Se comenzó a construir un laboratorio utilizando coches modelo equipados con cámaras y sensores en una pista de carreras. Se instalaron letreros con códigos de barras que instruían a los coches sobre lo que estaban encontrando, de modo que al acercarse a una persona o a múltiples personas, tenían que leer el código de barras.
Máquinas Morales e Inmorales
Se deberá distinguir entre máquinas morales, inmorales y legítimas. Las máquinas “inmorales” realizarían acciones consideradas inmorales. Las “máquinas morales” seguirían ciertas reglas éticas o convenciones, y las “máquinas legítimas” serían creadas mediante la certificación social de nueva tecnología para ser permitidas en las vías públicas.
Es necesario que las personas participen en discusiones sobre estas preguntas éticas. La educación en ingeniería aún no está preparada para esto. A diferencia de las leyes físicas universales, las reglas éticas varían.
Colaboración entre Disciplinas
Los programas de ingeniería son muy buenos en la enseñanza de habilidades técnicas, pero carecen de las habilidades evaluativas críticas que ofrecen las humanidades y las ciencias sociales. Nos enfrentamos a problemas que no se pueden resolver solo con habilidades técnicas. Este nuevo modelo requiere colaboración entre estudiantes de ingeniería y académicos de humanidades y ciencias sociales.
El programa y el proyecto específico apuntan a una solución de ingeniería más humanidades aplicadas y ciencias sociales, lo que representa una gran oportunidad para ambas áreas.
El enfoque en los límites éticos y humanísticos de la tecnología atrae a estudiantes que desean contribuir activamente a cómo se construyen los sistemas inteligentes, no solo observándolos.
Conclusión
Reflexionar sobre la IA no requiere necesariamente las habilidades disciplinares singulares que eran necesarias durante mucho tiempo. Los coches hoy en día son computadoras sobre ruedas, y estas computadoras tienen grandes capacidades de cálculo. La IA en un coche puede reconocer que tiene opciones en una situación dilemática, lo que implica que esas opciones son elecciones políticas o morales. Esas elecciones presentan a la IA un camino que no está claramente definido, lo que requiere deliberación ética para determinar la mejor manera de proceder.
Dos mil años de filosofía no han producido una teoría moral universal. Las teorías varían y no todos los coches autónomos tomarían la misma decisión dependiendo de su programación. Nuestro objetivo es acercarnos lo más posible a traducir teorías filosóficas en algoritmos. La ingeniería se ha vuelto demasiado importante para dejarla solo en manos de los ingenieros.