Ética y Tecnología en Vehículos Autónomos

Ingenieros de IA Automotriz en la Encrucijada de la Tecnología y la Ética

Conducir es la operación controlada y el movimiento de un vehículo, una acción que requiere tomar decisiones continuas, muchas de ellas de manera instantánea.

A medida que entramos en la era de los vehículos autónomos, la pregunta no es si un cerebro de IA puede tomar muchas decisiones críticas instantáneamente, sino más bien, ¿quién definirá el sentido de lo correcto y lo incorrecto de la IA?

Desafíos de la Toma de Decisiones Éticas

Programar vehículos autónomos para la toma de decisiones éticas es un desafío moderno del mundo real. Las “situaciones dilemáticas” inevitables no pueden ser excluidas y los programadores automotrices deben prepararse para ellas. Sin embargo, no existe un código moral universal para la ética de las máquinas y los coches autónomos.

Se están enfrentando a problemas que no solo son internos para la ingeniería, sino que también son reconocidos por la sociedad como preguntas críticas que desean respuestas. Aunque existen teorías éticas como el libertarismo, el utilitarismo y el kantianismo, la implementación algorítmica de cualquiera de ellas parecería arbitraria. Las diferentes preferencias morales encontradas en los grupos culturales occidentales, orientales y otros también dificultarían el diseño de un sistema de control vehicular moralmente sólido y globalmente válido.

La Educación en Ingeniería y la Ética

Abordar estos problemas es ahora crítico y requiere cambios en la educación en ingeniería, especialmente en el diseño y la enseñanza apropiados de la IA. Se prevé que la transición a vehículos autónomos tomará más de una década. Este tiempo debería utilizarse para planificar la esfera de IA en rápida expansión.

Los accidentes automovilísticos en los EE.UU. causan aproximadamente 40,000 muertes al año, más que homicidios, accidentes aéreos y desastres naturales combinados. El costo social de las lesiones y muertes en accidentes automovilísticos es demasiado alto.

El proyecto proporciona una oportunidad única para integrar temas como la filosofía moral en las clases de ingeniería típicas, una necesidad creciente. Se comenzó a construir un laboratorio utilizando coches modelo equipados con cámaras y sensores en una pista de carreras. Se instalaron letreros con códigos de barras que instruían a los coches sobre lo que estaban encontrando, de modo que al acercarse a una persona o a múltiples personas, tenían que leer el código de barras.

Máquinas Morales e Inmorales

Se deberá distinguir entre máquinas morales, inmorales y legítimas. Las máquinas “inmorales” realizarían acciones consideradas inmorales. Las “máquinas morales” seguirían ciertas reglas éticas o convenciones, y las “máquinas legítimas” serían creadas mediante la certificación social de nueva tecnología para ser permitidas en las vías públicas.

Es necesario que las personas participen en discusiones sobre estas preguntas éticas. La educación en ingeniería aún no está preparada para esto. A diferencia de las leyes físicas universales, las reglas éticas varían.

Colaboración entre Disciplinas

Los programas de ingeniería son muy buenos en la enseñanza de habilidades técnicas, pero carecen de las habilidades evaluativas críticas que ofrecen las humanidades y las ciencias sociales. Nos enfrentamos a problemas que no se pueden resolver solo con habilidades técnicas. Este nuevo modelo requiere colaboración entre estudiantes de ingeniería y académicos de humanidades y ciencias sociales.

El programa y el proyecto específico apuntan a una solución de ingeniería más humanidades aplicadas y ciencias sociales, lo que representa una gran oportunidad para ambas áreas.

El enfoque en los límites éticos y humanísticos de la tecnología atrae a estudiantes que desean contribuir activamente a cómo se construyen los sistemas inteligentes, no solo observándolos.

Conclusión

Reflexionar sobre la IA no requiere necesariamente las habilidades disciplinares singulares que eran necesarias durante mucho tiempo. Los coches hoy en día son computadoras sobre ruedas, y estas computadoras tienen grandes capacidades de cálculo. La IA en un coche puede reconocer que tiene opciones en una situación dilemática, lo que implica que esas opciones son elecciones políticas o morales. Esas elecciones presentan a la IA un camino que no está claramente definido, lo que requiere deliberación ética para determinar la mejor manera de proceder.

Dos mil años de filosofía no han producido una teoría moral universal. Las teorías varían y no todos los coches autónomos tomarían la misma decisión dependiendo de su programación. Nuestro objetivo es acercarnos lo más posible a traducir teorías filosóficas en algoritmos. La ingeniería se ha vuelto demasiado importante para dejarla solo en manos de los ingenieros.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...