Cómo investigar cuando un robot provoca un accidente

Cómo investigar cuando un robot provoca un accidente

marzo 26, 2022 0 Por RenzoC


Los robots están cada vez más presentes en nuestro día a día. Pueden ser increíblemente útiles (extremidades biónicas, cortacéspedes robóticos o robots que entregan comidas a personas en cuarentena) o simplemente entretenidos (perros robóticos, juguetes que bailan y drones acrobáticos). La imaginación puede ser el único límite de lo que los robots podrán hacer en el futuro.

Sin embargo, ¿qué sucede cuando los robots no hacen lo que queremos que hagan, o lo hacen de una manera que causa daño? Por ejemplo, ¿qué pasa si un brazo biónico se ve involucrado en un accidente de tráfico?

Los accidentes de robots se están convirtiendo en una preocupación por dos razones. En primer lugar, el aumento del número de robots conducirá naturalmente a un aumento del número de accidentes en los que se vean implicados. En segundo lugar, estamos mejorando en la construcción de robots más complejos. Cuando un robot es más complejo, es más difícil entender por qué algo salió mal.

La mayoría de los robots funcionan con diversas formas de inteligencia artificial (IA). Las IA son capaces de tomar decisiones similares a las humanas (aunque objetivamente pueden tomar decisiones buenas o malas). Estas decisiones pueden ser múltiples, desde la identificación de un objeto hasta la interpretación del discurso.

Las IA están capacitadas para tomar estas decisiones por el robot en función de la información de grandes conjuntos de datos. Luego, se prueba la precisión de las IA (qué tan bien hacen lo que queremos que hagan) antes de establecer la tarea.

Las IA se pueden diseñar de diferentes maneras. Tomemos el ejemplo de la aspiradora robot. Podría diseñarse para que cada vez que golpee una superficie, se redirija en una dirección aleatoria. Por el contrario, podría diseñarse para mapear su entorno para encontrar obstáculos, cubrir todas las superficies y regresar a su base de carga. Mientras que la primera aspiradora recibe datos de sus sensores, la segunda rastrea esos datos en un sistema de mapeo interno. En ambos casos, la IA recopila información y toma una decisión en consecuencia.

Cuantas más cosas complejas es capaz de hacer un robot, más tipos de información tiene que interpretar. También puede implicar la evaluación de múltiples fuentes de un tipo de datos, como, en el caso de datos de sonido, voz en vivo, radio y viento.

A medida que los robots se vuelven más complejos y capaces de actuar sobre una variedad de información, se vuelve aún más importante determinar sobre qué información ha actuado el robot, especialmente cuando se causan daños.

los accidentes ocurren

Como con cualquier producto, las cosas pueden salir mal con los robots. A veces es un problema interno, como que el robot no reconozca un comando de voz. A veces es externo: el sensor del robot se ha dañado. Y a veces pueden ser ambas cosas, como que el robot no está diseñado para trabajar en alfombras y «tropieza». Las investigaciones de accidentes de robots deben examinar todas las posibles causas.

Aunque puede ser vergonzoso cuando el robot se daña cuando algo sale mal, nos preocupa mucho más cuando el robot causa daño a una persona o no logra mitigar el daño a una persona. Por ejemplo, si un brazo biónico no logra agarrar una bebida caliente, se la deja caer al dueño; o si un robot de atención no registra una llamada de socorro cuando el frágil usuario se ha caído.

¿Por qué las investigaciones de accidentes de robots son diferentes de las investigaciones de accidentes humanos? En particular, los robots no tienen motivos. Queremos saber por qué un robot tomó la decisión que tomó en función del conjunto particular de entradas que tenía.

En el ejemplo del brazo biónico, ¿fue una falta de comunicación entre el usuario y la mano? ¿Ha confundido el robot varias señales? ¿Bloquear inesperadamente? En el ejemplo de la persona que cae, ¿no podría el robot «oír» la llamada de ayuda por encima de un ventilador ruidoso? ¿O tuvo problemas para interpretar el discurso del usuario?

la caja negra

Las investigaciones de accidentes de robots tienen una ventaja clave sobre las investigaciones de accidentes humanos: existe la posibilidad de un testigo integrado. Los aviones comerciales tienen un testigo similar: la caja negra, construida para resistir los accidentes aéreos y brindar información sobre los motivos del accidente. Esta información es sumamente valiosa no solo para comprender los incidentes, sino también para evitar que vuelvan a ocurrir.

Como parte de RoboTIPS, un proyecto que se centra en la innovación responsable de los robots sociales (robots que interactúan con las personas), hemos creado lo que llamamos la caja negra ética: un registro interno de las entradas del robot y las acciones correspondientes. La caja negra ética está diseñada para cada tipo de robot que habita y está diseñada para registrar toda la información sobre la que actúa el robot. Puede ser actividad vocal, visual o incluso cerebral.

Probamos la caja negra ética en una variedad de robots en condiciones de laboratorio y de choque simulado. El objetivo es que la caja negra ética se convierta en la norma en los robots de todas las marcas y aplicaciones.

Si bien los datos registrados por la caja negra de ética aún deben interpretarse en caso de accidente, tener estos datos en primer lugar es crucial para que podamos investigar.

El proceso de investigación brinda la oportunidad de garantizar que los mismos errores no se repitan dos veces. La caja negra ética es una forma no solo de construir mejores robots, sino también de innovar responsablemente en un campo emocionante y dinámico.

Este artículo de Keri Grieman, investigadora asociada del Departamento de Informática de la Universidad de Oxford, se vuelve a publicar de The Conversation bajo una licencia Creative Commons. Lea el artículo original.