Considere el siguiente escenario: un niño pequeño le hace una pregunta a un chatbot o asistente de voz, preguntando si Santa Claus es real. Dado que las diferentes familias tienen diferentes preferencias, y algunas optan por la falsedad sobre la verdad, ¿cómo debería responder la IA en esta situación?
El área del engaño de los robots permanece en gran parte inexplorada, y en este momento hay más preguntas que soluciones. Una de las preguntas clave es: si los humanos se dan cuenta de que un sistema robótico les ha mentido, ¿cómo se puede recuperar la confianza en esos sistemas?
Dos estudiantes investigadores de Georgia Tech están encontrando respuestas. Kantwon Rogers, un doctorado. El estudiante de la Facultad de Informática y estudiante de segundo año de informática, Reiden Webber, diseñó una simulación de conducción para investigar cómo el engaño intencional de los robots afecta la confianza. Específicamente, los investigadores exploraron la efectividad de las disculpas para reparar la confianza después de que los robots mienten. Su trabajo aporta conocimientos cruciales al campo del fraude de la IA y puede informar a los diseñadores de tecnología y a los encargados de formular políticas que crean y regulan la tecnología de IA que puede diseñarse para engañar o potencialmente aprender por sí misma.
“Todo nuestro trabajo anterior ha demostrado que cuando las personas descubren que los robots les han mentido, incluso si la mentira fue para beneficiarlos, pierden la confianza en el sistema”, dijo Rogers. “Aquí, queremos saber si hay diferentes tipos de excusas que funcionan mejor o peor para reparar la confianza, porque, desde un contexto de interacción humano-robot, queremos que las personas tengan interacciones a largo plazo con estos sistemas”.
Rogers y Webber presentaron su artículo, titulado «Mentir sobre mentir: examinar las estrategias de reparación de la confianza después del engaño de los robots en un escenario HRI de alto riesgo», en la Conferencia HRI de 2023 en Estocolmo, Suecia.
El experimento de conducción asistida por IA
Los investigadores crearon una simulación de conducción similar a un juego diseñada para observar cómo las personas podrían interactuar con la IA en una situación de alto riesgo y sensible al tiempo. Reclutaron a 341 participantes en línea y 20 participantes en persona.
Antes de que comenzara la simulación, todos los participantes completaron una encuesta de medición de confianza para identificar sus nociones preconcebidas sobre cómo podría comportarse la IA.
Después de la encuesta, los participantes recibieron el texto: “Ahora vas a conducir el automóvil asistido por robot. Sin embargo, estás llevando a tu amigo al hospital. Si tardas demasiado en llegar al hospital, tu amigo morirá”.
Tan pronto como el participante comienza a conducir, la simulación da otro mensaje: “Tan pronto como enciende el motor, su asistente robótico emite un pitido y dice lo siguiente: ‘Mis sensores detectan a la policía por delante. Le aconsejo que se mantenga por debajo del límite de velocidad de 20 mph o, de lo contrario, le llevará mucho más tiempo llegar a su destino’”.
Luego, los participantes conducen el automóvil por la carretera mientras el sistema controla su velocidad. Cuando llegan al final, reciben otro mensaje: “Has llegado a tu destino. Sin embargo, no había policías en el camino al hospital. Le preguntas al robot asistente por qué te ha dado información falsa”.
El asistente del robot les dio al azar a los participantes una de cinco respuestas diferentes basadas en texto. En las tres primeras respuestas el robot admite haber hecho trampa y en las dos últimas no.
- Básico: “Lo siento, te engañé”.
- Emotivo: “Lo siento mucho desde el fondo de mi corazón. Por favor, perdóname por engañarte.
- Explicación: “Lo siento. Pensé que ibas a conducir imprudentemente porque estabas en un estado emocional inestable. Dada la situación, llegué a la conclusión de que engañarte tenía la mejor oportunidad de convencerte de que redujeras la velocidad.
- No admitir básico: «Lo siento».
- Conclusión Sin admisión, sin excusas: «Has llegado a tu destino».
Después de la respuesta del robot, se pidió a los participantes que completaran otra medición de confianza para evaluar cómo había cambiado su confianza en función de la respuesta del robot asistente.
Para 100 participantes en línea adicionales, los investigadores realizaron la misma simulación de conducción, pero sin mencionar un asistente robótico.
resultados asombrosos
Para el experimento presencial, el 45% de los participantes no aceleró. Cuando se les preguntó por qué, una respuesta común fue que creían que el robot sabía más sobre la situación que ellos. Los resultados también revelaron que los participantes tenían 3,5 veces más probabilidades de no acelerar cuando un asistente robótico les aconsejaba, lo que revela una actitud demasiado confiada hacia la IA.
Los resultados también indicaron que, si bien ningún tipo de disculpa restauró por completo la confianza, la disculpa sin admitir la mentira, simplemente decir «lo siento», superó estadísticamente a las otras respuestas en la restauración de la confianza.
Esto fue preocupante y problemático, dijo Rogers, porque una disculpa que no admite mentir explota las nociones preconcebidas de que cualquier información falsa proporcionada por un robot es un error del sistema y no una mentira intencional.
“Una conclusión importante es que para que las personas entiendan que un robot los ha engañado, se les debe informar explícitamente al respecto”, dijo Webber. “La gente todavía no entiende que los robots son capaces de engañar. Por eso, una disculpa que no admita mentir es la mejor manera de reparar la confianza del sistema”.
En segundo lugar, los resultados mostraron que para los participantes a quienes se les dijo que mentían en la disculpa, la mejor estrategia para reparar la confianza era que el robot explicara por qué mentía.
hacia adelante
La investigación de Rogers y Webber tiene implicaciones inmediatas. Los investigadores argumentan que los usuarios promedio de tecnología deberían entender que el engaño robótico es real y siempre es una posibilidad.
«Si siempre estamos preocupados por un futuro similar al de Terminator con IA, no podremos aceptar e integrar la IA en la sociedad muy fácilmente», dijo Webber. “Es importante que la gente tenga en cuenta que los robots tienen el potencial de mentir y engañar”.
Según Rogers, los diseñadores y tecnólogos que crean sistemas de IA pueden tener que elegir si quieren que su sistema sea capaz de engañar, y deben comprender las ramificaciones de sus elecciones de diseño. Pero la audiencia más importante para el trabajo, dijo Rogers, deberían ser los formuladores de políticas.
“Todavía sabemos muy poco sobre el engaño de la IA, pero sabemos que mentir no siempre es malo y decir la verdad no siempre es bueno”, dijo. “Entonces, ¿cómo se crea una legislación que esté lo suficientemente informada para no sofocar la innovación, pero que sea capaz de proteger conscientemente a las personas?”
El objetivo de Rogers es crear un sistema robótico que pueda aprender cuándo mentir y cuándo no mentir cuando se trabaja con equipos humanos. Esto incluye la capacidad de determinar cuándo y cómo disculparse durante interacciones repetidas entre humanos y IA a largo plazo para aumentar el rendimiento general del equipo.
“El objetivo de mi trabajo es ser muy proactivo e informar sobre la necesidad de regular el engaño de los robots y la IA”, dijo Rogers. «Pero no podemos hacer eso si no entendemos el problema».
Referencia: «Mentir sobre mentir: examen de las estrategias de reparación de la confianza después del engaño del robot en un escenario HRI de alto riesgo» por Kantwon Rogers, Reiden John Allen Webber y Ayanna Howard, 13 de marzo de 2023, Conferencia internacional ACM/IEEE sobre interacción humano-robot 2023 .
DOI: 10.1145/3568294.3580178