Un equipo de investigadores dirigido por Talal Rahwan, profesor asociado de Ciencias de la Computación en la Universidad de Nueva York en Abu Dhabi, realizó un experimento para estudiar cómo las personas interactúan con bots cuando creen que son humanos, y cómo se ven afectadas esas interacciones cuando los bots revelan su identidad. Descubrieron que los bots son más eficientes que los humanos en ciertas interacciones hombre-máquina, pero solo si se les permite ocultar su naturaleza no humana.

Un artículo titulado Behavioral Evidence for a Transparency-Efficiency Tradeoff in Human-Machine Cooperation dio detalles acerca de un experimento en el que los investigadores pidieron a los humanos que jugaran un juego de cooperación con un asociado humano o un robot asociado.

El juego se llama dilema del prisionero iterado, fue diseñado para capturar situaciones en las que cada una de las partes que interactúan puede actuar de manera egoísta en un intento de explotar a la otra, o cooperar en un intento de lograr un resultado mutuamente beneficioso.

Los investigadores dieron información falsa a los participantes humanos acerca del asociado con el que iban a conversar. A algunos humanos que interactuaron con un humano se les dijo que estaban conversando con un bot, y viceversa. La intención de los investigadores determinar si las personas tienen prejuicios contra los interlocutores sociales que creen que son bots, y evaluar el grado en que dicho prejuicio, si existe, afecta la eficiencia de los bots que son transparentes sobre su naturaleza no humana.

Los resultados mostraron que los robots que se hacían pasar por humanos eran más eficientes para convencer al compañero de que cooperara en el juego. Pero cuando revelaron que en realidad eran robots, las tasas de cooperación disminuyeron y la superioridad de los bots fue negada.

“Aunque existe un amplio consenso de que las máquinas deben ser transparentes acerca de cómo toman decisiones, no está claro si deberían ser transparentes sobre quiénes son”, dijo Rahwan.

El científico continuó diciendo “Considere, por ejemplo, Google Duplex, un asistente de voz automatizado capaz de generar un discurso similar al humano para hacer llamadas telefónicas y reservar citas en nombre de su usuario. El discurso de Google Duplex es tan realista que la persona que está al otro lado del teléfono puede ni siquiera nos damos cuenta de que están hablando con un bot. ¿Es ético desarrollar un sistema así? ¿Deberíamos prohibir que los bot pasen como humanos y obligarlos a ser transparentes sobre quiénes son? Si la respuesta es ‘Sí’, entonces los resultados resaltan la necesidad de establecer estándares para el costo de eficiencia que estamos dispuestos a pagar a cambio de dicha transparencia”.

Dejar respuesta

Please enter your comment!
Please enter your name here