A medida que la inteligencia artificial se vuelve cada vez más realista, nuestra confianza en aquellos con quienes nos comunicamos puede verse comprometida.
En los últimos años, el campo del procesamiento del lenguaje natural ha tenido un desarrollo sustancial, lo que ha resultado en poderosos servicios interactivos basados en la voz.
La calidad de las voces y la interactividad algunas veces son tan buenas que lo artificial no se puede diferenciar de las personas reales.
Investigadores de la University of Gothenburg examinaron cómo los sistemas avanzados de inteligencia artificial afectan nuestra confianza en las personas con las que interactuamos.
Interacción humana-inteligencia artificial
La literatura científica de la interacción humana-inteligencia artificial, incluido los sistemas conversacionales, se están incrementando rápidamente, con ediciones especiales dedicadas a temas como las interfaces e interacciones de usuario conversacionales, comunicaciones transparentes entre humanos y agentes y la cuestión de cómo diseñar y gestionar las interacciones humano-inteligencia artificial.
En un escenario, un posible estafador, creyendo que está llamando a un anciano, está conectado a un sistema informático que se comunica a través de bucles pregrabados. El estafador dedica un tiempo considerable a intentar el fraude, escuchando pacientemente las historias un tanto confusas y repetitivas del “hombre”.
Oskar Lindwall, profesor de comunicación en la University of Gothenburg, observa que, a menudo, las personas tardan mucho en darse cuenta de que están interactuando con un sistema técnico.
Lindwall escribió, en colaboración con el profesor de informática Jonas Ivarsson, un artículo titulado “Suspicious Minds: The Problem of Trust and Conversational Agents”, que explora cómo los individuos interpretan y se relacionan con situaciones en las que una de las partes podría ser un agente de inteligencia artificial.
El artículo destaca las consecuencias negativas de albergar sospechas hacia los demás, como el daño que puede causar en las relaciones.
Ivarsson brinda un ejemplo de una relación romántica en la que surgen problemas de confianza, lo que genera celos y una mayor tendencia a buscar evidencia de engaño.
Los investigadores argumentan que no poder confiar plenamente en las intenciones y la identidad de un compañero de conversación puede resultar en una sospecha excesiva incluso cuando no hay razón para ello.
Su estudio descubrió que durante las interacciones entre dos humanos, algunos comportamientos se interpretaban como señales de que uno era en realidad un robot.
Los investigadores sugieren que una perspectiva de diseño omnipresente está impulsando el desarrollo de la inteligencia artificial con características cada vez más parecidas a las humanas.
Si bien esto puede ser atractivo en algunos contextos, también puede ser problemático, especialmente cuando no está claro con quién se está comunicando.
Ivarsson cuestiona si la inteligencia artificial debería tener voces tan humanas, debido a que crean una sensación de intimidad y llevan a las personas a formarse impresiones basadas solo en la voz.
En el caso del posible estafador que llama al “anciano”, la estafa solo se expone después de mucho tiempo, lo que Lindwall e Ivarsson atribuyen a la credibilidad de la voz humana y la suposición de que el comportamiento confuso se debe a la edad.
Una vez que una inteligencia artificial tiene voz, inferimos atributos como género, edad y antecedentes socioeconómicos, lo que dificulta identificar que estamos interactuando con una computadora.
Los investigadores proponen crear inteligencia artificial con voces elocuentes y que funcionen bien, pero que sigan siendo claramente sintéticas, aumentando la transparencia.
La comunicación con los demás implica no solo el engaño, sino también la construcción de relaciones y la construcción conjunta de significados.
La incertidumbre de si uno está hablando con un humano o una computadora afecta este aspecto de la comunicación. Si bien puede no importar en algunas situaciones, como la terapia cognitivo-conductual, otras formas de terapia que requieren más conexión humana pueden verse afectadas negativamente.
Conclusión
“Hemos ilustrado cómo un evento de interacción particular, como una muestra de respuesta mínima con una entonación ascendente, es analizado por las partes que escuchan por casualidad como algo notable, ya sea como un signo loable de progreso tecnológico o como una marca ética de bajo nivel en la explotación del desconocimiento de los destinatarios”, concluye el estudio.
Sobre el estudio
Jonas Ivarsson y Oskar Lindwall analizaron los datos disponibles en youtube. Estudiaron tres tipos de conversaciones y reacciones y comentarios de la audiencia:
- Primer tipo: un robot llama a una persona para programar una cita, sin que la persona del otro lado lo sepa.
- Segundo tipo: una persona llama a otra persona con el mismo fin.
- Tercer tipo: los vendedores telefónicos son transferidos a un sistema informático con voz pregrabada.
Referencia (acceso libre)
Ivarsson, J., Lindwall, O. Suspicious Minds: the Problem of Trust and Conversational Agents. Comput Supported Coop Work (2023). https://doi.org/10.1007/s10606-023-09465-8