Like A Girl

Pushing the conversation on gender equality.

Code Like A Girl

Lo que debes saber sobre chatbots y UI conversacional

Imagen: Dos mujeres trabajado en laptops. Fuente: Women of Color in Tech #WoCinTech

Artículo original publicado en inglés por Abby Bajuniemi, PhD para Code Like A Girl

Sigo leyendo comentarios sobre “teorías de la conversación” de personas de tecnología que parecen no tener formación lingüística, y seré honesta, es algo que realmente me irrita. ¿Por qué? Porque existe mucha literatura en lingüística y psicología sobre cómo funciona la conversación y cómo las personas crean significado a partir de las palabras. No es necesario inventar una teoría que no esté basada la ciencia o en alguna evidencia, que no sea la intuición del autor. Recuerda, el plural de anécdota no es datos.

Dicho esto, me gustaría presentar algunas de las teorías sobre cómo hacemos sentido en la conversación, y luego hablaré un poco acerca de por qué no es apropiado aplicarlas a la interacción humano-computadora.

Fuente principal para este post:

Levinson, S. (1983). Pragmatics. Cambridge: Cambridge University Press. Print.

Implicaturas conversacionales

H.P. Grice desarrolló una teoría sobre cómo las personas usan el lenguaje, que describe cómo entablamos una conversación y cómo sabemos qué mensajes se transmiten, incluso cuando no queremos decir literalmente lo que decimos. Su principio cooperativo (citado por Levinson, p.101) establece que las personas siguen pautas generales en la conversación de acuerdo con el propósito, la dirección y el contexto de la conversación.

Dentro de este principio, desarrolló 4 máximas, que describiré de acuerdo con la presentación de Levinson (pp. 101–102).

  1. Calidad: no digas cosas que crees que son falsas o para las que careces de pruebas adecuadas.
  2. Cantidad: Ser tan informativo como sea necesario para el propósito/ contexto de la conversación y no más.
  3. Relevancia: ser relevante para el propósito/contexto de la conversación.
  4. Manera: evitar la oscuridad y la ambigüedad; ser breve y ordenado.

Puedes ver que hay una superposición aquí, y no siempre seguimos todo esto en todo momento. Sin embargo, la premisa básica es que cuando entablemos una conversación nos adheriremos tanto como sea posible a estas máximas a fin de mantener el propósito y la dirección de una conversación con el interés de avanzar y mantener el orden.

Considera la siguiente interacción:

A: “¿Qué hora es?”
B: “El autobús escolar acaba de dejar a los niños”.

Las implicaturas conversacionales nos permiten llenar los vacíos entre estas dos enunciados aparentemente no relacionados para descubrir qué está pasando. Debido a que A ostensiblemente sabe a qué hora salen los chicos de la escuela, probablemente sabrá aproximadamente qué hora es cuando B responde de esta manera. Para un extraño, este par de enunciados pueden parecer no relacionados, pero debido a este principio de cooperación, A es capaz de descifrar lo que B quiere decir con su respuesta. A sabe que B no diría algo que no esté relacionado con su pregunta. La comunicación es exitosa.

Esta es una explicación muy simplificada de las implicaturas conversacionales: se puede decir mucho más y se ha dicho mucho más sobre ellas. La siguiente teoría que me gustaría discutir es sobre actos de habla.

Actos de habla

Levinson explica actos de habla, descrito y detallado en J.L. Austin’s How to Do Things with Words (1962). La premisa básica de la teoría de actos de habla es que no solo decimos cosas, sino que también hacemos cosas con las palabras. De acuerdo con Austin (citado por Levinson), hay tres sub-actos contenidos dentro de un enunciado: locutivos, ilocutivos y perlocutivos.

Acto locutivo: la oración/frase/enunciado actual. Tiene un significado y un referente específico.

Acto ilocutivo: el significado que el hablante pone detrás del enunciado. Lo que se espera lograr al hacer el enunciado.

Acto perlocutivo: El efecto creado por el enunciado en el recipiente u oyente del enunciado.

Por ejemplo:

Hace frío.

Acto locutivo: la frase declarativa “hace frío.”

Acto ilocutivo: el hablante está frío y desea que su compañero cierre la ventana/baje el aire acondicionado/le lleve una manta.

Acto perlocutivo: el oyente entiende que al hablante le gustaría sentirse más comodo y el oyente se siente obligado a cerrar la ventana/bajar el aire acondicionado/llevarle al hablante una manta, y lo hace.

Como puedes ver, ese pequeño enunciado está cargado de muchas cosas en las que ni siquiera pensamos al momento de la interacción. Y nuevamente, esto es extremadamente simplificado. ¡Levinson dedica más de 60 páginas de su libro solamente a este tema!

¿Cómo se junta esto?

Las implicaturas conversacionales y los actos de habla se unen para ayudarnos a descubrir cómo comunicarnos entre nosotros y dar sentido a las expresiones aparentemente inadecuadas. Ya he hablado sobre cómo la comunicación y la construcción de significados están culturalmente situados, y aquí es donde entra eso en juego.

En el ejemplo anterior bajo implicaturas conversacionales, imaginemos que

  • A es de otro país donde los niños salen de la escuela a las 5 p.m.
  • A y B están en un país donde la escuela deja salir a las 3pm.
  • A no tiene hijos, por lo que no sabe a qué hora se sale la escuela en este país.

Cuando B responde que los niños acaban de salir, A podría inferir que son las 5 p.m., cuando en realidad son las 3. De repente tenemos una comunicación fallida porque A no sabe qué hora es pues no está al tanto del conocimiento cultural que B asume que A tiene.

Si los participantes en una interacción no comparten el mismo conocimiento cultural, estas teorías pueden romperse y puede generar frustración.

¿Qué tiene esto que ver con la interfaz de usuario conversacional?

Montones. ¿Quién lo está diseñando? ¿Dónde/de quién es la máquina aprendiendo patrones de conversación? ¿Qué tan importante es el objetivo del usuario? ¿Compartirá el usuario conocimiento cultural con la máquina? ¿Podrá la máquina comprender lo que un usuario humano está “haciendo” con el lenguaje? Tenemos muchas maneras de mitigar las interrupciones comunicativas cuando los dos participantes son personas. ¿Cómo sabrá una máquina cómo hacer esto?

Las teorías que presenté anteriormente se basan en las interacciones humano-humano. Los humanos y las máquinas/IA (inteligencia artificial) no son lo mismo y no actúan de la misma manera. La IA depende totalmente de los datos que la introduces y de las personas que los crean. Si hay un pequeño número de personas homogéneas que hacen/eligen/alimentan los datos, hay un gran potencial de falta de comunicación porque los datos necesariamente estarán informados por la cultura de la persona que los trata. Esto es parte del problema con respecto a la falta de diversidad/inclusión en la tecnología en general.

Esto significa que, si alguien diseña un chatbot o una interfaz de usuario conversacional destinada a públicos diversos y no comprende la variabilidad de la audiencia en el uso cultural y lingüístico, existe un gran potencial de fallas de comunicación y desconfianza entre la marca y el usuario.

Estoy escuchando que la gente quiere reemplazar a los agentes de servicio al cliente con chatbots/IA. Una de las startups sobre la que leí recientemente quería reemplazar el servicio al cliente que se ayuda a seleccionar un seguro de salud con un chatbot/IA. Este tipo de producto acarrea un riesgo muy alto como para comprometer la ruptura comunicativa, por tanto creo que es una mala idea. Cuando las personas se encuentran en situaciones de alto estrés/alta emoción, es necesario que haya una persona del otro lado para ayudarlo a sentirse escuchado, sentirse comprendido y obtener los resultados que desea.*

*Por cierto, esta es también la razón por la cual es malo subcontratar su servicio al cliente de alto riesgo a un país que no entiende la cultura/lengua de sus usuarios.

Al usar inapropiadamente IA /chatbots, potencialmente estás rompiendo toda confianza que el usuario tenga con tu marca. Cuando no se sienten escuchados, cuando no se sienten comprendidos, cuando no se sienten cuidados, la compañía no está ahorrando dinero. Lo está perdiendo.

¿Podemos teorizar acerca de la interacción humano-máquina?

Claro, pero no es lo mismo. Las máquinas son tan buenas como la entrada que ha recibido. No pueden replicar a una persona, entonces las teorías de conversación e interacción que se desarrollaron basadas en las interacciones humano-humano no funcionarán. Las máquinas podrían programarse para dar cuenta de todas las respuestas posibles para un enunciado dado, pero eso llevaría mucho tiempo. Sería una gran cantidad de trabajo, y probablemente aún perderemos algo. La variación dialectal y la variación cultural son vastas.

Necesitamos pensar sobre las interacciones humano-máquina como algo que es mucho más unilateral. Debemos tener en cuenta las limitaciones de IA cuando hablamos de chatbots y UI conversacional. Las máquinas no son y nunca serán seres humanos, y no deberíamos fingir que lo son o que pueden replicar exactamente la interacción humano-humano.

Vuelvo a uno de mis dichos favoritos: aunque sea posible, no significa que debas hacerlo.

Al igual que cualquier otra cosa que hacemos en diseño y tecnología, tenemos que pensar en todas las posibles consecuencias de las decisiones que tomamos, y tenemos que recurrir a la experiencia de las áreas que queremos aprovechar para asegurarnos de que no estamos causando más daño que bien.