Usando lo que un experto llama una ‘técnica del Mago de Oz’, algunas compañías mantienen su dependencia de los humanos como un secreto a sus inversionistas.

Es difícil construir un servicio impulsado por inteligencia artificial. Tan difícil, de hecho, que algunas startups hayan descubierto que es más barato y más fácil hacer que los humanos se comporten como robots que de hacer que las máquinas se comporten como humanos.

Usar a un humano para hacer el trabajo de un chatbot le permite esquivar una gran cantidad de desafíos de desarrollo técnico y comercial. No se escala, obviamente, pero les permite construir algo y omitir la parte difícil desde el principio. Se trata esencialmente de crear prototipos de la IA con seres humanos.

Esta práctica salió a la luz esta semana en un artículo del Wall Street Journal que destaca a los cientos de desarrolladores de aplicaciones a los que Google permite acceder a las bandejas de entrada de las personas.

En el caso de Edison Software, empresa con sede en San José, los ingenieros de inteligencia artificial revisaron los mensajes de correo electrónico personales de cientos de usuarios, con sus identidades eliminadas, para mejorar una función de “respuestas inteligentes”.

La compañía no mencionó que los humanos verían los correos electrónicos de los usuarios en su política de privacidad.

Los mencionados en el artículo de WSJ están lejos de ser los primeros en hacerlo. En 2008, Spinvox, una empresa que convirtió mensajes de voz en mensajes de texto, fue acusada de utilizar humanos en centros de llamadas en el extranjero en lugar de utilizar máquinas para hacer su trabajo.

En 2016, Bloomberg destacó la difícil situación de los humanos que pasan 12 horas al día fingiendo ser chatbots para servicios de calendario como X.ai y Clara. El trabajo fue tan abrumador que los empleados humanos dijeron que esperaban ser reemplazados por bots.

En 2017, la aplicación de gestión de gastos comerciales Expensify admitió que había estado utilizando seres humanos para transcribir al menos algunos de los recibos que afirmaba procesar utilizando su “tecnología smartscan”. Los escaneos de los recibos se publicaron en la herramienta de mano de obra de crowdsourcing de Mechanical Turk, donde los trabajadores mal pagados los leían y transcribían.

Incluso Facebook, que ha invertido mucho en IA, confió en los humanos para su asistente virtual para Messenger, M.

En algunos casos, los humanos se utilizan para entrenar el sistema de IA y mejorar su precisión. Una compañía llamada Scale ofrece un banco de trabajadores humanos para proporcionar datos de entrenamiento para autos que conducen uno mismo y otros sistemas alimentados con inteligencia artificial. Los “Scalers” verán, por ejemplo, la alimentación de la cámara o del sensor y etiquetarán los automóviles, los peatones y los ciclistas en el cuadro. Con suficiente de esta calibración humana, la IA aprenderá a reconocer estos objetos por sí misma.

También esta el caso del marketing conversacional, donde el servicio ChatCompose – Chatbots para marketing se usa y se entrena con conversaciones humanas para poder mejorar la precisión de la respuesta y convencer al usuario de comprar un producto.

Estos servicios necesitan un aprendizaje supervisado, el cuál después actúa de forma inteligente.

En otros casos, las empresas lo simulan hasta que lo logran, y le dicen a los inversores y usuarios que han desarrollado una tecnología escalable de inteligencia artificial mientras que confían secretamente en la inteligencia humana.

Alison Darcy, una psicóloga y fundadora de Woebot, un chatbot de apoyo a la salud mental, describe esto como la “técnica de diseño de Wizard of Oz”.

“Simula lo que la última experiencia de algo va a ser. Y mucho tiempo cuando se trata de AI, hay una persona detrás del telón en lugar de un algoritmo “, dijo, y agregó que construir un buen sistema de inteligencia artificial requería una tonelada de datos y que a veces los diseñadores querían saber si era suficiente la demanda de un servicio antes de realizar la inversión.

Este enfoque no era apropiado en el caso de un servicio de apoyo psicológico como Woebot, dijo.

“Como psicólogos nos guiamos por un código de ética. No engañar a la gente es claramente uno de esos principios éticos”.

La investigación ha demostrado que las personas tienden a divulgar más cuando creen que están hablando con una máquina, en lugar de una persona, debido al estigma asociado con la búsqueda de ayuda para la salud mental.

Un equipo de la Universidad del Sur de California probó esto con un terapeuta virtual llamado Ellie. Descubrieron que los veteranos con trastorno de estrés postraumático tenían más probabilidades de divulgar sus síntomas cuando sabían que Ellie era un sistema de inteligencia artificial que cuando les dijeron que había un ser humano operando la máquina.

Dejar respuesta

Please enter your comment!
Please enter your name here