AutoML Vision de Google entrará en beta pública mientras nuevas herramientas de traducción y lenguaje natural están disponibles.

Google tiene una serie de anuncios de inteligencia artificial que está haciendo esta semana en su conferencia Cloud Next, que comienza hoy en San Francisco, y muchos se centran en la democratización de las herramientas de aprendizaje automático de la compañía. A partir de hoy, la herramienta AutoML Vision de Google ahora estará disponible en versión beta pública después de un período alfa que comenzó en enero con el lanzamiento de su iniciativa Cloud AutoML.

Cloud AutoML es básicamente una forma de permitir que los no expertos, aquellos sin experiencia en el aprendizaje automático o incluso la fluidez en programación, entrenen sus propios modelos de aprendizaje, todos usando herramientas que existen como parte de la oferta de computación en la nube de Google.

La primera de estas herramientas fue AutoML Vision, que le permite crear un modelo de aprendizaje automático para el reconocimiento de imágenes y objetos. Google hace que estas herramientas sean legibles para aquellos que están fuera de los campos de ingeniería de software y de inteligencia artificial mediante una interfaz gráfica simple y toques de UI universalmente entendidos como arrastrar y soltar.

Ahora que AutoML Vision está ingresando en versión beta pública, está disponible para cualquier cantidad de organizaciones, empresas e investigadores que puedan encontrar útil este tipo de inteligencia artificial, pero que no cuentan con los recursos ni el conocimiento para desarrollar sus propios modelos de capacitación.

En la mayoría de los casos, las empresas podrían simplemente utilizar el software de IA a través de una API, como la API de Cloud Vision que Google proporciona a terceros. Pero la compañía está diseñando sus herramientas Cloud AutoML para servir a las empresas, principalmente fuera del sector tecnológico, que pueden tener necesidades específicas que requieren capacitación en datos personalizados.

Un ejemplo que Google notó cuando se lanzó por primera vez fue Urban Outfitters construyendo un modelo que lo ayudaría a identificar patrones y otras similitudes entre productos, para poder ofrecer a los clientes en línea opciones de filtrado y búsqueda más detalladas basadas en las características de la ropa.

También se anunciaron hoy dos nuevos dominios Cloud AutoML: uno para el lenguaje natural y otro para la traducción. La capacidad de Google para analizar palabras habladas y escritas con software forma la base de su producto Google Assistant, y la competencia de sus algoritmos de traducción capacitados en AI es lo que ha hecho que Google Translate sea tan exitoso en muchos tipos diferentes de idiomas.

Por supuesto, no podrás desarrollar modelos sofisticados y software como Google sin la experiencia, los recursos y los conjuntos de datos adecuados. Pero la compañía está facilitando el inicio de la capacitación básica de modelos personalizados con estos nuevos dominios.

Además de sus nuevos dominios Cloud AutoML, Google también está desarrollando un agente de servicio al cliente de IA que puede actuar como una voz que suena humana con la cual interactuar.

Google llama al producto Contact Center AI, y se integra con su paquete existente Dialogflow que proporciona herramientas a las empresas para desarrollar agentes conversacionales. Si bien la compañía no menciona el nombre, es claro que Contact Center AI es similar al trabajo que Google está haciendo en Duplex.

Duplex es el proyecto presentado en Google I / O a principios de este año que brinda a las personas su propio asistente de inteligencia conversacional para hacer citas y completar otras tareas mundanas pretendiendo ser un ser humano por teléfono. Este proyecto le dió problemas a Google cuando se descubrió que no podía hacerse sin el consentimiento humano en el otro extremo.

Con Contact Center AI, Google se está desplazando a un territorio donde las personas que llaman están más familiarizadas con la idea de interactuar con un robot y lo hacen por su propia voluntad contactando al servicio al cliente de manera proactiva.

Debido a ese contexto, parece que esta tecnología será más que probable que domine cómo operan los centros de llamadas en el futuro. Call Center AI pone primero a la persona que llama en contacto con un agente de inteligencia artificial, que intenta resolver el problema al igual que lo haría un robot de servicio al cliente estándar, pero con capacidades y conocimiento del lenguaje natural mucho más sofisticado.

Si la persona que llama necesita o prefiere hablar con un ser humano, la IA cambia a un rol de soporte y ayuda a un trabajador humano del centro de llamadas a resolver el problema presentando información y soluciones relevantes para la conversación en tiempo real.

Hasta ahora estos proyectos son  en inglés, pero existen alternativas como Chatcompose que también ofrecen servicios similares para el público hispanohablante.