Meta pone el último chatbot de IA en la web para hablar con la audiencia

Los laboratorios de investigación de IA en Meta han creado un nuevo chatbot de última generación y permiten a los miembros de la audiencia hablar con el sistema para recopilar comentarios sobre sus capacidades.

El bot se llama BlenderBot 3 y se puede acceder a él en la web. (Aunque, por ahora, solo los residentes de EE. UU. parecen poder hacer eso). BlenderBot 3 puede participar en un chat público, dice Meta, pero también responde el tipo de consultas que podría hacerle a su asistente digital. y recetas de comida para encontrar servicios para niños en la ciudad”.

El bot es un prototipo y se basa en el trabajo anterior de Meta con lo que se conoce como Large Language Models, o LLMS, un programa de generación de secuencias de comandos poderoso pero defectuoso del cual GPT-3 de OpenAI es un ejemplo ampliamente conocido. Como todos los LLM, BlenderBot se entrena inicialmente en extensos conjuntos de datos de texto, que luego se profundizan en patrones estadísticos para generar el lenguaje. Estos sistemas han demostrado ser muy flexibles y se les ha dado una gran cantidad de usos, desde crear código para programadores hasta ayudar a los autores a escribir sus próximos éxitos de ventas. Sin embargo, estos modelos también tienen fallas graves: rejuvenecen los sesgos en sus datos de entrenamiento y, a menudo, inventan respuestas a las preguntas de los usuarios (un gran problema si son útiles como asistentes digitales).

Este último problema es algo que Meta quiere probar específicamente con BlenderBot. Una gran ventaja de un chatbot es que es capaz de buscar en internet para hablar de temas específicos. Más importante aún, los usuarios pueden hacer clic en sus respuestas para ver de dónde obtuvieron su información. En otras palabras, BlenderBot 3 puede citar sus fuentes.

Al lanzar el chatbot al público en general, Meta quiere recopilar comentarios sobre los diversos problemas que enfrentan los grandes modelos de lenguaje. Los usuarios que hablen con BlenderBot podrán informar cualquier respuesta sospechosa del sistema, y ​​Meta dice que ha trabajado duro para “reducir el uso de lenguaje vulgar, calumnias y comentarios culturalmente insensibles por parte de los bots”. Los usuarios deberán registrarse para que se recopilen sus datos y, de ser así, sus conversaciones y comentarios serán almacenados y luego publicados por Meta para que los use la comunidad general de investigación de IA.

“Estamos comprometidos a hacer que todos los datos que recopilamos en la demostración estén disponibles públicamente con la esperanza de que podamos mejorar la IA para las conversaciones”, dijo Kurt Schuster, ingeniero de investigación en Meta que ayudó a crear BlenderBot 3. el borde.

Ejemplo de una conversación con BlenderBot 3 en la web. Los usuarios pueden proporcionar comentarios y comentarios sobre respuestas específicas.
Foto: muerto

Históricamente, lanzar modelos de chatbots de IA al público ha sido un movimiento arriesgado para las empresas de tecnología. En 2016, Microsoft lanzó un bot de chat de Twitter llamado Tay que aprendió de sus interacciones con la audiencia. Como era de esperar, los usuarios de Twitter rápidamente entrenaron a Tay para que emitiera una gran cantidad de declaraciones racistas, antisemitas y misóginas. En respuesta, Microsoft desconectó el bot menos de 24 horas después.

Meta dice que el mundo de la IA ha cambiado mucho desde que Tay colapsó y BlenderBot tiene todo tipo de barras de seguridad que deberían evitar que Meta repita los errores de Microsoft.

Crucialmente, dice Mary Williamson, Directora de Ingeniería de Investigación en Facebook AI Research (FAIR), mientras que Tay está diseñado para aprender en tiempo real de las interacciones del usuario, BlenderBot es un modelo establecido. Esto significa que es capaz de recordar lo que dicen los usuarios en la conversación (y conservará esta información a través de las cookies del navegador si el usuario sale del programa y vuelve más tarde), pero estos datos solo se utilizarán para mejorar aún más el sistema.

“Es solo mi opinión personal, pero esto [Tay] El episodio es relativamente desafortunado, porque creó este invierno de chatbots en el que todas las organizaciones tenían miedo de poner bots de chat públicos para investigación”, dice Williamson. el borde.

Williamson dice que la mayoría de los chatbots que se usan hoy en día son limitados y están orientados a tareas. Piense en los bots de servicio al cliente, por ejemplo, que a menudo solo presentan a los usuarios un árbol de diálogo preprogramado, reduciendo su consulta antes de entregarla a un agente humano que realmente puede hacer el trabajo. El verdadero premio es construir un sistema que pueda tener una conversación libre y natural como un ser humano, y Meta dice que la única forma de lograrlo es permitir que los bots tengan conversaciones libres y naturales.

“La falta de tolerancia hacia los bots que dicen cosas inútiles, en su sentido amplio, es desafortunada”, dice Williamson. “Y lo que estamos tratando de hacer es emitir esto con gran responsabilidad e impulsar la investigación”.

Además de colocar BlenderBot 3 en la web, Meta también publica el código subyacente, el conjunto de datos de entrenamiento y variantes de modelos más pequeños. Los investigadores pueden solicitar acceso al modelo más grande, que contiene 175 mil millones de variables, a través de un modelo aquí.

Leave a Reply

Your email address will not be published. Required fields are marked *