Donde quiera que mire durante la última semana, hay capturas de pantalla y YouTubers sorprendidos discutiendo cuán increíble es el modelo ChatGPT recientemente presentado de OpenAI. A medida que más y más personas recurren a los chatbots y otros sistemas de inteligencia synthetic conversacional para ayudar con las tareas y responder preguntas, ha habido una creciente necesidad de tecnología de procesamiento de lenguaje pure (NLP) que pueda respaldar conversaciones más efectivas y atractivas. Uno de los últimos desarrollos en esta área es ChatGPT, una variante del well-liked modelo de lenguaje GPT-3 que está diseñado específicamente para el modelado conversacional.
En esencia, ChatGPT es un modelo de aprendizaje profundo que utiliza una pink neuronal basada en transformadores para generar texto related al humano. Esta arquitectura permite que el modelo procese el texto de entrada y genere respuestas de una manera related a como lo haría un ser humano. Sin embargo, a diferencia de los modelos de lenguaje tradicionales, ChatGPT está específicamente diseñado y ajustado para admitir el modelado conversacional, lo que significa que puede generar respuestas que son más coherentes y relevantes en el contexto de una conversación.
ChatGPT puede generar texto coherente sobre casi cualquier cosa de una manera que antes period imposible
Uno de los desafíos clave en la construcción de un sistema de IA conversacional es la capacidad de generar respuestas que sean relevantes y coherentes. En otras palabras, el sistema debe ser capaz de generar respuestas sobre el tema y que tengan sentido en el contexto de la conversación. Los modelos de lenguaje tradicionales a menudo luchan con esto, ya que pueden generar respuestas que son técnicamente correctas pero que en realidad no contribuyen a la conversación de manera significativa.
ChatGPT, por otro lado, es capaz de generar respuestas que son a la vez relevantes y coherentes gracias a su entrenamiento especializado y puesta a punto. Al utilizar un gran conjunto de datos de texto conversacional como datos de entrenamiento, ChatGPT puede aprender los patrones y matices de la conversación pure y generar respuestas que tienen más probabilidades de ser relevantes y coherentes.
Otro desafío en la construcción de un sistema de IA conversacional es la capacidad de mantener el flujo de la conversación y evitar que se vuelva forzada o repetitiva. ChatGPT aborda este problema incorporando una serie de técnicas para ayudarlo a generar respuestas más naturales y variadas. Por ejemplo, es capaz de generar múltiples respuestas potenciales a un aviso dado y elegir la más apropiada según el contexto de la conversación. Esto ayuda a evitar que el sistema genere respuestas repetitivas o sin sentido y mantiene la conversación fluida.
En common, ChatGPT representa un avance significativo en el campo de la IA conversacional y tiene el potencial de revolucionar la forma en que interactuamos con los chatbots y otros sistemas conversacionales. Con su capacidad para generar respuestas relevantes y coherentes, ChatGPT puede ayudar a crear conversaciones más atractivas y naturales, allanando el camino para una IA conversacional más eficaz y útil.
Cómo funciona
Una buena analogía para entender cómo funcionan los modelos de lenguaje es observar los modelos de traducción. Por lo common, se componen de 2 partes principales: un codificador y un decodificador. Él codificador está entrenado para tomar una oración en, digamos francés, y codificarla en una representación numérica llamada incrustación. Entonces esa representación numérica del significado de la oración se le da a un descifrador, que luego lo decodifica en un idioma de destino como el inglés. Los modelos generativos como ChatGPT no usan el codificador, y solo el decodificador, donde se alimenta la pregunta authentic, produce algún resultado y luego usa ese resultado como entrada en sí mismo. Esta técnica de tomar su propia salida y retroalimentarla se hace referencia con el prefijo “auto”.
ChatGPT utiliza en gran medida la parte del decodificador de la arquitectura Transformer tal como existe en GPT-3 en forma autorregresiva, lo que significa que está optimizado para predecir el siguiente token (palabra) en una secuencia. Uno de los mayores problemas con el uso de la salida propia de un modelo como entrada es que puede causar comportamientos impredecibles y no deseados. Es por eso que GPT3 a menudo inventa hechos, genera texto sesgado o no sigue las indicaciones del usuario correctamente. Esta es una de las áreas que ChatGPT mejoró enormemente.
OpenAI describe que “entrenaron este modelo utilizando el aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF), utilizando los mismos métodos que InstructGPT, pero con ligeras diferencias en la configuración de recopilación de datos. Entrenamos un modelo inicial usando un ajuste fino supervisado: los entrenadores humanos de IA proporcionaron conversaciones en las que jugaron en ambos lados: el usuario y un asistente de IA. Les dimos a los capacitadores acceso a sugerencias escritas en modelos para ayudarlos a redactar sus respuestas”.
El aprendizaje por refuerzo es un tipo de aprendizaje automático que implica entrenar a un modelo para que realice acciones en un entorno con el fin de maximizar una señal de recompensa. Este enfoque se usa a menudo en situaciones en las que es difícil definir explícitamente un conjunto de reglas a seguir por el modelo, ya que permite que el modelo aprenda de la experiencia y adapte su comportamiento en consecuencia.
ChatGPT se ajusta con precisión a partir de un modelo de la serie GPT-3.5, que terminó de entrenarse a principios de 2022. Puede obtener más información sobre la serie 3.5 de OpenAI aquí. ChatGPT y GPT 3.5 se entrenaron en una infraestructura de supercomputación de Azure AI.
Un poco de diversión
Solo por diversión, le pregunté si period wise.
¿Quizás hay una solución que no es tan repetitiva?