GPT-3-ahora-arroja-4.500-millones-de-palabras-al-dia-e1639694723634

OpenAI, el laboratorio con sede en San Francisco, California que desarrolla tecnologías de inteligencia artificial que incluyen modelos de lenguaje grandes, ha anunciado la capacidad de crear versiones personalizadas de GPT-3, un modelo capaz de generar código de tipo humano de texto y voz.

Con ello apartir de ahora los desarrolladores pueden utilizar el ajuste fino para crear modelos GPT-3 adaptados al contenido específico de sus aplicaciones y servicios, lo que da como resultado resultados de mayor calidad para todas las tareas y cargas de trabajo, según la empresa.

Para quienes desconocen de GPT-3, deben saber que este es un modelo de lenguaje autorregresivo que utiliza el aprendizaje profundo para producir textos similares a los de los humanos.

Este es el modelo de predicción de lenguaje de la serie GPT-n de tercera generación creado por OpenAI, un laboratorio de investigación de inteligencia artificial con sede en San Francisco compuesto por la empresa con fines de lucro OpenAI LP y su empresa matriz, la empresa sin fines de lucro OpenAI Inc.

Desde cualquier mensaje de texto, como una frase, GPT-3 devuelve texto complementario en lenguaje natural.

Los desarrolladores pueden «programar» GPT-3 mostrándole sólo algunos ejemplos o «indicaciones».

«Diseñamos la API para que sea fácil de usar para todos y lo suficientemente flexible para hacer que los equipos de aprendizaje automático sean más productivos», dijo OpenAI a fines de marzo.

En este momento, más de 300 aplicaciones están usando GPT-3 en varias categorías e industrias, desde productividad y educación hasta creatividad y juegos.

La nueva capacidad de refinamiento en el ajuste de GPT-3 permite a los clientes capacitar a GPT-3 para que reconozca un patrón específico para cargas de trabajo como la generación de contenido, clasificación y síntesis de texto dentro de los límites de un área en particular.

El proveedor Viable utiliza GPT-3 para ayudar a las empresas a aprovechar los comentarios de los clientes. Utilizando datos no estructurados, el sistema puede producir informes que resuman los comentarios y las interacciones con los clientes. Al personalizar GPT-3, Viable habría logrado aumentar la precisión de sus informes del 66% al 90%.

Lo mismo ocurre con Keeper Tax, una herramienta que simplifica la contabilidad de los autónomos clasificando y extrayendo automáticamente los datos de carga útil para los informes de impuestos, desde un banco o una cuenta de pago. Keeper Tax utiliza GPT-3 para interpretar datos de extractos bancarios para encontrar gastos potencialmente deducibles de impuestos. La compañía continúa refinando GPT-3 con nuevos datos cada semana en función del rendimiento en el mundo real de su producto, centrándose en ejemplos en los que el modelo ha caído por debajo de un cierto umbral de rendimiento.

Los desarrolladores agregan alrededor de 500 nuevos ejemplos semanalmente para refinar el modelo. Keeper Tax dice que el proceso de puesta a punto produce una mejora del 1% de una semana a otra.

«Una cosa con la que hemos sido muy cuidadosos e insistimos en nuestro desarrollo de esta API es hacerla accesible a los desarrolladores que no necesariamente tienen experiencia en aprendizaje automático», dijo Rachel Lim, miembro del personal técnico de OpenAI. “La forma en que se manifiesta es que puede personalizar una plantilla GPT-3 mediante una invocación de línea de comandos. [Esperamos] que debido a su accesibilidad, podamos llegar a un conjunto más diverso de usuarios que puedan traer su conjunto más diverso de problemas a la tecnología ”.

Lim afirma que la capacidad de refinamiento del GPT-3 también puede generar ahorros de costos, ya que los clientes pueden contar con una frecuencia más alta de resultados de mejor calidad a partir de modelos ajustados con precisión en comparación con un modelo estándar GPT-3 (OpenAI cobra por el acceso API basado en el número de tokens, o palabras, que generan los modelos).

Si bien OpenAI tiene una prima en los modelos refinados, Lim dice que la mayoría de los modelos refinados requieren indicaciones más cortas con menos tokens, lo que también puede ahorrar dinero.

La API de GPT-3 está disponible públicamente desde 2020. Un año antes de su lanzamiento, sus diseñadores habían decidido no hacer público el trabajo de desarrollo de la versión anterior, GPT-2, considerando que este sistema dopado con machine learning podría convertirse resultaría peligroso si caía en manos de personas malintencionadas.

 

Fuente: desdelinux

¿Quién está en línea?

Hay 39211 invitados y ningún miembro en línea