Stability AI lanzó rápidamente el modelo de ajuste fino de Llama 2, FreeWilly, ¡cuyo rendimiento es comparable al de ChatGPT! Internautas exclamaron que las reglas del juego han cambiado

Fuente: Xinzhiyuan

Apenas dos días después del lanzamiento de Llama 2, la IA de estabilidad del unicornio ha perfeccionado rápidamente el modelo FreeWilly, que se dice que es comparable en rendimiento a ChatGPT.

Tan pronto como se lanzó Meta's Llama 2, detonó a toda la comunidad de código abierto.

Como dijo Karpathy, científico de OpenAI, este es un día extremadamente importante para todo el campo de los grandes modelos de lenguaje. De todos los modelos con pesos abiertos, Llama 2 es el más potente.

A partir de ese momento, la brecha entre los modelos grandes de código abierto y los modelos grandes de código cerrado se reducirá aún más, y la oportunidad de construir modelos grandes será igual para todos los desarrolladores.

Justo ahora, Stability AI y CarperAI Labs lanzaron conjuntamente un modelo de ajuste fino basado en el modelo LLaMA 2 70B: FreeWilly2.

Y, basado en la puesta a punto del modelo original de LLaMA 65B - FreeWilly1.

Vale la pena señalar que el modelo se entrena en un nuevo conjunto de datos sintéticos basado en el formato Alpaca estándar y se sometió a un ajuste fino supervisado (SFT).

En varias pruebas comparativas, FreeWilly2 ha demostrado excelentes capacidades de razonamiento e incluso superó GPT-3.5 en algunas tareas.

Dirección del modelo:

Dirección del modelo:

Ambos modelos son experimentos de investigación y se publican bajo una licencia no comercial.

Generación y recopilación de datos

Stability AI dijo que el entrenamiento del modelo FreeWilly se inspiró directamente en el documento de Microsoft "Orca: Aprendizaje progresivo a partir de trazas de explicación complejas de GPT-4".

Sin embargo, aunque el proceso de generación de datos es similar, las fuentes son diferentes.

Enlace de papel:

La variante del conjunto de datos de FreeWilly contiene 600 000 puntos de datos (aproximadamente el 10 % del tamaño del conjunto de datos utilizado en el artículo original de Orca), y el modelo se inicia mediante el uso de un conjunto de datos de instrucciones de alta calidad creado por Enrico Shippole:

  • COT Submix Original

  • NIV2 Submezcla Original

  • FLAN 2021 Submezcla Original

  • T0 Submezcla Original

Con este enfoque, Stability AI generó 500 000 ejemplos con un modelo LLM más simple y 100 000 ejemplos adicionales con un modelo LLM más complejo.

Para una comparación justa, Stability AI evaluó cuidadosamente estos conjuntos de datos y eliminó ejemplos derivados del punto de referencia de evaluación.

Aunque el tamaño de la muestra de entrenamiento es solo una décima parte del artículo original de Orca, el modelo FreeWilly resultante no solo funciona bien en varias pruebas comparativas, sino que también verifica la viabilidad del método de generación sintética de conjuntos de datos.

Evaluación del rendimiento del modelo

En términos de evaluación del desempeño, los investigadores de Stability AI adoptaron el arnés lm de EleutherAI y agregaron AGI.

A juzgar por los resultados, FreeWilly sobresale en muchas áreas, incluido el razonamiento complejo, la comprensión de las sutilezas del lenguaje y la respuesta a preguntas complejas relacionadas con dominios profesionales (como la resolución de problemas legales y matemáticos).

Básicamente, FreeWilly 2 ha alcanzado un nivel comparable a ChatGPT, e incluso lo superó en algunas evaluaciones.

Punto de referencia GPT4ALL (0 disparos):

Evaluación AGI (0-shot):

Además, el equipo de Hugging Face también reprodujo el experimento de forma independiente el 21 de julio.

Se puede ver que en la tabla de clasificación de Open LLM, FreeWilly 2 ocupa el primer lugar con una ventaja absoluta, y el puntaje promedio es 4 puntos porcentuales más alto que el de la versión original de Llama 2.

Por un futuro abierto

Se puede decir que FreeWilly1 y FreeWilly2 establecen un nuevo estándar para los modelos de lenguaje grande de código abierto.

La introducción de estos dos modelos no solo ha hecho avanzar en gran medida la investigación en campos relacionados, ha mejorado la capacidad de comprensión del lenguaje natural, sino que también ha respaldado la realización de tareas complejas.

Stability AI dijo que el equipo está muy entusiasmado con las infinitas posibilidades que estos modelos pueden brindar a la comunidad de IA y espera con ansias las nuevas aplicaciones que inspirarán.

Además, un sincero agradecimiento al apasionado equipo de investigadores, ingenieros y socios cuyos extraordinarios esfuerzos y dedicación han permitido a Stability AI alcanzar este importante hito.

MOMENTO EMOCIONANTE

Una vez que se lanzó el modelo, el internauta "Phil Howes" usó el marco Llama v2 de Tuhin Srivastava para completar la implementación de FreeWilly 2 en menos de un minuto.

Después de 275 GB de carga de peso, el modelo funciona a 23 fichas/s de fábrica.

Además, algunos internautas exclamaron: ¡El modelo lanzado conjuntamente por Stability AI y CarperAI puede llamarse un cambio de juego!

FreeWilly1 y FreeWilly2 tienen una gran importancia innovadora en términos de código abierto y rendimiento, y el círculo de IA está marcando el comienzo de un momento emocionante.

Referencias:

Ver originales
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
  • Recompensa
  • Comentar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado
Comercie con criptomonedas en cualquier lugar y en cualquier momento
qrCode
Escanee para descargar la aplicación Gate.io
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)