Stability AI a rapidement sorti le modèle de réglage fin de Llama 2 FreeWilly, dont les performances sont comparables à ChatGPT ! Les internautes se sont exclamés que les règles du jeu ont changé

Source : Xinzhiyuan

Pas deux jours après la sortie de Llama 2, la licorne Stability AI a rapidement peaufiné le modèle FreeWilly, dont les performances seraient comparables à celles de ChatGPT.

Dès que Meta's Llama 2 est sorti, il a fait exploser toute la communauté open source.

Comme l'a dit Karpathy, scientifique d'OpenAI, il s'agit d'une journée extrêmement importante pour l'ensemble du domaine des grands modèles de langage. De tous les modèles à poids ouverts, Llama 2 est le plus puissant.

À partir de là, l'écart entre les grands modèles open source et les grands modèles fermés sera encore réduit, et la possibilité de créer de grands modèles sera égale à tous les développeurs.

Tout à l'heure, Stability AI et CarperAI Labs ont publié conjointement un modèle de réglage fin basé sur le modèle LLaMA 2 70B - FreeWilly2.

Et, basé sur le réglage fin du modèle original de LLaMA 65B - FreeWilly1.

Il convient de noter que le modèle est entraîné sur un nouveau jeu de données synthétique basé sur le format standard Alpaca et soumis à un réglage fin supervisé (SFT).

Dans divers tests de référence, FreeWilly2 a démontré d'excellentes capacités de raisonnement et a même dépassé GPT-3.5 dans certaines tâches.

Adresse du modèle :

Adresse du modèle :

Les deux modèles sont des expériences de recherche et publiés sous une licence non commerciale.

Génération et collecte de données

Stability AI a déclaré que la formation du modèle FreeWilly était directement inspirée de l'article de Microsoft "Orca: Progressive Learning from Complex Explanation Traces of GPT-4".

Cependant, bien que le processus de génération de données soit similaire, les sources sont différentes.

Lien papier :

La variante de l'ensemble de données de FreeWilly contient 600 000 points de données (environ 10 % de la taille de l'ensemble de données utilisé dans l'article Orca d'origine), et le modèle est amorcé à l'aide d'un ensemble de données d'instructions de haute qualité créé par Enrico Shippole :

  • COT Submix Original

  • NIV2 Submix Original

  • FLAN 2021 Submix Original

  • T0 Submix Original

Avec cette approche, Stability AI a généré 500 000 exemples à l'aide d'un modèle LLM plus simple, et 100 000 exemples supplémentaires à l'aide d'un modèle LLM plus complexe.

Pour une comparaison équitable, Stability AI a soigneusement examiné ces ensembles de données et supprimé les exemples dérivés du benchmark d'évaluation.

Bien que la taille de l'échantillon d'apprentissage ne représente qu'un dixième de l'article Orca original, le modèle FreeWilly qui en résulte non seulement fonctionne bien dans divers tests de référence, mais vérifie également la faisabilité de la méthode de génération synthétique d'ensembles de données.

Évaluation des performances du modèle

En termes d'évaluation des performances, les chercheurs de Stability AI ont adopté le lm-harness d'EleutherAI et ajouté l'AGI.

À en juger par les résultats, FreeWilly excelle dans de nombreux domaines, notamment le raisonnement complexe, la compréhension des subtilités du langage et la réponse à des questions complexes liées aux domaines professionnels (comme la résolution de problèmes juridiques et mathématiques).

Fondamentalement, FreeWilly 2 a atteint un niveau comparable à ChatGPT, et l'a même dépassé dans certaines évaluations.

Référence GPT4ALL (0-shot):

Évaluation AGI (coup 0):

De plus, l'équipe de Hugging Face a également reproduit l'expérience de manière indépendante le 21 juillet.

On peut voir que dans le classement Open LLM, FreeWilly 2 se classe premier avec une avance absolue, et le score moyen est supérieur de 4 points de pourcentage à celui de la version originale de Llama 2.

Pour un avenir ouvert

On peut dire que FreeWilly1 et FreeWilly2 établissent une nouvelle norme pour les grands modèles de langage open source.

L'introduction de ces deux modèles a non seulement fait progresser considérablement la recherche dans des domaines connexes, amélioré la capacité de compréhension du langage naturel, mais a également facilité l'exécution de tâches complexes.

Stability AI a déclaré que l'équipe est très enthousiasmée par les possibilités infinies que ces modèles peuvent apporter à la communauté de l'IA, et attend avec impatience les nouvelles applications qu'ils inspireront.

De plus, un merci sincère à l'équipe passionnée de chercheurs, d'ingénieurs et de partenaires dont les efforts et le dévouement extraordinaires ont permis à Stability AI d'atteindre cette étape importante.

** TEMPS PASSIONNANT **

Une fois le modèle publié, l'internaute "Phil Howes" a utilisé le framework Llama v2 de Tuhin Srivastava pour terminer l'implémentation de FreeWilly 2 en moins d'une minute.

Après 275 Go de chargement de poids, le modèle fonctionne à 23 jetons/s hors de la boîte.

De plus, certains internautes se sont exclamés : Le modèle lancé conjointement par Stability AI et CarperAI peut être qualifié de game changer !

FreeWilly1 et FreeWilly2 ont une grande importance innovante en termes d'open source et de performances, et le cercle de l'IA inaugure un moment passionnant.

Les références:

Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate.io app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)