Stability AI lançou rapidamente o modelo de ajuste fino Llama 2 FreeWilly, cujo desempenho é comparável ao ChatGPT! Os internautas exclamaram que as regras do jogo mudaram
Menos de dois dias após o lançamento do Llama 2, o unicórnio Stability AI ajustou rapidamente o modelo FreeWilly, que é considerado comparável em desempenho ao ChatGPT.
Assim que o Llama 2 da Meta foi lançado, detonou toda a comunidade de código aberto.
Como disse o cientista da OpenAI, Karpathy, este é um dia extremamente importante para todo o campo de grandes modelos de linguagem. De todos os modelos com pesos abertos, o Llama 2 é o mais potente.
A partir de então, a lacuna entre grandes modelos de código aberto e grandes modelos de código fechado será ainda mais reduzida, e a oportunidade de construir grandes modelos será igual para todos os desenvolvedores.
Agora, Stability AI e CarperAI Labs lançaram em conjunto um modelo de ajuste fino baseado no modelo LLaMA 2 70B - FreeWilly2.
E, com base no ajuste fino do modelo original do LLaMA 65B - FreeWilly1.
Vale a pena notar que o modelo é treinado em um novo conjunto de dados sintético baseado no formato Alpaca padrão e submetido a um ajuste fino supervisionado (SFT).
Em vários testes de benchmark, o FreeWilly2 demonstrou excelentes capacidades de raciocínio e até superou o GPT-3.5 em algumas tarefas.
Endereço do modelo:
Endereço do modelo:
Ambos os modelos são experimentos de pesquisa e lançados sob licença não comercial.
Geração e coleta de dados
A Stability AI disse que o treinamento do modelo FreeWilly foi diretamente inspirado no artigo da Microsoft "Orca: Progressive Learning from Complex Explanation Traces of GPT-4".
No entanto, embora o processo de geração de dados seja semelhante, as fontes são diferentes.
Link do papel:
A variante do conjunto de dados do FreeWilly contém 600.000 pontos de dados (aproximadamente 10% do tamanho do conjunto de dados usado no artigo original do Orca), e o modelo é inicializado usando um conjunto de dados de instrução de alta qualidade criado por Enrico Shippole:
COT Submix Original
NIV2 Submix Original
FLAN 2021 Submix Original
T0 Submix Original
Com essa abordagem, a Stability AI gerou 500.000 exemplos usando um modelo LLM mais simples e 100.000 exemplos adicionais usando um modelo LLM mais complexo.
Para uma comparação justa, a Stability AI examinou cuidadosamente esses conjuntos de dados e removeu exemplos derivados do benchmark de avaliação.
Embora o tamanho da amostra de treinamento seja apenas um décimo do papel original do Orca, o modelo FreeWilly resultante não apenas tem um bom desempenho em vários testes de benchmark, mas também verifica a viabilidade do método de gerar conjuntos de dados sinteticamente.
Avaliação do desempenho do modelo
Em termos de avaliação de desempenho, os pesquisadores de Stability AI adotaram o lm-harness do EleutherAI e adicionaram AGI.
A julgar pelos resultados, FreeWilly se destaca em muitas áreas, incluindo raciocínio complexo, compreensão das sutilezas da linguagem e resposta a questões complexas relacionadas a domínios profissionais (como resolução de problemas jurídicos e matemáticos).
Basicamente, o FreeWilly 2 alcançou um nível comparável ao ChatGPT, e até o superou em algumas avaliações.
Benchmark GPT4ALL (0 tiro):
Avaliação AGI (0-shot):
Além disso, a equipe do Hugging Face também reproduziu o experimento de forma independente em 21 de julho.
Pode-se observar que na tabela de classificação do Open LLM, o FreeWilly 2 ocupa o primeiro lugar com liderança absoluta, e a pontuação média é 4 pontos percentuais maior que a da versão original do Llama 2.
Por um futuro aberto
Pode-se dizer que FreeWilly1 e FreeWilly2 definem um novo padrão para modelos de linguagem de código aberto.
A introdução desses dois modelos não apenas avançou muito a pesquisa em áreas relacionadas, aumentou a capacidade de compreensão da linguagem natural, mas também apoiou a conclusão de tarefas complexas.
A Stability AI disse que a equipe está muito animada com as infinitas possibilidades que esses modelos podem trazer para a comunidade de IA e aguarda com expectativa as novas aplicações que eles irão inspirar.
Além disso, um sincero agradecimento à equipe apaixonada de pesquisadores, engenheiros e parceiros cujos esforços e dedicação extraordinários permitiram que a Stability AI alcançasse esse importante marco.
HORA EMOCIONANTE
Depois que o modelo foi lançado, o internauta "Phil Howes" usou a estrutura Llama v2 de Tuhin Srivastava para concluir a implementação do FreeWilly 2 em menos de um minuto.
Após 275 GB de carregamento de peso, o modelo é executado a 23 token/s fora da caixa.
Além disso, alguns internautas exclamaram: O modelo lançado em conjunto pela Stability AI e CarperAI pode ser chamado de divisor de águas!
FreeWilly1 e FreeWilly2 têm grande significado inovador em termos de código aberto e desempenho, e o círculo de IA está dando início a um momento emocionante.
Referências:
Ver original
O conteúdo serve apenas de referência e não constitui uma solicitação ou oferta. Não é prestado qualquer aconselhamento em matéria de investimento, fiscal ou jurídica. Consulte a Declaração de exoneração de responsabilidade para obter mais informações sobre os riscos.
Stability AI lançou rapidamente o modelo de ajuste fino Llama 2 FreeWilly, cujo desempenho é comparável ao ChatGPT! Os internautas exclamaram que as regras do jogo mudaram
Fonte: Xinzhiyuan
Assim que o Llama 2 da Meta foi lançado, detonou toda a comunidade de código aberto.
Como disse o cientista da OpenAI, Karpathy, este é um dia extremamente importante para todo o campo de grandes modelos de linguagem. De todos os modelos com pesos abertos, o Llama 2 é o mais potente.
A partir de então, a lacuna entre grandes modelos de código aberto e grandes modelos de código fechado será ainda mais reduzida, e a oportunidade de construir grandes modelos será igual para todos os desenvolvedores.
Agora, Stability AI e CarperAI Labs lançaram em conjunto um modelo de ajuste fino baseado no modelo LLaMA 2 70B - FreeWilly2.
E, com base no ajuste fino do modelo original do LLaMA 65B - FreeWilly1.
Em vários testes de benchmark, o FreeWilly2 demonstrou excelentes capacidades de raciocínio e até superou o GPT-3.5 em algumas tarefas.
Ambos os modelos são experimentos de pesquisa e lançados sob licença não comercial.
Geração e coleta de dados
A Stability AI disse que o treinamento do modelo FreeWilly foi diretamente inspirado no artigo da Microsoft "Orca: Progressive Learning from Complex Explanation Traces of GPT-4".
No entanto, embora o processo de geração de dados seja semelhante, as fontes são diferentes.
A variante do conjunto de dados do FreeWilly contém 600.000 pontos de dados (aproximadamente 10% do tamanho do conjunto de dados usado no artigo original do Orca), e o modelo é inicializado usando um conjunto de dados de instrução de alta qualidade criado por Enrico Shippole:
COT Submix Original
NIV2 Submix Original
FLAN 2021 Submix Original
T0 Submix Original
Com essa abordagem, a Stability AI gerou 500.000 exemplos usando um modelo LLM mais simples e 100.000 exemplos adicionais usando um modelo LLM mais complexo.
Embora o tamanho da amostra de treinamento seja apenas um décimo do papel original do Orca, o modelo FreeWilly resultante não apenas tem um bom desempenho em vários testes de benchmark, mas também verifica a viabilidade do método de gerar conjuntos de dados sinteticamente.
Avaliação do desempenho do modelo
Em termos de avaliação de desempenho, os pesquisadores de Stability AI adotaram o lm-harness do EleutherAI e adicionaram AGI.
A julgar pelos resultados, FreeWilly se destaca em muitas áreas, incluindo raciocínio complexo, compreensão das sutilezas da linguagem e resposta a questões complexas relacionadas a domínios profissionais (como resolução de problemas jurídicos e matemáticos).
Basicamente, o FreeWilly 2 alcançou um nível comparável ao ChatGPT, e até o superou em algumas avaliações.
Pode-se observar que na tabela de classificação do Open LLM, o FreeWilly 2 ocupa o primeiro lugar com liderança absoluta, e a pontuação média é 4 pontos percentuais maior que a da versão original do Llama 2.
Por um futuro aberto
Pode-se dizer que FreeWilly1 e FreeWilly2 definem um novo padrão para modelos de linguagem de código aberto.
A introdução desses dois modelos não apenas avançou muito a pesquisa em áreas relacionadas, aumentou a capacidade de compreensão da linguagem natural, mas também apoiou a conclusão de tarefas complexas.
A Stability AI disse que a equipe está muito animada com as infinitas possibilidades que esses modelos podem trazer para a comunidade de IA e aguarda com expectativa as novas aplicações que eles irão inspirar.
Além disso, um sincero agradecimento à equipe apaixonada de pesquisadores, engenheiros e parceiros cujos esforços e dedicação extraordinários permitiram que a Stability AI alcançasse esse importante marco.
HORA EMOCIONANTE
Depois que o modelo foi lançado, o internauta "Phil Howes" usou a estrutura Llama v2 de Tuhin Srivastava para concluir a implementação do FreeWilly 2 em menos de um minuto.
Após 275 GB de carregamento de peso, o modelo é executado a 23 token/s fora da caixa.