Contents

Descubra o lançamento revolucionário do torrent do modelo de linguagem da Mistral AI!

Num exame inicial, o conteúdo parece ininteligível. No dia 8 de dezembro, a Mistral AI lançou o que parecia ser uma sequência aleatória de caracteres e numerais em X. Infelizmente, nenhuma informação foi fornecida pela empresa francesa especializada em inteligência artificial sobre o significado deste lançamento, que se assemelha a um simples erro de cópia.

O conteúdo fornecido parece ser um link magnético, frequentemente utilizado em redes ponto a ponto por meio de software específico. Este link específico pode ser acessado usando um cliente BitTorrent como o qBittorrent, simplesmente copiando e colando seu conteúdo. Uma vez acessado, o link permite o download de uma quantidade considerável de dados, necessitando de aproximadamente 87 gigabytes de espaço de armazenamento no sistema computacional do usuário.

/images/mistral-mixtral.jpg Não, este não é um link de torrent para o último Velozes e Furiosos.//Fonte: Captura de tela

Mixtral 8x7B, o novo modelo de IA da Mistral AI

Os 87 gigabytes de capacidade de armazenamento representam a pegada da oferta mais recente da Mixtral, o modelo 8x7B. A startup francesa apregoa esta inovação como uma “mistura esparsa de modelos especializados de primeira linha com parâmetros abertos”. Notavelmente, a Mixtral afirma que seu modelo 8x7B se destaca como “a alternativa de código aberto mais potente disponível no mercado atualmente”, de acordo com sua própria avaliação.

A abordagem da Mistral AI em relação à inteligência artificial incorpora uma ênfase em práticas de código aberto, o que se alinha com o seu compromisso de promover a colaboração e a partilha de conhecimento no campo da IA ​​generativa. Esta postura foi articulada pela empresa como forma de combater potenciais preconceitos e censura, ao mesmo tempo que promove a transparência e a responsabilização no desenvolvimento de tecnologias que influenciarão a trajetória do nosso futuro coletivo.

Mixtral 8x7B é elogiado pela Mistral AI por sua proficiência em vários idiomas, incluindo inglês, francês, italiano, alemão e espanhol, bem como por seus recursos altamente eficazes de geração de código de computador. Além disso, destaca-se pela sua capacidade de aderir a conjuntos de instruções precisos a nível técnico.

/images/screenshot-2023-12-11-at-12-31-41-mixtral-of-experts.png Mixtral vs Llama 2.//Fonte: Mistral AI

O ajuste fino de um modelo de linguagem envolve treiná-lo com dados ou tarefas específicas, a fim de aumentar sua eficácia em um domínio específico. Neste processo, o objetivo é otimizar o desempenho do modelo para uma finalidade designada. De acordo com a Mistral AI, seu sistema alcançou uma pontuação impressionante de 8,3 na métrica de avaliação MT-Bench. Para contextualizar, o GPT-4 Turbo, projetado para aplicativos de bate-papo pela OpenAI, apresenta uma pontuação mais alta de 9,32.

Mixtral 8x7B, conforme afirmado pela Mistral AI, possui a capacidade de lidar com um contexto linguístico que abrange até 32.000 tokens. Em essência, isso implica que o modelo é projetado para compreender e analisar esse conteúdo textual extenso de forma eficiente. Notavelmente, o tamanho deste contexto depende de fatores como a metodologia de treinamento empregada para o modelo, onde pode abranger palavras individuais, fragmentos de palavras ou mesmo sequências de caracteres, com base na implementação específica. Essencialmente, um aumento na contagem de tokens representa um desempenho melhorado.

A Mistral AI desenvolveu uma arquitetura inovadora de IA generativa utilizando dados obtidos de várias fontes na Internet. Este conjunto de dados, que serve de base para o treinamento do seu modelo, possui um número notável de parâmetros, totalizando 45 bilhões. No entanto, ao contrário da crença popular, o sistema emprega mais do que apenas 12 mil milhões de parâmetros por token. Ao implementar um processo altamente eficiente, a Mistral AI mantém o seu desempenho, mantendo os custos baixos e reduzindo a latência.

Um modelo superior ao ChatGPT (GPT-3.5) e Llama 2

A referida empresa, fundada em maio de 2023 pelos franceses Arthur Mensch, Guillaume Lample e Timothée Lacroix, procura distinguir a sua mais recente oferta dos concorrentes através de um desempenho excepcional. Quando comparado ao Llama 2 70B da Meta (Facebook), que apresenta velocidades de processamento aproximadamente seis vezes mais rápidas, bem como ao GPT-3.5 da OpenAI, onde se destaca ou supera em diversos benchmarks, este novo produto demonstra superioridade.

Para fundamentar as suas afirmações, a empresa incipiente apresentou uma série de gráficos e números que ilustram a preeminência do Mixtral 8x7B em várias métricas de desempenho. Consequentemente, a Mistral AI reconhece este modelo específico como oferecendo a “relação custo-desempenho” mais favorável. Além disso, quando comparado com os modelos Llama 2 do Facebook, que também estão disponíveis publicamente para uso, o Mixtral 8x7B surge como uma opção ainda mais atraente devido às suas capacidades excepcionais em termos de velocidade de treinamento e eficiência de inferência.

Espera-se que o Mixtral 8x7B, uma variante do Mistral AI, apresente melhor desempenho no tratamento de questões relacionadas a preconceitos e alucinações em comparação com outros modelos, como o Llama 2. Esta afirmação é apoiada por dados do banco de testes TruthfulQA que indicam que o Mixtral atinge um maior pontuação de confiabilidade de 73,9% em comparação com 50,2% do Llama. Além disso, a Mixtral demonstrou níveis mais baixos de preconceito com base nos resultados do teste BBQ e é considerada mais positiva durante as avaliações BOLD.

Sem comparação com os modelos mais recentes

Embora o desempenho do Mistral AI no Mixtral 8x7B tenha sido digno de nota, é importante considerar que os modelos de benchmark utilizados para comparação, especificamente GPT-3.5 e Llama 2, tornaram-se um tanto desatualizados. Lançado em novembro de 2022, o GPT-3.5 pode não refletir mais as capacidades atuais dos modelos de linguagem de última geração. Da mesma forma, o Llama 2 foi lançado em julho de 2023, o que sugere que o seu desempenho também pode ter evoluído desde então.

Em 2023, a OpenAI introduziu dois modelos avançados, nomeadamente o GPT-4 na primavera e o GPT-4 Turbo no outono. É incerto como esses modelos se sairiam uns contra os outros ou contra o Mixtral 8x7B se fossem colocados um contra o outro. Porém, vale ressaltar que de acordo com o MT-Bench, o Mixtral 8x7B pontua em torno de 9, enquanto tanto o GPT-4 quanto o GPT-4 Turbo ultrapassam 9,3. Consequentemente, parece que a ferramenta de tradução ainda pode ter alguma recuperação em termos de competitividade quando comparada com as ofertas da OpenAI.

/images/capture-decran-2023-11-06-a-190618-2-1024x576.jpg GPT-4 Turbo é a solução mais avançada da OpenAI para ChatGPT.//Fonte: OpenAI

Na verdade, embora possa haver alguma incerteza sobre se o Mixtral 8x7B é ou não GPT-4, é indiscutível que se tornou uma referência significativa na indústria, servindo de exemplo a ser seguido por outros modelos. Isto é particularmente verdade dado o ritmo rápido de inovação e mudança que ocorre neste campo, em que aqueles que não conseguem evoluir correm o risco de ficar para trás em relação aos seus concorrentes. Um excelente exemplo disso pode ser visto no caso do ChatGPT, que passou por múltiplas iterações desde seu lançamento inicial.

A Mistral AI reconhece os desafios inerentes à indústria no que se refere à manutenção de uma vantagem competitiva. Em setembro, foi revelada a sua oferta inicial, Mistral 7B. Pouco menos de três meses depois, o Mistral 8x7B surgiu como uma versão atualizada. No futuro, simplesmente possuir um gerador de base para inteligência artificial não será mais suficiente; o desenvolvimento contínuo e a introdução de novos modelos de IA são necessários para permanecerem relevantes neste cenário em rápida evolução.

Conheça este site\+

A assinatura de nossa estimada publicação por meio da estimada plataforma do Google Notícias garantirá que você permaneça informado sobre todos os eventos e desenvolvimentos atuais, permitindo-lhe manter-se informado e atualizado sobre os últimos acontecimentos nas áreas de interesse escolhidas.

do cache 1 12968/post_tag

*️⃣ Link da fonte:

em , Este é o novo modelo da startup francesa , a bancada de testes MT-Bench ,