Contents

O modelo de IA da próxima geração e libere sua tagarelice interior com Le Chat

/images/mistral-large-le-chat-chatbot.jpg -ChatGPT

Fomos dos primeiros a apresentar, na sua época, o trabalho realizado pela startup francesa Mistral AI que, gradualmente, pretende agora afirmar-se como uma alternativa à OpenAI, a Anthropic (fundada por ex-funcionários da OpenAI), Soluções Meta e Google. Pelo menos no que me diz respeito, modelos generativos que podem ser integrados em aplicações que devem ser capazes de explorar recursos avançados de inteligência artificial.

Na época do lançamento do modelo Mistral 7B, nos detivemos no fato de que se trata de uma ferramenta open source nascida da estreita colaboração com o consórcio CINECA/EuroHPC. Os criadores do Mistral AI, aliás, agradeceram publicamente aos operadores do supercomputador Leonardo, todos italianos, por permitirem que utilizassem seus recursos para fins de treinamento do modelo.

Em suma, a actividade da Mistral AI nasceu um pouco sob a asa da Europa. EuroHPC (European High Performance Computing) é uma iniciativa tecnológica conjunta no domínio da computação de alto desempenho que representa a pedra angular da estratégia industrial da União Europeia no domínio da supercomputação e do processamento de dados.

Mistral Large, o grande desafio de um modelo generativo totalmente europeu

O novo LLM (Large Language Model) Mistral Large, assim que revelado pela empresa parisiense, foi projetado para rivalizar com outros modelos topo de linha da “concorrência”, como GPT-4 e * *Cláudio 2**.

Após o estabelecimento da Mistral AI por indivíduos provenientes da DeepMind e da Meta, a apresentação inicial da empresa centrou-se no fornecimento de soluções avançadas de inteligência artificial, ao mesmo tempo que enfatizou a importância da tecnologia de código aberto-uma abordagem que lembra o que a OpenAI aspirava alcançar. Embora se possa reconhecer que a Mistral AI tornou o seu modelo inicial acessível sob uma licença permissiva e proporcionou aos utilizadores acesso aos parâmetros do modelo, este nível de transparência não se estende aos modelos mais complexos distribuídos posteriormente.

Quanto mais o tempo passa, mais o modelo de negócios da Mistral AI se assemelha cada vez mais ao escolhido pela OpenAI. Até o novo Mistral Large, por exemplo, pode ser “interrogado” usando uma API paga com preços de consumo.

Neste momento, os desenvolvedores interessados ​​em que as suas respetivas aplicações comuniquem com o Mistral Large deverão gastar 7,30 euros por milhão de tokens de entrada e 22 euros por milhão de tokens de saída. O número de tokens de entrada e saída refere-se, respectivamente, ao volume de palavras ou unidades de texto enviadas ao Mistral Large e às obtidas pelo modelo como resultado do processamento.

Por padrão, Mistral AI suporta janelas de contexto de 32.000 tokens (geralmente mais de 20.000 palavras) e é compatível com idiomas como italiano, inglês, francês, espanhol e alemão.

Para efeito de comparação, OpenAI GPT-4 com uma janela de contexto de 32.000 tokens custa atualmente US$ 60 por milhão de tokens de entrada; US$ 120 por milhão de tokens de saída. Portanto, o Mistral Large é atualmente 5 a 7,5 vezes mais barato que o GPT-4-32k.

Experimente o novo chatbot baseado em Mistral Large: aqui está Le Chat

Também disponível em versão gratuita, o Le Chat apresenta-se como uma alternativa de chatbots ao ChatGPT e a vários outros rivais que entretanto conquistaram para si uma fatia importante do mercado.

Depois de fazer login no The Chats , o chatbot da Web usa o novo modelo generativo Mistral Large por padrão, conforme confirmado pelo menu suspenso no canto superior direito. Alternativamente, você pode optar por usar um modelo mais leve e conciso nas respostas ou Next , que representa um pouco do “laboratório experimental” da Mistral AI. A ideia é colocar um protótipo LLM ( Large Language Model ) que esteja à frente de seu tempo e que sacrificando um pouco de “precisão” permita respostas mais criativas.

/images/le-chat-mistral-large-alternativa-chatgpt.png

No entanto, o próprio Mistral Large é referido como versão beta. Portanto, é razoável esperar algum comportamento anômalo. A empresa também planeja lançar uma versão paga do Le Chat para clientes empresariais. Os clientes corporativos também poderão definir mecanismos de moderação personalizados.

Após a interação inicial com a Mistral AI, os usuários são notificados de que quaisquer dados compartilhados por meio de conversação podem ser utilizados para refinar o desempenho do modelo generativo subjacente.

Mistral AI também anuncia colaboração com a Microsoft

Quando se trata de inteligência artificial e modelos generativos, a Microsoft está sempre “antenada”. Além da plataforma API do Mistral, a Microsoft fornecerá modelos Mistral aos seus clientes Azure.

Após um exame inicial, parece que a parceria entre a Mistral AI e a Microsoft envolve principalmente a integração do novo modelo Mistral Large. No entanto, na realidade, ambas as entidades estão envolvidas em discussões com a intenção de explorar caminhos inovadores de cooperação ou mesmo de prosseguir esforços adicionais.

O envolvimento da Microsoft no desenvolvimento da tecnologia de IA vai além da sua participação acionária na OpenAI. A empresa também tomou medidas para incorporar modelos adicionais de IA na sua plataforma de computação em nuvem. Ao estabelecer parcerias com organizações como a Meta, a Microsoft oferece acesso a soluções de IA de ponta através do seu serviço Azure.

Sem dúvida, a estratégia aberta da Microsoft para colaborações de IA serve como um meio eficaz de manter a presença do utilizador na plataforma Azure e na sua rede de produtos associada. Além disso, esta abordagem pode revelar-se vantajosa na antecipação de quaisquer potenciais investigações antitrust conduzidas pelos órgãos reguladores relevantes.

barra lateral inferior relacionada 300

*️⃣ Link da fonte:

revelado pela empresa parisiense , eles deveriam gastar ,