Contents

A alternativa de chatbot de última geração para ChatGPT!

/images/huggingchat-2023.jpg -ChatGPT

No último período, o advento do código aberto LLM (Large Language Models) democratizou o acesso a modelos de linguagem poderosos. Projetos como OpenAI GPT (Generative Pre-trained Transformer) disponibilizaram modelos de alto desempenho para desenvolvedores e pesquisadores em todo o mundo. Já em meados de 2023, muitos argumentaram que os modelos de código aberto teriam ultrapassado os do OpenAI e do Google: Os LLMs abertos alcançaram um sucesso ilimitado, liderando uma verdadeira revolução no campo da inteligência artificial e do processamento de linguagem natural. A significativa contribuição de Hugging Face, principal protagonista desta evolução, na aceleração da difusão e acessibilidade de modelos avançados.

/images/evoluzione-modelli-generativi-LLM.png

Os grandes modelos de linguagem de código aberto estão se atualizando?“e ​​ilustra a evolução dos modelos de linguagem ao longo de um período de tempo. Os modelos posicionados abaixo da trajetória em arco representam sistemas proprietários, enquanto aqueles situados acima correspondem a alternativas de código aberto.

O que é o chatbot HuggingChat e como funciona

Assim como ChatGPT, Cohere Coral e muito mais, HuggingChat é uma interface gráfica para o usuário final. Graças ao HuggingChat, no entanto, os usuários podem interagir diretamente com o LLM de código aberto, sem instalar nada localmente.

Introduzido no final de abril de 2023, o HuggingChat é um chabot baseado em grandes modelos de linguagem, alimentado por um modelo de processamento de linguagem natural ( NLP ) chamado"Open Assistant”.

Como já destacado, um diferença do ChatGPT, desenvolvido pela OpenAI e baseado em tecnologia de código fechado, o HuggingChat é um projeto de código aberto, sublinhando a importância da transparência, inclusão, responsabilidade e distribuição de direitos no contexto da IA ​​interativa.

/images/huggingchat.png

Com o tempo, o HuggingChat evoluiu para oferecer uma experiência mais refinada, permitindo aos usuários selecionar entre uma variedade de modelos de linguagem (LLMs) pré-configurados disponíveis na plataforma. Atualmente, a opção padrão é Mistral; porém, ao acessar o menu de configurações através do ícone de engrenagem, o usuário tem a flexibilidade de escolher entre alternativas como Llama, CodeLlama, Falcon, ou até mesmo explorar outras opções disponibilizadas.

Prompt do sistema e compartilhamento de dados

Na tela de configurações do modelo, o usuário tem a opção de definir opcionalmente um prompt do sistema. O prompt do sistema é um recurso que permite aos usuários personalizar suas respostas do chatbot. Ou seja, é possível definir prompts do sistema que instruem o modelo sobre como responder em determinadas situações ou diante de determinados temas.

Dessa forma, você tem a possibilidade de influenciar o comportamento do modelo de forma mais eficiente e precisa, com um controle significativamente mais granular do que outras abordagens e soluções.

Com o clique de um botão Configurações do aplicativo, você pode eventualmente desabilitar a opção Compartilhar conversas com autores de modelos caso queira impedir a transferência de dados trocados com o chatbot durante conversas.

Desenvolvendo código e interagindo com as informações mais atualizadas publicadas na Web

Assim como outros chatbots, o HuggingChat também pode ser usado para desenvolver código obtendo dicas práticas com qualquer linguagem de programação. Tanto é que na página inicial do serviço há um exemplo que leva o modelo generativo a criar código Python para a criação de um videogame semelhante ao Snake.

/images/sviluppare-codice-huggingchat.png

Ao ativar a opção SearchWeb abaixo, o HuggingChat tenta melhorar as respostas usando informações mais atuais , adquiridas após pesquisas na Web. Infelizmente, neste caso, os resultados não são nada animadores. Nesse sentido, os novos modelos de Perplexidade conhecem os fatos recentes e são muito melhores na geração de conteúdo a partir de informações sobre acontecimentos recentes. OS resultados esportivos No entanto, eles continuam sendo uma espécie de calcanhar de Aquiles para ambas as plataformas.

Em qualquer caso, deve-se sempre lembrar que ao usar qualquer LLM, os resultados oferecidos a jusante de cada prompt fornecido na entrada são imprevisíveis. Isso significa que se você alterar ligeiramente as informações de entrada, a qualidade e a precisão dos resultados poderão variar significativamente.

Crédito da imagem de abertura: iStock.com/Vertigo3d

barra lateral inferior relacionada 300

*️⃣ Link da fonte:

Aniversário de um ano do ChatGPT: os modelos de linguagem de código aberto estão se atualizando? , Vertigo3d ,