Contents

Liberando chatbots alimentados por IA com uma interface gráfica de usuário para empresas locais!

/images/LLM-locale-chatbot-proprio-PC.jpg -ChatGPT

OS modelos generativos de código aberto estão democratizando a possibilidade de acesso ao potencial oferecido pela inteligência artificial mesmo com os dispositivos “normais” de propriedade dos usuários, sem ter que depender da nuvem e sem transferir dados a terceiros. Existem hoje inúmeros projetos focados nos melhores LLMs e já há algum tempo que se tornou possível criar e utilizar os seus próprios chatbots , capazes de funcionar num contexto local.

LLM: o que são e como funcionam

OS Grandes Modelos de Linguagem ( LLM ) são modelos de linguagem treinados em grandes quantidades de dados textuais para aprender e “compreender” a linguagem natural. Esses modelos pertencem à categoria mais ampla de modelos aprendizado de máquina conhecida como “modelos de transformação”.

Para a fase de treinamento de LLMs, você usa grandes conjuntos de dados textuais de diversas fontes, como livros, artigos de notícias, páginas da web e muito mais. O objetivo é fazer com que o modelo adquira uma “consciência” profunda das peculiaridades e relações que caracterizam cada língua. Em seguida, os modelos são refinados usando conjuntos de dados mais específicos e úteis para gerenciar tarefas específicas.

A arquitetura de transformação e, em particular, os Transformers , permitem que o modelo processe sequências de dados bidirecionalmente. Ou seja, o modelo pode considerar o contexto das palavras em uma frase, tanto antes quanto depois do termo específico que está analisando. O resultado é uma melhor compreensão do significado que, no entanto, se baseia numa abordagem probabilística , não determinística.

A dimensão dos LLMs é frequentemente definida pelo grande número de parâmetros aprendidos durante o treinamento. Os parâmetros referem-se a pesos e vieses aprendidos pelo modelo: eles determinam seu comportamento com os dados recebidos como entrada.

Os pesos são atribuídos a cada link entre os nós de duas camadas consecutivas em uma rede neural. Cada link entre nós possui um peso associado que indica a importância da conexão. Durante o treinamento, o modelo tenta otimizar os pesos para minimizar o erro entre suas previsões e os resultados esperados pelo usuário. O bias é um termo adicionado à saída de cada nó da rede neural: permite movimentar a saída, influenciando o comportamento do modelo.

Utilize os melhores LLMs localmente, com interface gráfica

Muitos projetos de código aberto permitem que você crie seu próprio ChatGPT localmente e explore o código para integrar inteligência artificial em uma infinidade de projetos, inclusive em nível profissional e corporativo.

Estúdio LM

LM Studio, disponível para download no site oficial, é uma ferramenta que oferece a possibilidade de acessar diversos LLMs hospedados no Hugging Face. LLaMa, Falcon, MPT, StarCoder, Replit e GPT-Neo-X são mencionados explicitamente, mas qualquer modelo convertido para o formato GGUF pode ser usado com LM Studio.

Hugging Face é uma plataforma de código aberto que visa desenvolver soluções de inteligência artificial por meio de uma abordagem aberta. A plataforma oferece uma ampla gama de modelos, conjuntos de dados e aplicações de IA, permitindo que a comunidade colabore e inove. O formato GGUF é utilizado para armazenar modelos destinados à inferência, especialmente no contexto de modelos de linguagem como GPT (Generative Pre-trained Transformer).

/images/demo2.9df5a0e5a9f1d72715e0.gif

A disponibilidade do LM Studio se estende a várias plataformas, incluindo Windows, macOS e Linux. No entanto, deve-se notar que o projeto permanece instável e sujeito a refinamentos contínuos.

A imagem, porém, dá uma ideia do que pode ser alcançado com o LM Studio: em uma única janela você pode escolher seu LLM favorito, modificar suas opções e então iniciar uma sessão de chat sem depender de nenhum serviço de nuvem.

IU da Web Ollama

Para abandonar a interface de linha de comando pouco convidativa do Ollama, também conhecida como Cold Ollama Terminal Window, pode-se optar por instalar o Ollama Web GUI-um módulo de software suplementar que fica sobre o Ollama, permitindo aos usuários iniciar trocas de linguagem natural com qualquer modelo de linguagem compatível. , incluindo, mas não se limitando a Mistral, LLama, Code LLama, Orca Mini e Vicuna.

/images/demo.gif

Ollama Web UI representa um avanço na interação com modelos linguísticos probabilísticos , oferecendo uma experiência de usuário avançada e versátil. A interface responde às necessidades dos usuários de desktops e dispositivos móveis, garantindo uma experiência tranquila em diversas plataformas.

A instalação do Ollama Web UI é facilitada graças à configuração intuitiva baseada no Docker: Existe a possibilidade de instalar o Ollama e o Ollama Web UI com um único comando.

Um diferencial é o destaque de sintaxe , que melhora a legibilidade do código gerado pelo modelo. O suporte Markdown e LaTeX permite aos usuários enriquecer suas interações com formatação avançada, abrindo novas formas de comunicação.

Na verdade, existem empreendimentos online que utilizam formatos de design convencionais, proporcionando aos usuários a oportunidade de conversar com personagens renomados ou fictícios como Faraday, Koboldcpp e SillyTavern, entre outros. Essas entidades apresentam possibilidades intrigantes de interação e engajamento.

Crédito da imagem de abertura: iStock.com/Vertigo3d

barra lateral inferior relacionada 300

*️⃣ Link da fonte:

do site oficial , Ollama Web GUI , Faraday , koboldcpp , SillyTavern , Vertigo3d,