Contents

Liberte aplicativos baseados em IA com as bibliotecas Python e JavaScript da Ollama!

/images/intelligenza-artificiale-applicazioni-ollama-librerie.jpg -ChatGPT

A disponibilidade de um grande número de modelos generativos, treinados usando imensos volumes de texto, permite que você aproveite essas ferramentas para fornecer recursos baseados em IA a usuários e clientes. Por outro lado, os modelos de código aberto para inteligência artificial já não são contabilizados: muitas vezes, as licenças com que são distribuídos não só permitem a sua utilização para fins comerciais, mas oferecem a possibilidade de posterior otimização e formação ex post.

Ollama é um framework de código aberto que apresentamos há algum tempo e que permite executar modelos de inteligência artificial baseados em LLM (Large Language Models) na área local. A vantagem é que com Ollama é possível manter todos os dados localmente, sem compartilhá-los na nuvem com terceiros, e acessar uma série de customizações que de outra forma seriam inacessíveis.

Bibliotecas Ollama Python e JavaScript para integrar inteligência artificial em suas aplicações

No artigo apresentado anteriormente, vimos como usar Ollama localmente , escolher seu modelo generativo preferido e enviar o prompt para ser processado.

criação automatizada de texto, gerenciamento de conversas e manipulação de linguagem complexa. A plataforma permite aos usuários personalizar esses modelos de acordo com suas preferências exclusivas.

As novas bibliotecas Python e JavaScript Ollama simplificam bastante a integração de modelos generativos em aplicativos novos e existentes. Ambos oferecem suporte completo aos recursos do Ollama, permitindo que os desenvolvedores aproveitem ao máximo os recursos da estrutura de código aberto em seus respectivos aplicativos.

Como usar o Ollama com Python

Supondo que você tenha desenvolvido um aplicativo Python , é possível enriquecê-lo com recursos de inteligência artificial simplesmente instalando a biblioteca Ollama e importando-a para o código-fonte. A instalação pode ser feita usando o seguinte comando

pip install ollama

No exemplo de código Python abaixo, primeiro importamos a biblioteca Ollama e depois a configuramos Llama2 como um modelo generativo a ser usado. A função ollama.chat inclui uma mensagem declarando a função do usuário (user) e o conteúdo da solicitação (o prompt):

import ollamaresponse = ollama.chat(model='llama2', messages=[{'role': 'user','content': 'Perché il cielo è azzurro?',},])print(response['message']['content'])

Importe a biblioteca Ollama para um projeto JavaScript

A mesma coisa pode ser feita com JavaScript, usando o gerenciador de pacotes npm (Node Package Manager) para o ambiente de execução Node.js. O comando npm install ollama permite adicionar a biblioteca, enquanto o código a seguir permite usá-la diretamente em um projeto JavaScript:

import ollama from 'ollama'const response = await ollama.chat({model: 'llama2',messages: [{ role: 'user', content: 'Perché il cielo è azzurro?' }],})console.log(response.message.content)

Porque as novas bibliotecas Ollama suportam todo o conjunto de recursos do framework

Os criadores do Ollama enfatizam que suas bibliotecas Python e JavaScript concedem acesso total a todas as funcionalidades fornecidas pelo framework, permitindo aos usuários aproveitar todos os seus recursos.

Em primeiro lugar, os aplicativos podem usar a troca de dados em streaming com o Ollama. Este termo refere-se à possibilidade de transmitir e receber dados de forma incremental, o que é muito útil quando se trata de movimentar grandes quantidades de informações. No código a seguir, a opção stream=True expressa o desejo de obter resultados de forma incremental na forma de “ chunk “:

for chunk in chat('mistral', messages=messages, stream=True):print(chunk['message']['content'], end='', flush=True)

Inteligência artificial multimodal

Com as bibliotecas Python e JavaScript você também pode iniciar transações multimodais com os vários modelos generativos. Isto significa que o sistema é capaz de processar e responder a dados provenientes de diferentes modalidades: não apenas textos, mas, por exemplo, também imagens. No exemplo a seguir, o modelo Llava toma como entrada uma imagem, um texto e oferece uma saída construída após a análise do conteúdo do arquivo transmitido.

with open('image.png', 'rb') as file:response = ollama.chat(model='llava',messages=[{'role': 'user','content': 'Cosa c'è di strano nell'immagine?','images': [file.read()],},],)print(response['message']['content'])

Autocompletar e geração automática de código

As bibliotecas Ollama também permitem que você se beneficie de recursos avançados para completar código: basta usar o modelo generativo mais adequado ao propósito (por exemplo stable-code ).

Utilizando um código-fonte específico, pode-se transmitir ao sistema de inteligência artificial a execução de uma tarefa desenvolvida em qualquer linguagem programática ou então solicitar que ele execute uma diretiva explicitamente.

Criação de modelos personalizados

Colocando algum tipo de jogo de RPG, também é possível se comunicar com o modelo generativo definindo regras muito específicas. No exemplo a seguir, com uma sintaxe muito simples, o modelo Llama2 é solicitado a personificar Mario, protagonista do popular videogame desenhado e produzido pela Nintendo:

modelfile='''FROM llama2SYSTEM Tu sei Mario, dal videogioco Super Mario Bros.'''ollama.create(model='example', modelfile=modelfile)

Crédito da imagem de abertura: iStock.com – Shutthipong Chandaeng

barra lateral inferior relacionada 300

*️⃣ Link da fonte:

Shutthipong Chandaeng,