Contents

Liberando IA e modelos generativos para o sucesso empresarial!

/images/intelligenza-artificiale-modelli-generativi-business-intelligence-ammagamma.jpg -Negócios

O dado representa um ativo fundamental para as organizações, pois fornece informações valiosas e insights essenciais que orientam as decisões estratégicas e operacionais de qualquer negócio. Numa era em que a tecnologia e a digitalização desempenham um papel central, a capacidade de recolher, analisar e interpretar dados tornou-se um elemento distintivo para o sucesso empresarial.

Há algum tempo falávamos sobre data lake , grandes volumes de dados, arquivados de diversas fontes em um único repositório. Os dados podem ser armazenados em formato bruto e extraídos quando necessário para tarefas de análise e processamento. Entretanto, muita água correu por baixo da ponte: hoje as empresas que gestão de dados a todos os níveis podem aproveitar concretamente os benefícios decorrentes das soluções de inteligência artificial e, em particular, fazer uso de modelos generativos modernos.

Os atuais modelos generativos permitem extrair valor do imenso “dote” de dados corporativos que toda empresa tem à sua disposição. E eles fazem isso usando uma abordagem estocástica: quanto mais dados você passa para o algoritmo, mais informações você pode obter e mais conteúdo valioso pode produzir. Uma fase de treinamento precisa do modelo, que pode contar com dados de qualidade como os de uma empresa, traz à tona as relações probabilísticas que existem entre os diversos dados. Em outro artigo destacamos as diferenças entre modelos estocásticos e determinísticos.

Inteligência artificial cada vez mais útil para fazer business intelligence em dados da empresa: a visão da Ammagamma

Tivemos a oportunidade de discutir esses assuntos com Fabio Ferrari, fundador e presidente da Ammagamma, empresa que projeta e desenvolve soluções de inteligência artificial para empresas.

Ammagamma é uma empresa que desenvolve soluções e serviços inovadores de inteligência artificial para empresas desde 2013. Está sediada em Modena e é composta por uma equipe multidisciplinar de mais de 90 matemáticos, engenheiros, historiadores, filósofos e designers que ajudam empresas a inovar processos com IA, contribuindo para o desenvolvimento de uma sociedade consciente do potencial, implicações e impacto desta tecnologia.

-esse site. Essa'"*ontologia de dados**“presente nos sistemas de TI que utilizamos na empresa, no escritório, em casa, é cada vez mais útil para a criação de ferramentas orientadas por IA, utilizando uma abordagem estocástica, baseada nas relações probabilísticas existentes entre os vários dados. Microsoft (vinculando-o ao OneDrive), AWS e muitas outras empresas menores estão olhando para esta abordagem. Qual é a"receita"da Ammagamma e o que a torna única?

Fabio Ferrari, Ammagamma (F.F., abaixo): Ammagamma propõe uma solução tecnológica, baseada em modelos de IA, para extrair o maior valor de cada"conceito"de referência do espaço ontológico de referência. Esta abordagem tecnologia matemática está fortemente integrada com um projeto de acompanhamento “cultural” para facilitar a adoção da aplicação dentro da organização.

Treinamento de modelos generativos: qual abordagem utilizar na empresa?

-Para a Ammagamma, o gerenciamento de dados e o treinamento de modelos ocorrem localmente, depende da nuvem ou usa um esquema híbrido? Além disso, é fornecido aos Clientes um modelo básico que é então enriquecido “em tempo real” com a ingestão dos “dados personalizados” da empresa individual?

F.F.: Atuamos com o objetivo de proporcionar ao cliente a melhor experiência tecnológica, portanto nosso desenvolvimento é baseado em uma pluralidade de arquiteturas e possibilidades, para facilitar tanto o desenvolvimento do projeto, em máquinas locais e/ou em cloud , que é a liberação da solução para o cliente. Este último pode, portanto, ser gerenciado localmente ou na nuvem.

-Esta questão é um pouco parecida com a anterior. Em seu discurso esclarecedor, por ocasião da QNAP Partner Conference 2023, você descreveu as imensas oportunidades que o uso de modelos generativos oferece a profissionais e empresas. O objetivo é fazer business intelligence como nunca vimos antes, para extrair valor dos mesmos dados que as empresas já possuem e gerenciam.

F.F.: Acreditamos que é fundamental ter uma infraestrutura distribuída, mista e fortemente atualizada. Dito isto, não entramos nas especificidades das infraestruturas analisando o tipo de dispositivos presentes. Temos uma abordagem aberta ao não estarmos vinculados a fornecedores e licenças específicas.

Otimização e customização de Large Language Models (LLM)

-Um dos mecanismos mais populares para melhorar um modelo pré-existente e ajustá-lo é o LoRA (Low-Rank Adaptation). Para aqueles que abordam o estudo e uso de LLMs de código aberto, esta é uma técnica essencial. Você pode fornecer alguns conselhos práticos para aqueles que desejam abordar o assunto?

F.F.: Nos últimos anos, i Large Language Models (LLM), também conhecidos como Modelos Fundamentais, foram treinados usando grandes conjuntos de dados e modelos com um grande número de parâmetros. À medida que os modelos se tornam cada vez maiores, o ajuste de todos os parâmetros envolve custos significativos. Portanto, os pesquisadores se concentraram no ajuste eficiente, conhecido como Ajuste Fino Eficiente em Parâmetros (PEFT).

Adaptação de baixo nível ( Time ) proposta pela equipe da Microsoft, fornece o congelamento de pesos de modelo pré-treinados (por exemplo, GPT-3) e ajuste fino com um modelo muito menor, alcançando excelente precisão-ajustar resultados em domínios de informação bem definidos. A ideia é utilizar a pequena rede LoRA, inserida em camadas específicas, para tornar o modelo adaptável a diferentes tarefas específicas.

Modelos generativos também localmente

Tendo em conta a noção de autonomia digital altamente valorizada pelos legisladores europeus, a empresa tem agora o potencial para gerir os seus próprios dados utilizando tecnologia de IA sem depender de fontes externas. Esta mudança em direção à autossuficiência é facilitada por infraestruturas robustas e capacidades de rede localizadas que permitem o tratamento eficiente da informação dentro dos limites da organização.

Para quem quiser saber mais, Sebastian Raschka, outro “peso pesado” na área de inteligência artificial, explicou recentemente como se dedicar ao ajuste fino de LLMs usando LoRA. Por sua parte, porém, a Microsoft apresentou o Windows AI Studio, uma solução cujo objetivo é facilitar a otimização e a customização de modelos generativos localmente usando WSL (Windows Subsystem for Linux). Em particular, QLoRA (Quantized Low-Rank Adaptation) permite treinar modelos generativos compostos de um grande número de parâmetros usando GPUs locais combinadas com uma quantidade reduzida de VRAM.

Outra leitura que gostaríamos de recomendar é o guia “GPU Survival Toolkit para a era da IA: o mínimo que todo desenvolvedor deve saber”, elaborado por Rijul Rajesh. O documento contém uma série de informações práticas sobre “ **kit de sobrevivência ** ” que todo desenvolvedor de soluções baseadas em inteligência artificial deve ter para si.

Enquanto Pat Gelsinger tende a desviar a atenção para a fase de inferência , Rajesh destaca que CUDA , uma plataforma de processamento paralelo desenvolvida pela NVidia, hoje permite explorar totalmente o potencial das GPUs. Ele também oferece um guia detalhado sobre como usar a estrutura CUDA em um sistema Linux , aproveitando o paralelismo em vez da abordagem sequencial clássica no lado da CPU.

barra lateral inferior relacionada 300

*️⃣ Link da fonte:

Ammagamma , Em seu discurso esclarecedor , Sebastian Raschka, ajuste fino de LLMs usando LoRA , GPU Survival Toolkit for the AI ​​age: The bare mínimo que todo desenvolvedor deve saber ,