Contents

Liberando o poder da IA ​​generativa no HPE Aruba Networking Central

A HPE expandiu recentemente sua utilização de inteligência artificial generativa para administração de rede, incorporando vários modelos de linguagem em larga escala na estrutura AIOps. Essa integração está sendo implementada na plataforma HPE Aruba Networking Central para aprimorar suas capacidades existentes de IA generativa.

HPE expande recursos de IA generativa para gerenciar redes

/images/HPE-Aruba-Networking-Central-dashboard.png

A HPE destacou em seu recente anúncio sobre a introdução de novos recursos que muitas implementações atuais de IA generativa dependem do envio de chamadas de API para modelos públicos. No entanto, com a integração da IA ​​generativa no HPE Aruba Networking Central, os usuários podem se beneficiar de um sistema autônomo de modelos hospedados no ambiente seguro da nuvem HPE GreenLake. Esses modelos passaram por otimização para fornecer resultados de pesquisa mais rápidos, maior precisão e proteção aprimorada de dados confidenciais.

Um fator crucial a considerar em relação a esses modelos reside no seu processo de treinamento. A High Performance Engineering (HPE) se orgulha de ter um dos mais extensos repositórios de dados do setor, abrangendo informações derivadas de mais de quatro milhões de dispositivos, bem como de mais de um bilhão de conexões de clientes. Esse vasto cache de dados serve de base para o desenvolvimento do modelo. Em total contraste com inúmeras outras empresas que frequentemente adotam uma estratégia adversa ao negligenciar o processamento ou utilização de dados coletados para fins de treinamento, a metodologia da HPE se destaca devido à sua compreensão intrínseca de padrões genuínos de uso de dispositivos, proporcionando assim a capacidade de direcionar efetivamente áreas que necessitam de intervenção.

Na verdade, é crucial reconhecer que a HPE reconhece os potenciais desafios associados ao tratamento de tais dados e compreende as preocupações que surgem naturalmente em relação a este assunto. Consequentemente, a HPE enfatiza a sua dedicação inabalável ao emprego responsável da inteligência artificial, priorizando a proteção das informações de identificação pessoal (PII) e a confidencialidade do cliente. Especificamente, os LLMs utilizados no HPE Aruba Networking Central operam dentro dos limites seguros da plataforma HPE GreenLake Cloud, garantindo que os dados confidenciais permaneçam protegidos. Além disso, LLMs proprietários e especificamente projetados são empregados para eliminar qualquer vestígio de PII/CII de consultas e aumentar a precisão da pesquisa, ao mesmo tempo em que fornecem respostas praticamente instantâneas para resolver problemas operacionais de rede.

Na HPE Aruba Networking, nossa prioridade é fornecer aos clientes modernos uma solução segura e inteligente para gerenciar sua infraestrutura vital. Temos o orgulho de anunciar que cumprimos esta promessa através do uso inovador de inteligência artificial em nossos produtos. Como parte do nosso compromisso de permanecer na vanguarda dos avanços tecnológicos, implementaremos vários Large Language Models (LLM) como parte da nossa iniciativa GenAI, o que aumenta ainda mais a nossa capacidade de aproveitar o poder da IA. Isto representa mais um avanço significativo na nossa longa tradição de inovação no campo da inteligência artificial.

*️⃣ Link da fonte: