Contents

A batalha pelo domínio da IA ​​esquenta!

/images/pat-gelsinger-errori-intel.jpg -Intel -NVidia -IA

CUDA (Compute Unified Device Architecture) é a conhecida plataforma de processamento paralelo desenvolvida pela NVidia. A ideia por trás do CUDA é usar o poder computacional da GPU NVidia para fins de computação geral, muito além da renderização gráfica tradicional.

As GPUs são originalmente projetadas para lidar com operações relacionadas a gráficos: com CUDA, no entanto, você pode tirar proveito delas arquitetura paralelizada para realizar cálculos científicos, simulações físicas, aprendizado de máquina e outras operações que exigem muita computação.

Contando com CUDA, os desenvolvedores podem contar com um ambiente de programação que permite a utilização de diversas linguagens, ao mesmo tempo em que se beneficiam do suporte a instruções específicas da GPU.

Intel afirma que CUDA não é a tecnologia líder em inteligência artificial

O CEO da Intel, Pat Gelsinger , durante o evento de apresentação dos novos chips Core Ultra e da quinta geração de CPUs Xeon, afirmou sem rodeios que o papel predominante da NVidia no treinamento de modelos de inteligência artificial usando tecnologia CUDA é não estou aqui para ficar.

O CEO da empresa sediada em Santa Clara destacou que após treinar o modelo, ele fica independente do CUDA. Ele também afirmou que a estratégia da Nvidia com CUDA é meramente superficial e de escopo limitado, já que o mercado está caminhando para abraçar tecnologias mais abertas e acessíveis, em vez de ficar vinculado exclusivamente ao CUDA.

Como um rio inundado, Gelsinger acrescentou que num futuro próximo será o tema da inferência para desempenhar um papel essencial no campo das soluções baseadas em inteligência artificial. Segundo o CEO, a Intel conseguirá enfrentar o desafio de forma brilhante e obter resultados de alto nível, tanto com Xeon quanto com PCs edge, graças ao processador Gaudi 3.

Durante o processo de fazer previsões usando um modelo de aprendizado de máquina treinado, conhecido como fase de inferência, as informações de entrada são processadas e o modelo utiliza o conhecimento adquirido durante a fase de treinamento. Isso permite que os resultados sejam produzidos sem a necessidade de atualizações adicionais nas conexões entre os neurônios da rede.

Intel será cada vez mais competitiva no setor de inteligência artificial

Gelsinger reiterou que a Intel será extremamente competitiva em soluções de IA para data centers. Primeiro de tudo, ele se concentrou em OpenVINO, sigla para Open Visual Inference and Neural network Optimization: este é um kit de ferramentas de desenvolvimento de software criado pela Intel. Ele permite otimizar o uso de redes neurais para execução em hardware Intel, melhorando o desempenho e a eficiência.

OpenVINO suporta vários modelos, incluindo redes neurais convolucionais, redes neurais recorrentes e redes neurais generativas, das quais falamos no artigo mencionado acima. Sua flexibilidade e desempenho otimizado o tornam uma ferramenta muito útil para desenvolvimento de aplicações de inteligência artificial e visão artificial.

Graças a uma ferramenta como o OpenVINO, Gelsinger prevê qual será a tendência futura: um mundo em que o cálculo se tornará misto e híbrido , com algumas operações ocorrendo na nuvem e outras na nuvem. PC do usuário.

Além disso, o treinamento de modelos de IA tornou-se mais “Pythonizado” em termos de sua linguagem de programação primária. Como tal, esta tendência está a promover uma maior acessibilidade e compatibilidade entre diferentes sistemas, como evidenciado por um número crescente de intervenientes-chave que deixam de depender apenas do CUDA para as suas necessidades.

barra lateral inferior relacionada 300

*️⃣ Link da fonte: