A batalha pelo domínio da IA esquenta!
-Intel -NVidia -IA
CUDA (Compute Unified Device Architecture) é a conhecida plataforma de processamento paralelo desenvolvida pela NVidia. A ideia por trás do CUDA é usar o poder computacional da GPU NVidia para fins de computação geral, muito além da renderização gráfica tradicional.
As GPUs são originalmente projetadas para lidar com operações relacionadas a gráficos: com CUDA, no entanto, você pode tirar proveito delas arquitetura paralelizada para realizar cálculos científicos, simulações físicas, aprendizado de máquina e outras operações que exigem muita computação.
Contando com CUDA, os desenvolvedores podem contar com um ambiente de programação que permite a utilização de diversas linguagens, ao mesmo tempo em que se beneficiam do suporte a instruções específicas da GPU.
Intel afirma que CUDA não é a tecnologia líder em inteligência artificial
O CEO da Intel, Pat Gelsinger , durante o evento de apresentação dos novos chips Core Ultra e da quinta geração de CPUs Xeon, afirmou sem rodeios que o papel predominante da NVidia no treinamento de modelos de inteligência artificial usando tecnologia CUDA é não estou aqui para ficar.
O CEO da empresa sediada em Santa Clara destacou que após treinar o modelo, ele fica independente do CUDA. Ele também afirmou que a estratégia da Nvidia com CUDA é meramente superficial e de escopo limitado, já que o mercado está caminhando para abraçar tecnologias mais abertas e acessíveis, em vez de ficar vinculado exclusivamente ao CUDA.
Como um rio inundado, Gelsinger acrescentou que num futuro próximo será o tema da inferência para desempenhar um papel essencial no campo das soluções baseadas em inteligência artificial. Segundo o CEO, a Intel conseguirá enfrentar o desafio de forma brilhante e obter resultados de alto nível, tanto com Xeon quanto com PCs edge, graças ao processador Gaudi 3.
Durante o processo de fazer previsões usando um modelo de aprendizado de máquina treinado, conhecido como fase de inferência, as informações de entrada são processadas e o modelo utiliza o conhecimento adquirido durante a fase de treinamento. Isso permite que os resultados sejam produzidos sem a necessidade de atualizações adicionais nas conexões entre os neurônios da rede.
Intel será cada vez mais competitiva no setor de inteligência artificial
Gelsinger reiterou que a Intel será extremamente competitiva em soluções de IA para data centers. Primeiro de tudo, ele se concentrou em OpenVINO, sigla para Open Visual Inference and Neural network Optimization: este é um kit de ferramentas de desenvolvimento de software criado pela Intel. Ele permite otimizar o uso de redes neurais para execução em hardware Intel, melhorando o desempenho e a eficiência.
OpenVINO suporta vários modelos, incluindo redes neurais convolucionais, redes neurais recorrentes e redes neurais generativas, das quais falamos no artigo mencionado acima. Sua flexibilidade e desempenho otimizado o tornam uma ferramenta muito útil para desenvolvimento de aplicações de inteligência artificial e visão artificial.
Graças a uma ferramenta como o OpenVINO, Gelsinger prevê qual será a tendência futura: um mundo em que o cálculo se tornará misto e híbrido , com algumas operações ocorrendo na nuvem e outras na nuvem. PC do usuário.
Além disso, o treinamento de modelos de IA tornou-se mais “Pythonizado” em termos de sua linguagem de programação primária. Como tal, esta tendência está a promover uma maior acessibilidade e compatibilidade entre diferentes sistemas, como evidenciado por um número crescente de intervenientes-chave que deixam de depender apenas do CUDA para as suas necessidades.
barra lateral inferior relacionada 300
*️⃣ Link da fonte: