Contents

A fórmula MatX para o sucesso

/images/matx-hardware-modelli-intelligenza-artificiale.jpg -Negócios

Com o Vale do Silício como pano de fundo, uma nova startup e sua ambiciosa missão de redefinir as capacidades do hardware para a inteligência artificial estão realmente fazendo incursões. Trata-se de MatX , uma empresa promissora fundada por dois ex-engenheiros do Google, Reiner Pope e Mike Gunter.

A MatX apresenta-se como uma empresa pioneira no design de hardware especificamente concebido para i LLM (Large Language Models), visando maximizar o desempenho e a eficiência. Aspectos essenciais no caso de modelos generativos.

Pope, CEO da MatX, traz consigo mais de uma década de bagagem experiencial, formada durante seu longo período de “militância” no Google. Dentro da empresa, o engenheiro teve papel crucial no desenvolvimento de chips para aprendizado de máquina e no desenvolvimento de infraestrutura para sistemas distribuídos. Por sua vez, Gunter, CTO da MatX, traz um vasto conhecimento acumulado ao longo de 28 anos dedicados à arquitetura de hardware. Ele era o chefe do Google designer de chips para aprendizado de máquina.

/images/matx-logo-IA.png

MatX: Maximizando o desempenho de chips de IA usando hardware dedicado

No centro da missão da MatX está o compromisso de melhorar o desempenho dos maiores LLMs. Enquanto os fabricantes tradicionais de chips abordam o processo de design com uma abordagem “tamanho único”, o MatX usa uma receita adaptada especificamente para LLMs. Essa escolha permite que a MatX alcance níveis de eficiência sem precedentes, estabelecendo novos parâmetros de qualidade e disponibilidade de soluções de inteligência artificial.

No centro do inovador design de chip do MatX, há ênfase tanto na fase de treinamento (a evidentemente mais cara) quanto na otimização da inferência.

Segundo os fundadores da MatX, suas soluções já são capazes de suportar a implantação de modelos massivos baseados em Transformers, suportando bilhões de parâmetros e incorporando arquiteturas densas e MoE (especialista misto).

Capaz de lidar com milhares de usuários simultaneamente durante a inferência e atingir um rendimento de 10 ZettaFLOPS (10²²) na fase de treinamento de modelos de linguagem classe 7B, o MatX estabelece um novo padrão em desempenho e escalabilidade.

Falando em escalabilidade, os chips MatX permitem a criação de clusters compostos por centenas de milhares de chips. Esse recurso combinado com o controle de hardware de baixo nível permite que pesquisadores e desenvolvedores desbloqueiem novas frentes de inovação no campo da inteligência artificial.

Um olhar para o futuro

Na MatX, fornecemos um aumento substancial em recursos computacionais para os mais extensos Large Language Models (LLMs), o que permite que laboratórios dedicados desenvolvam modelos que são significativamente mais inteligentes e práticos em uma ordem de grandeza. Isto é evidenciado pela nossa declaração publicada na plataforma MatX.

Já olhando para o futuro, a MatX imagina um cenário em que os seus chips possam permitir acelerar a adoção de modelos avançados de inteligência artificial durante três a cinco anos, democratizando o acesso à tecnologia de IA e alimentando avanços sem precedentes na investigação.

Permitindo que até mesmo startups em estágio inicial treinem e implantem modelos de classe GPT-4 de maneira econômica, a MatX está preparada para inaugurar uma nova era de inovação orientada por IA, onde os limites do que é possível podem ser constantemente redefinidos.

Crédito da imagem de abertura: iStock.com – BlackJack3D

barra lateral inferior relacionada 300

*️⃣ Link da fonte:

lemos em uma nota , BlackJack3D ,