Contents

Desbloqueando o poder da IA ​​no seu Mac com as mais recentes inovações da Apple!

Na busca de promover aplicativos locais de inteligência artificial, a Apple lançou uma solução de código aberto projetada especificamente para otimizar o desempenho das operações de IA em seus dispositivos Mac equipados com chips de silício. Ao incentivar os desenvolvedores a desenvolver e implantar software de IA que possa funcionar perfeitamente em suas plataformas de computação, a Apple busca melhorar a experiência geral do usuário e, ao mesmo tempo, promover a inovação no campo do aprendizado de máquina.

/images/apple-macbook-air-m2-15-pouces-test-9-1200x802.jpg Fonte: Chloé Pertuis – este site

Em 6 de dezembro, o Google revelou o Gemini, seu mais recente modelo de linguagem grande projetado para superar o GPT da OpenAI. Notavelmente, uma versão deste LLM é capaz de funcionar inteiramente em um dispositivo Pixel 8 Pro, sem a necessidade de recursos de servidor externo. Embora os dispositivos móveis possam ter capacidade de processamento limitada em comparação com os computadores desktop, é importante notar que os chips da série M da Apple são altamente considerados por seu desempenho e capacidades. Na verdade, esses chips foram integrados em vários sistemas macOS, indicando uma clara ênfase da Apple no aproveitamento da tecnologia de IA em seus produtos de computação.

Apple quer convencer os desenvolvedores a rodar IA em Macs

A empresa lançou uma estrutura “MLX” de código aberto no GitHub, que compreende módulos de software especializados projetados especificamente para a implementação eficiente e otimização de aplicações de inteligência artificial utilizando técnicas de aprendizagem profunda, com ênfase particular no desenvolvimento de modelos de linguagem usando chip de silicone. tecnologia. Esta estrutura é voltada para desenvolvedores que buscam aproveitar suas capacidades para desenvolver seus próprios projetos de IA.

/images/telechargement-11.jpeg

Um anúncio recente sobre uma atualização do grupo de pesquisa de aprendizado de máquina da Apple foi feito de maneira sutil por meio de uma postagem no Twitter de Awni Hannun, membro dessa equipe. Contrariamente às expectativas, o anúncio não foi feito durante a Worldwide Developers Conference (WWDC) ou um evento separado especificamente dedicado aos chips M3. Embora possa ser atribuído a uma agenda lotada, não podemos deixar de nos perguntar se poderia ter havido outro motivo por trás da decisão da Apple de se abster de fazer o anúncio durante esses eventos.

Sem LLM na Apple, mas com energia de sobra

No seu discurso, a Apple raramente emprega a terminologia “inteligência artificial”, optando em vez disso por referências à “aprendizagem automática”. Isto pode levar-nos a acreditar que a sociedade em geral não dá uma ênfase significativa à IA. No entanto, os recursos tecnológicos estão acessíveis aos desenvolvedores há muito tempo, com especial foco nas aplicações para iPhone. Além disso, o CEO Tim Cook reconheceu a IA como uma tecnologia fundamental.

/images/llama-smaller.gif LLaMA rodando em um laptop//Fonte: Simon Willison

A Apple possui uma abundância de recursos computacionais na forma de sua linha de dispositivos Mac e MacBook equipados com processadores M1, M2 e M3. Essas máquinas são capazes de rodar modelos de inteligência artificial de forma nativa, eliminando a necessidade de servidores externos para realizar tais tarefas. Awni Hannun sugeriu várias aplicações potenciais para esta tecnologia, incluindo o aprimoramento de um modelo de linguagem por meio de treinamento ou melhoria, geração de texto usando Mistral ou Llama de Meta, produção de conteúdo visual com Difusão Estável e até mesmo implementação de recursos de fala para texto com Whisper. Os relatórios sugerem que a Apple também pode estar trabalhando na criação de sua própria versão do ChatGPT.

*️⃣ Link da fonte:

GitHub , um tweet , AppleInsider,