A Intel está otimizando estruturas e bibliotecas de código aberto para IA generativa para permitir desempenho superior em seus aceleradores de hardware. Hugging Face, uma das principais bibliotecas de código aberto para aprendizado de máquina, relatou que o Habana Gaudi2 da Intel superou nvidia‘s A100-80G na execução de inferência nos 176 bilhões de parâmetros BLOOMZ modelo em 20%. Gaudi2 também mostrou um desempenho 3x mais rápido que o A100-80G no modelo BLOOMZ menor de 7 bilhões de parâmetros. O Abraçando o rosto Optimum Habana A biblioteca simplifica a implantação de grandes modelos de linguagem nos aceleradores Gaudi.
Além disso, Stability AI’s Stable Diffusion, um modelo generativo de IA para geração de texto para imagem, agora roda 3,8 vezes mais rápido em processadores Intel Xeon Scalable de 4ª geração com Intel AMX integrado. Essa aceleração foi alcançada sem nenhuma alteração de código, e a precisão de mistura automática usando o Intel Extension para PyTorch com Bfloat16 pode reduzir ainda mais a latência para apenas 5 segundos.
Os processadores Xeon de 4ª geração da Intel oferecem uma solução sustentável e com baixo consumo de energia para cargas de trabalho de IA em larga escala. Com aceleradores integrados como o Intel AMX, esses processadores podem aumentar o desempenho de inferência e treinamento em 10 vezes em vários casos de uso de IA, além de melhorar o desempenho por watt em até 14 vezes em comparação com a geração anterior. Essa abordagem permite uma estratégia de construção única e implantação em qualquer lugar com soluções flexíveis e abertas.
A IA generativa pode melhorar significativamente as capacidades humanas, mas uma abordagem centrada no ser humano e responsável para seu desenvolvimento e implantação é crucial. A governança transparente da IA por meio de um ecossistema aberto é necessária para garantir práticas éticas e reduzir a dívida ética. A Intel está comprometida em democratizar a IA investindo em hardware e dando suporte a um ecossistema aberto para atender às necessidades de computação de todos os aspectos da IA, incluindo IA generativa.
A Intel está democratizando o acesso à computação e ferramentas, incluindo grandes modelos de linguagem, para reduzir custos e melhorar a equidade. LLMs personalizados estão sendo desenvolvidos para SE pacientes para melhorar a comunicação. A Intel promove um ecossistema aberto para construir confiança e garantir a interoperabilidade com uma abordagem multidisciplinar que se concentra na ampliação do potencial humano por meio da colaboração homem-IA e soluções de eficiência energética. Uma abordagem aberta é um caminho a seguir para a IA.