Large Language Models (LLMs), a tecnologia que alimenta os chatbots de IA, demonstraram capacidade na resolução de tarefas complexas. No entanto, por vezes sofrem de alucinações, um fenómeno em que os resultados apresentados são plausíveis, mas factualmente incorretos – limitando a sua utilização mais ampla em vários setores. O Google DeepMind, o braço de pesquisa de IA da empresa, anunciou agora um novo modelo que visa reduzir as alucinações e responder com respostas que “ultrapassam os resultados mais conhecidos em problemas importantes”.
Chamado FunSearch, esse grande modelo “procura programas que descrevem como resolver um problema, e não qual é a solução”, Google explica em um artigo de pesquisa. A empresa demonstrou isso usando o modelo e descobrindo uma solução para um quebra-cabeça científico de longa data, produzindo novas informações verificáveis e valiosas que não existiam anteriormente.
Como funciona o FunSearch
FunSearch (abreviação de pesquisa no espaço funcional), emparelha um LLM pré-treinado com um avaliador sistemático. Ele combina um LLM chamado Codey, uma versão do PaLM 2 do Google que é ajustado em código de computador, com sistemas que rejeitam respostas incorretas ou sem sentido e reconectam as boas.
Um segundo algoritmo verifica e pontua o que Codey apresenta. As melhores sugestões – corretas e incorretas – são salvas e devolvidas ao Codey.
“Muitos serão absurdos, alguns serão sensatos e alguns serão verdadeiramente inspirados. Você pega aqueles verdadeiramente inspirados e diz: ‘Ok, pegue estes e repita’”, explicou o coautor do artigo Pushmeet Kohli, vice-presidente de pesquisa do Google DeepMind.
Para testar o modelo, os pesquisadores usaram o FunSearch para abordar um problema matemático: o problema de empacotamento de lixo. O problema envolve tentar embalar os itens no menor número possível de caixas. Os pesquisadores disseram que o FunSearch descobriu uma maneira de resolver o problema que é mais rápida do que as criadas por humanos.
Como o FunSearch pode ser usado no futuro
Com problemas de alucinação, os LLMs não são usados na descoberta científica e na resolução de problemas matemáticos difíceis. O novo LLM pode fornecer uma porta de entrada para implantar tais programas em aplicações do mundo real.
Facebook
Twitter
Linkedin
fim do artigo