Microsoft Research KBLaM revoluciona LLMs

Microsoft Research KBLaM: revolução na IA

A Microsoft Research apresentou uma abordagem inovadora chamada KBLaM (Knowledge Base-Augmented Language Models). O método permite incorporar conhecimento externo diretamente nos LLMs (modelos de linguagem de grande porte).

Essa integração ocorre sem necessidade de módulos de recuperação externos ou novo treinamento do modelo. O KBLaM representa um avanço significativo na maneira como os LLMs absorvem e utilizam conhecimento.

Aliás, o novo sistema promete eficiência, precisão e menor ocorrência de erros nos resultados produzidos.

Como funciona o Microsoft Research KBLaM

Diferentemente de técnicas como o Retrieval-Augmented Generation (RAG), o KBLaM não depende de um sistema de busca externa. Em vez disso, transforma informações em vetores que são integrados ao modelo por meio da chamada “atenção retangular”.

Essa atenção específica permite que o modelo acesse a base de conhecimento diretamente. Contudo, os tokens de conhecimento não interagem entre si, nem com o input original.

Assim, o modelo processa informações com menos sobrecarga e maior velocidade. Conforme a base cresce, o consumo computacional permanece escalável.

Eficiência computacional elevada

O RAG enfrenta problemas de escalabilidade. Afinal, quanto mais tokens de conhecimento são inseridos, mais interações o modelo precisa processar. Com 1.000 tokens, são 1 milhão de pares. Com 10.000 tokens, o número chega a 100 milhões.

Por outro lado, o KBLaM resolve essa questão com um acesso unidirecional. Os tokens de entrada acessam os tokens de conhecimento, mas o contrário não ocorre. Portanto, o custo computacional cresce de forma linear.

Segundo os pesquisadores, uma única GPU pode processar mais de 10.000 triplas de conhecimento. Isso equivale a aproximadamente 200.000 tokens.

KBLaM reduz alucinações em LLMs

Outro destaque importante é a redução das chamadas “alucinações”, que ocorrem quando o modelo inventa informações.

Em testes práticos, o KBLaM superou métodos tradicionais ao se recusar a responder perguntas mal formuladas ou desconhecidas. Assim, o modelo demonstrou responsabilidade e precisão nos dados utilizados.

Além disso, o sistema é mais transparente. Afinal, cada informação pode ser rastreada até um token específico, o que melhora a interpretabilidade.

Compatibilidade com Llama e Phi

O código do KBLaM foi disponibilizado como open source, o que permite sua adoção ampla. Ele é compatível com modelos populares, como o Llama-3 (Meta) e o Phi-3 (Microsoft). Em breve, também será compatível com transformers do Hugging Face.

Apesar disso, os pesquisadores alertam: o KBLaM ainda não está pronto para uso em larga escala. Atualmente, ele funciona bem em perguntas simples, mas ainda precisa de melhorias para tarefas mais complexas.

Mesmo assim, trata-se de um avanço promissor que pode ser base para futuras aplicações.

A nova fronteira dos modelos de linguagem

Os LLMs vêm aumentando suas janelas de contexto para processar mais dados de uma vez. No entanto, essa expansão nem sempre significa resultados confiáveis.

Nesse contexto, o KBLaM surge como uma solução inteligente. Em vez de expandir a janela, ele organiza melhor o conhecimento e o conecta diretamente aos inputs. Isso reduz o desperdício de processamento e melhora a eficácia da resposta.

Analogamente, pode-se comparar o modelo tradicional a uma biblioteca desorganizada. Já o KBLaM seria uma biblioteca indexada e otimizada para o acesso direto.

KBLaM inaugura nova era para IA

Com o KBLaM, a Microsoft Research apresenta uma alternativa real aos métodos baseados em recuperação externa. O sistema é mais simples, transparente e escalável.

Portanto, empresas que utilizam IA em suas operações podem se beneficiar dessa inovação. Seja na criação de assistentes inteligentes, análise de dados ou automação, o KBLaM pode elevar a qualidade dos resultados entregues.

Ainda que em fase inicial, o potencial do modelo é inegável. Afinal, conhecimento estruturado e diretamente acessado oferece muito mais controle e precisão às respostas.

C4 Lab: soluções em IA para empresas brasileiras

Se sua empresa busca soluções práticas em inteligência artificial, a C4 Lab pode ajudar.

A equipe da C4 Lab é especialista em desenvolver agentes de IA personalizados, além de oferecer treinamentos e workshops corporativos em todo o Brasil.

Entre em contato com um dos nossos especialistas e descubra como a IA pode transformar sua operação.

Fonte: The-Decoder