Pesquisar
Close this search box.

O que é a geração aumentada de recuperação?

O que é a geração aumentada de recuperação?

Compartilhe

O que é a geração aumentada de recuperação?

Retrieval-Augmented Generation (RAG) é o processo de otimizar a saída de um grande modelo de linguagem, de forma que ele faça referência a uma base de conhecimento confiável fora das suas fontes de dados de treinamento antes de gerar uma resposta.

Grandes modelos de linguagem (LLMs) são treinados em grandes volumes de dados e usam bilhões de parâmetros para gerar resultados originais para tarefas como responder a perguntas, traduzir idiomas e concluir frases.

A RAG estende os já poderosos recursos dos LLMs para domínios específicos ou para a base de conhecimento interna de uma organização sem a necessidade de treinar novamente o modelo. É uma abordagem econômica para melhorar a produção do LLM, de forma que ele permaneça relevante, preciso e útil em vários contextos.

Por que a geração aumentada de recuperação é importante?

O LLM é uma tecnologia fundamental utilizada pela inteligência artificial (IA) que alimenta chatbots inteligentes e outras aplicações de processamento de linguagem natural (PLN). O objetivo é criar bots que possam responder às perguntas dos usuários em vários contextos, utilizando-se de fontes de conhecimento confiáveis. Infelizmente, a natureza da tecnologia LLM introduz imprevisibilidade nas respostas geradas pelo LLM. Além disso, os dados usados para treinar os LLMs são fixos, o que implica na existência de uma data limite para o conhecimento que podem fornecer.

Os LLMs enfrentam uma série de desafios atualmente, como os seguintes:

  • Fornecer informações falsas quando não possuem uma resposta adequada.
  • Oferecer informações desatualizadas ou genéricas quando os usuários solicitam respostas específicas e atualizadas.
  • Gerar respostas baseadas em fontes não confiáveis.
  • Criar respostas imprecisas devido à confusão terminológica, quando diferentes fontes de treinamento utilizam a mesma terminologia para descrever conceitos distintos.

Podemos entender o grande modelo de linguagem (LLM) como um funcionário recém-contratado que opta por ignorar as notícias atuais, mas mesmo assim responde a todas as perguntas com total convicção. Contudo, essa abordagem pode impactar negativamente a confiança dos usuários, o que não é desejável para seus chatbots!

A abordagem RAG pode ser usada para solucionar alguns desses desafios. Ela direciona o LLM a recuperar dados relevantes, provenientes de fontes de conhecimento confiáveis e previamente definidas. Dessa maneira, as organizações ganham mais controle sobre o texto gerado e os usuários entendem melhor sobre o processo de geração de respostas do LLM.

Quais são os benefícios da geração aumentada de recuperação?

O uso da tecnologia RAG traz diversas vantagens para as iniciativas de IA generativa de uma organização.

Implementação econômica

Geralmente, a criação de chatbots começa com a utilização de um modelo de base. Os modelos de base (FMs) são modelos de ML treinados em um amplo espectro de dados generalizados e não rotulados.

Os custos computacionais e financeiros necessários para atualizar os FMs com informações específicas da organização ou do domínio são altíssimos. RAG oferece uma abordagem para incorporar novos dados no LLM que é mais viável economicamente. Isso faz com que a tecnologia de inteligência artificial generativa (IA generativa) seja mais acessível e aplicável em grande escala.

Informações atualizadas

Mesmo que as fontes de dados de treinamento originais de um LLM sejam adequadas às suas necessidades, a manutenção da sua relevância continua sendo desafiadora. O RAG possibilita que desenvolvedores forneçam dados de pesquisa, estatísticas ou notícias mais recentes diretamente aos modelos generativos. Através dessa abordagem, é possível conectar o LLM a feeds de mídia social ao vivo, sites de notícias ou outras fontes de informações atualizadas frequentemente de maneira direta. O LLM então pode fornecer as informações mais recentes aos usuários.

Maior confiança de usuários

Com a tecnologia RAG, o LLM pode apresentar informações precisas com atribuição de fontes. O resultado pode conter citações ou referências às fontes utilizadas. Os usuários também podem consultar os documentos de origem, caso precisem de mais esclarecimentos ou detalhes. Isso pode aumentar a confiança e credibilidade na sua solução de IA generativa.

Maior controle na etapa de desenvolvimento

A tecnologia RAG também permite que a equipe de desenvolvimento teste e aprimore os recursos de conversação ou chat de forma mais eficiente. É possível gerenciar e modificar as fontes de informação do LLM para adequá-las a necessidades mutáveis ou para uso multifuncional.

A equipe de desenvolvimento, por sua vez, tem a capacidade de limitar o acesso a informações sensíveis de acordo com níveis de autorização, garantindo, assim, que o LLM produza respostas adequadas. Além disso, caso o LLM referencie fontes de informação incorretas para perguntas específicas, a equipe pode intervir prontamente e realizar as correções necessárias. Dessa forma, assegura-se a precisão e a confiabilidade das respostas geradas. As organizações podem adotar a tecnologia de IA generativa com maior segurança para um leque mais vasto de aplicações.

Como funciona a geração aumentada de recuperação?

Na ausência da RAG, o LLM depende da entrada do usuário para criar uma resposta segundo as informações de treinamento ou de base. Com a implementação da RAG, é introduzido um componente de recuperação de informações que utiliza a entrada do usuário para extrair informações de uma nova fonte de dados primeiro.

A consulta do usuário e as informações relevantes são fornecidas ao LLM. O LLM usa esse novo conhecimento e seus dados de treinamento para criar respostas mais adaptadas. As seções a seguir fornecem uma visão geral do processo.

Criação de dados externos

Os dados externos, obtidos de múltiplas fontes como APIs, bancos de dados ou repositórios de documentos, são novos e não fazem parte do conjunto de dados de treinamento original do LLM.

Os dados podem existir em vários formatos, como arquivos, registros de banco de dados ou texto longo. Outra técnica de IA, chamada de incorporação de modelos de linguagem, converte os dados em representações numéricas e os armazena em um banco de dados de vetores. Esse processo cria uma biblioteca de conhecimento que os modelos de IA generativa podem compreender.

Recuperação de informações relevantes

A próxima etapa é realizar uma pesquisa de relevância. A consulta do usuário é convertida em uma representação vetorial e combinada com os bancos de dados de vetores. Por exemplo, considere um chatbot inteligente que responde perguntas relacionadas a recursos humanos para uma organização. S

e um funcionário pesquisar “Quantas férias anuais eu tenho direito?”, o sistema recuperará os documentos da política de férias anuais com o registro de férias anteriores do funcionário. Esses documentos específicos serão fornecidos porque são altamente relevantes para a consulta em questão. A relevância foi calculada e estabelecida mediante cálculos e representações vetoriais matemáticas.

Enriquecimento de prompts fornecidos ao LLM

Posteriormente, o modelo RAG, ao receber a entrada do usuário, também chamada de prompt, enriquece essa entrada, adicionando, assim, os dados recuperados que são relevantes ao contexto. Desse modo, o conteúdo final se torna mais completo e contextualizado. Esta etapa usa técnicas de engenharia de prompts para se comunicar de forma eficaz com o LLM. Com um prompt enriquecido, os grandes modelos de linguagem podem gerar respostas mais contextualizadas às consultas dos usuários.

Atualização de dados externos

Mas daí surge outra questão: e se os dados externos ficarem obsoletos? Para manter a contemporaneidade das informações, basta atualizar os documentos de forma assíncrona e atualizar a representação incorporada dos documentos. Isso pode ser feito por meio de processos automatizados em tempo real ou de processamento em lotes periódicos. Esse é um desafio comum na análise de dados, onde diversas metodologias provenientes da ciência de dados para gestão de mudanças são aplicáveis.

O diagrama a seguir mostra o fluxo conceitual do uso de RAG com LLMs.

 

A pesquisa semântica aprimora os resultados da RAG ao ser aplicada por organizações que buscam integrar vastas fontes externas de conhecimento às suas aplicações de grande modelo de linguagem (LLM).

As empresas modernas armazenam uma grande quantidade de informações de vários sistemas, incluindo manuais, perguntas frequentes, relatórios de pesquisa, guias de atendimento ao cliente e documentação de recursos humanos. Recuperar contexto em grande escala é uma tarefa desafiadora, o que impacta diretamente na qualidade dos resultados gerados.

As tecnologias de pesquisa semântica podem escanear grandes bancos de dados, que contém informações variadas, e recuperar informações com maior precisão.

Como exemplo, são capazes de responder a perguntas como “Quanto foi gasto em reparos de máquinas no ano passado?” ao mapear a pergunta para os documentos relevantes e retornar um texto específico, ao invés de simplesmente retornar resultados de pesquisa. Depois, os desenvolvedores podem usar essa resposta para fornecer mais contexto ao LLM.

Abordagens tradicionais ou pesquisa baseada em palavras-chave no contexto da RAG tendem a gerar resultados restritos em tarefas que demandam amplo conhecimento. Os desenvolvedores também precisam lidar com incorporações de palavras, fragmentação de documentos e outras complexidades durante o processo manual de preparação de dados.

Em contrapartida, as tecnologias de busca semântica não apenas automatizam completamente o processo de preparação da base de conhecimento, mas também dispensam qualquer necessidade de intervenção manual por parte dos desenvolvedores.

Além disso, essas tecnologias, por um lado, produzem trechos de texto semanticamente relevantes e, por outro lado, organizam palavras-chave de maneira estratégica. Como resultado, maximizam a qualidade do conteúdo fornecido à RAG.

Fonte: https://aws.amazon.com/pt

Siga FebelTech no Google Noticias.

 

 

Bem-vindo à seção de Tecnologia. Nós exploramos avanços, tendências e o impacto da tecnologia na sociedade. De inteligência artificial a cibernética, estamos aqui para enriquecer sua compreensão desse mundo em constante evolução. Junte-se a nós para entender como a tecnologia molda nosso presente e futuro.

Contato:

© 2023. Todos os Direitos Reservados
…Até aqui nos ajudou o Senhor. 1Samuel 7b

Este blog utiliza cookies para garantir uma melhor experiência. Se você continuar assumiremos que você está satisfeito com ele.