Après le RAG déjà adopté par de nombreuses entreprises, le RIG propose une approche innovante pour générer des réponses plus précises et contextualisées.
Une nouvelle approche pour fiabiliser les réponses LLM. Après l’adoption massive des systèmes RAG dans les entreprises, qui permettent de contextualiser un LLM à partir d’une base documentaire, une nouvelle approche, plus intelligente, se développe. Passé sous le radar médiatique, RIG, pour Retrieval Interleaved Generation, permet à de grands modèles de langage d’apporter des réponses détaillées et documentées. Explications techniques, avantages et inconvénients… Nous vous donnons les clés de cette nouvelle approche innovante.
RAG vs RIG : fonctionnement opposé
Le RIG a été popularisé par des chercheurs de Google dans le cadre de travaux visant à réduire les hallucinations dans les LLM. L’étude, publiée en septembre 2024, présente notamment les avantages du RIG par rapport au RAG. RAG et RIG diffèrent fondamentalement dans la manière dont ils interagissent avec les bases de connaissances. Dans un système RAG traditionnel, le processus est linéaire et se déroule en trois étapes distinctes : Premièrement, la question de l’utilisateur est convertie en vecteur numérique via un modèle d’intégration. Ensuite, ce vecteur est utilisé pour rechercher les fragments de documents les plus similaires dans une base de données vectorielles. Enfin, ces fragments sont fournis comme contexte au LLM qui génère sa réponse en une seule fois.
Le RIG adopte une approche plus interactive et itérative. Au lieu de s’appuyer sur une simple recherche de similarité vectorielle, le LLM est formé pour formuler lui-même des requêtes structurées (dans le langage de base de données, par exemple SQL) tout au long de sa génération de réponses. Concrètement, lorsque le LLM génère du texte et qu’il a besoin de citer un fait ou une statistique, il s’interrompt pour formuler une requête précise à la base de données. Par exemple, s’il écrit « Le taux de chômage en France en 2023 était de », le modèle générera automatiquement une requête structurée pour obtenir cette information précise, puis intégrera la réponse dans son texte.
De nombreux avantages, un déploiement complexe
Grâce à son architecture agile, le RIG permet au LLM de générer des réponses plus pertinentes. Le modèle apprend à identifier les informations dont il a besoin au fur et à mesure qu’il construit sa réponse. Dans le cas de RAG, le modèle n’a pas la capacité d’interagir directement avec la base de données et doit se contenter d’un contexte initial. Par exemple, avec le RIG, pour une question complexe sur un sujet historique, le LLM pourrait d’abord rechercher le contexte général de l’époque, puis des événements spécifiques, et enfin des détails spécifiques sur les acteurs impliqués. Une méthode itérative qui offre des réponses mieux documentées que le RAG.
Bien que RIG soit prometteur, sa mise en œuvre pratique en production reste complexe. Le modèle doit en effet être affiné pour avoir la capacité de faire des requêtes structurées avec le langage de base de données approprié. De plus, RIG implique plusieurs requêtes dans la base de données et peut donc générer un coût de calcul plus élevé que RAG. Enfin, interroger directement la base de données plusieurs fois peut entraîner une latence légèrement plus élevée en réponse à l’utilisateur final.
RAG, RIG : cas d’usage définis
Bien que RIG représente une nouvelle direction prometteuse, l’approche RAG restera probablement la solution la plus simple pour la plupart des cas d’utilisation généraux où l’utilisateur a simplement besoin d’une réponse concise et factuelle. RAG brille lorsque la requête de l’utilisateur est simple et peut être abordé avec une documentation textuelle simple.
De son côté, RIG excelle dans les cas où les requêtes sont complexes et nécessitent une interaction itérative avec une base de données structurée. Par exemple, pour interroger une base de données SQL, le RIG permet de construire une réponse précise en naviguant entre différentes couches d’informations.
Pour les entreprises, tester et expérimenter RIG sera essentiel pour évaluer le potentiel dans des cas d’utilisation ciblés tels que des agents spécialisés ou des systèmes nécessitant des réponses basées sur des données dynamiques et complexes. Toutefois, pour la plupart des chatbots généralistes, RAG reste la solution la plus pertinente.