Au fond, le principal élément nécessaire est bien la puissance de calcul.
Côté données, il y a 3 cas à distinguer :
- former un modèle,
- la simple exécution d’un modèle existant,
- l’utilisation d’un modèle existant avec accès à des données supplémentaires.
Pour s’entraîner, il faut un stock énorme de données, éventuellement enrichies de métadonnées pour l’apprentissage (par exemple, pour un modèle de reconnaissance d’images, on aura un stock important d’images, et pour chaque image des annotations décrivant leur contenu, généralement faites par un humain). ou une autre IA puis vérifiée par un humain). Ces données proviennent souvent d’Internet, mais il est de loin préférable de les copier localement pour des raisons de performances et de reproductibilité (une image distante identifiée par son URL, son contenu peut éventuellement évoluer, etc.).
Pour utiliser un modèle, les seules données nécessaires sont le modèle lui-même (quelques dizaines ou centaines de Go, selon la taille du modèle, à répliquer sur tous les nœuds).
Pour utiliser un modèle avec enrichissement, il faut également fournir des données d’enrichissement, mais là il n’est pas forcément nécessaire de les stocker dans le datacenter, elles peuvent être recherchées via un moteur de recherche externe. L’idée à ce niveau est que lorsque vous demandez quelque chose à votre modèle, au lieu de simplement lui transmettre la question brute et de lui demander de répondre seul, nous effectuons un prétraitement qui, en fonction de la question, récupérera les documents susceptibles d’être pertinents pour le sujet. ces documents sont ensuite envoyés au modèle avec la question pour être utilisés dans la construction de la réponse. Donc en théorie, vous pouvez tout à fait faire une simple requête sur un moteur de recherche public pour récupérer des documents et les utiliser, sans avoir à les stocker dans le DC. En pratique, on aura quand même généralement de meilleurs résultats si le service construit son propre index, comme le fait un moteur de recherche, car l’index peut alors être optimisé pour cet usage. Nous pourrons notamment utiliser notre propre algorithme de recherche sémantique de proximité en langage naturel, qui pourra dériver du modèle de l’IA, la sémantique pour trouver des documents, plutôt que d’être « limité » par les capacités d’un moteur de recherche. public, pas forcément toujours très bon pour le langage naturel.
Dans ce dernier cas, on va donc, en plus du modèle, stocker au moins l’index, et éventuellement aussi une partie des documents qui ont servi à le construire, mais pas la totalité, ce serait vite trop gros… On garde plutôt un référence, et tant pis si le document finit par ne plus être accessible, nous le supprimerons alors de l’index.
Related News :