Les LLM’s, un effet de mode…

L’interêt des LLM’s, Large Language Models, ne s’estompera probablement pas et va probablement grandir. En revanche, il est indéniable que les LLM’s sont à la mode et ce depuis l’arrivée de Chat GPT. En effet, cette solution facile d’accès, met à disposition la puissance des LLM’s pour le plus grand nombre. Effectivement, il n’est plus rare de croiser des personnes de son entourage qui utilisent ou qui ont déjà utilisé une solution telle que Chat GPT. Les LLM’s ne sont qu’une partie de l’IA générative mais l’impact qu’ils ont sur le monde d’aujourd’hui est déjà très important. Donc oui, les LLM’s sont bien un effet de mode qui suscitent de plus en plus l’intérêt, à la fois du grand public mais également des entreprises.
Qu’est ce qu’un LLM ?

L’Homme se distingue des machines par sa faculté à communiquer et à raisonner. Le langage est un fabuleux outil qui nous permet de communiquer, de comprendre le monde ou encore de le façonner. L’essor des IA génératives tend à rapprocher la machine de l’humain… En effet, les IA sont de plus en plus capable de calquer les caractéristiques humaines. C’est le cas des LLM’s ! En utilisant un maximum de données, l’humain a été capable de mettre en place des technologies développant la capacité de comprendre le langage naturel. Les LLM’s sont conçues pour apporter une réponse plausible à toute question qui leur est posée, sur tous les domaines.
Les différentes approches pour les entreprises

De plus en plus de sujets autour des LLM’s voient le jour en entreprise. La question centrale est de savoir comment tirer parti de la fabuleuse puissance de ces technologies afin d’obtenir un avantage business concurrentiel et ainsi maximiser les plus-values. Pour tirer ces avantages, il y a 4 axes clairs :
- Le premier axe est le fait d’utiliser le prompt directement, qu’il soit contextualisé ou non. Par exemple, utiliser un prompt pour transcrire le code dans un autre langage.
- Le second axe est l’approche RAG. RAG est l’acronyme anglais pour « retrieval augmented generation », en français « génération augmentée par extraction de données ». Cette méthode consiste à enrichir les prompts de données internes à l’entreprise. On pourrait imaginer un prompt prenant en paramètre du contenu lui indiquant les étapes à suivre pour créer un business plan, à partir d’une idée soumise par l’utilisateur.
- Le troisième axe serait d’apprendre son propre modèle mais cela n’est accessible qu’à quelques acteurs dans le monde.
- C’est là qu’intervient le dernier axe, le fine tuning. Cela consiste à aller plus en profondeur dans le fonctionnement du LLM pour revoir, notamment, la pondération des différents paramètres qui guident son fonctionnement.
RAG, la meilleure solution ?

Comme présenté au point précédent, le RAG consiste à ajouter des documents/informations supplémentaires que le LLM va prendre en compte pour répondre à la requête soumise par l’utilisateur. RAG permet de répondre à la plus grande problématique d’un prompt : le biais ! Qu’est-ce que le biais ? Le biais est un phénomène dû au fait que le LLM donne la réponse la plus plausible à la requête soumise. Cela ne permet pas forcément d’avoir une réponse vraie, c’est ce que l’on appelle les hallucinations.
Ainsi, le fait de nourrir notre prompt de documents de référence va le guider et lui permettre de répondre de manière plus précise et plus fiable aux requêtes soumises. Bien évidemment, pour tirer un avantage de cette technique, il faudra bien définir l’objectif en amont . Comme dans tout projet data, si l’objectif n’est pas maitrisé, la probabilité d’échouer est élevée.
Quelques use-cases

- Analyse de sentiments
- Tirer les hot topics des incidents
- Générer de la documentation
- Optimiser les mails envoyés à ses clients
- Changer la manière de consommer la documentation en interrogeant un chat bot
- Extraire des informations de document PDF
- Créer du contenu pour vos plateformes digitales
- Détecter les fraudes
- Etc
Les limites

Bien qu’on ne doute plus des bénéfices immenses que peuvent apporter l’usage des LMM’s, il faut être conscient des limites existantes :
- La première d’entre elle est le biais que l’on a déjà évoqué et qui pourrait être résumé dans le fait qu’un modèle de LLM se limite à ce qu’on lui a donné comme repas pour l’apprentissage. Cela peut amener des réponses erronées.
- La limitation dans le nombre de tokens en entrée. Plus on lui donne d’informations en entrée, plus la mémoire risque d’être saturée.
- L’impact de ce type de modèle peut-être considérable. En effet, il s’avère que la plupart de ces solutions sont très consommatrices en énergie et va à l’encontre de la décarbonation de l’activité humaine.
- Le nerf de la guerre : le budget. Que l’on souhaite entrainer un modèle ou utiliser un chat sur le cloud, le budget doit prendre en compte le dimensionnement des ressources et des usages, sans quoi il pourrait y avoir des surprises non souhaitées.
Conclusion

Les LLM’s sont des outils très puissants qui peuvent vous apporter un avantage concurrentiel important pour peu que vos infrastructures soient dimensionnées pour, et que vous maitrisiez le but final. Les tâches réalisables, et surtout automatisables, sont nombreuses mais il convient d’être conscient de leurs limites.


