Blog ENI : Toute la veille numérique !
💥 Accédez en illimité à
tous nos livres & vidéos, sur l'IA, le dev, les réseaux... Cliquez ici
💥 -100€ sur l'abonnement annuel à
la Bibliothèque Numérique ENI. Cliquez ici
  1. Livres et vidéos
  2. L’IA et la génération de texte
  3. Introduction à l'intelligence artificielle générative
Extrait - L’IA et la génération de texte Comprendre et maîtriser ChatGPT, Gemini, Perplexity, Mistral, Claude
Extraits du livre
L’IA et la génération de texte Comprendre et maîtriser ChatGPT, Gemini, Perplexity, Mistral, Claude Revenir à la page d'achat du livre

Introduction à l'intelligence artificielle générative

Introduction

Attention, ce chapitre peut être un peu complexe pour les néophytes de l’IA ! Il n’est pas nécessaire pour maîtriser les IA génératives mais il n’en est pas moins important, notamment pour comprendre ce qu’il se passe derrière l’interface de dialogue. Pour ceux qui veulent pratiquer tout de suite, je vous recommande directement d’aller au chapitre L’avancée des modèles GPT et leurs alternatives, vous pourrez revenir sur ce chapitre lorsque vous serez plus aguerris.

Historique de l’IA générative

Les premiers concepts et algorithmes

Les premiers concepts d’intelligence artificielle remontent à la première moitié du XXe siècle, lorsque des scientifiques et des penseurs ont commencé à imaginer des machines capables de penser et d’apprendre comme des êtres humains. Les travaux d’Alan Turing, en particulier, ont posé les bases théoriques de l’IA avec son concept de « machine universelle » et le fameux « test de Turing » qui reste une référence encore aujourd’hui pour évaluer l’intelligence des machines.

Les premières tentatives concrètes de création d’algorithmes intelligents ont pris forme dans les années 1950. L’un des projets pionniers significatifs fut celui d’Arthur Samuel sur le jeu de dames, où il a développé l’idée d’apprentissage automatique par auto-amélioration. Ce projet a démontré que les machines pouvaient non seulement suivre un ensemble préétabli de règles, mais aussi apprendre et évoluer à partir de leurs propres expériences.

Un autre jalon historique dans ce domaine est le programme ELIZA, conçu par Joseph Weizenbaum au MIT dans les années 1960. ELIZA était un chatbot primitif capable de simuler une conversation humaine en suivant un script défini. Bien qu’il ne comprenait pas réellement les conversations, ce programme montrait comment des règles simples pouvaient créer une interaction apparemment intelligente.

Actuellement, beaucoup de chatbots reposent sur ce principe, même sur des sites de grands groupes…

Parallèlement à ces efforts programmatiques, la théorie des automates cellulaires proposée par John von Neumann introduisait la possibilité de systèmes capables de s’autorépliquer et d’exécuter des tâches complexes en utilisant des règles locales simples. Ces automates représentaient une approche précoce vers la compréhension du comportement émergent basé sur des algorithmes basiques et répétitifs.

Dans les années suivantes, l’avènement...

Principe de fonctionnement des modèles de langage

Large Language Models (LLM)

Les grands modèles de langage, ou Large Language Models (LLM), reposent sur une architecture spécifique : celle du Transformer, que nous avons vue précédemment. Les LLM sont des outils d’intelligence artificielle conçus pour comprendre et générer du langage humain. Ils sont entraînés sur de vastes quantités de données textuelles provenant d’Internet, en utilisant des techniques d’apprentissage profond, telles que celles mises en œuvre dans des modèles comme GPT.

Prenons un exemple simple pour illustrer cette puissance : dans la phrase « Le chat qui dort sur le canapé est noir », un modèle traditionnel aurait peut-être eu du mal à relier le mot « noir » à « chat » plutôt qu’à « canapé ». Grâce au mécanisme d’attention du Transformer, le modèle peut facilement établir cette relation, en identifiant que « noir » décrit bien « chat », même si ces deux mots ne sont pas adjacents. Cette capacité à capturer des dépendances complexes dans une phrase rend les Transformers particulièrement efficaces pour comprendre le contexte et les nuances du langage.

Le processus d’apprentissage se fait en deux étapes : un pré-entraînement sur un large éventail de textes, suivi d’un affinage sur des données plus spécifiques. Cette approche permet aux LLM de comprendre le contexte et de générer des réponses cohérentes à diverses questions. Les LLM ont un impact significatif dans le monde de l’entreprise, notamment pour le service client, la rédaction de documents et la fourniture de solutions personnalisées.

Une fois ces modèles...