Blog ENI : Toute la veille numérique !
Accès illimité 24h/24 à tous nos livres & vidéos ! 
Découvrez la Bibliothèque Numérique ENI. Cliquez ici
💥 Les 22 & 23 novembre : Accès 100% GRATUIT
à la Bibliothèque Numérique ENI. Je m'inscris !
  1. Livres et vidéos
  2. Intelligence artificielle avec AWS
  3. Intelligence artificielle, mythes et réalités
Extrait - Intelligence artificielle avec AWS Exploitez les services cognitifs d'Amazon
Extraits du livre
Intelligence artificielle avec AWS Exploitez les services cognitifs d'Amazon Revenir à la page d'achat du livre

Intelligence artificielle, mythes et réalités

Introduction

L’exemple de 2001 : l’Odyssée de l’espace décrit dans l’introduction est un des fantasmes parmi tant d’autres qui colle à l’expression « Intelligence Artificielle ». Depuis le canular du Turc mécanique (https://fr.wikipedia.org/wiki/Turc_mécanique) à la fin du XVIIIe siècle, la machine intelligente ne cesse de faire rêver.

Pourtant, comme pour les « fake news », la réalité scientifique cède souvent la place au fantasme. Comment ne pas résister au charme vénéneux d’Ava dans le film Ex Machina (https://en.wikipedia.org/wiki/Ex_Machina_(film)) ? Comment ne pas se sentir menacé par The Terminator (https://fr.wikipedia.org/wiki/Terminator) ou les réplicants de Blade Runner (https://fr.wikipedia.org/wiki/Blade_Runner_(film)), préfigurant la société du futur ? Ces dystopies alimentent les imaginations depuis des années et sont pourtant très éloignées de ce qu’est et de ce que promet l’intelligence artificielle, en tout cas dans notre futur proche fait d’IA faibles. L’objectif de ce premier chapitre est de mettre un terme à ces spéculations hollywoodiennes et de faire un point sur l’état de l’art de l’IA.

Dans le reste du livre, j’écris...

Intelligence artificielle et stupidité naturelle

En 2015, dans une interview, Joël de Rosnay déclarait « Il faut avoir moins peur de l’intelligence artificielle que de la stupidité naturelle ».

Il le faisait en réponse aux nombreuses mises en garde émises par d’autres gourous comme Bill Gates, Stephen Hawking et Elon Musk. En effet, le risque, avec le développement rapide de l’IA est que cette dernière nous échappe, s’améliore toute seule et finisse par décréter qu’en fait l’être humain est dangereux pour sa survie et celle de la planète, et donc s’en débarrasse. Et voici que l’élève devenu plus intelligent que le maître décide d’assassiner ce dernier.

Je reviens en détail sur le mythe de la singularité dans la section Un peu de prospective de ce chapitre. D’ici là, vous vous serez sans doute fait votre propre opinion et conclurez comme moi et beaucoup d’autres experts de l’IA que non, la singularité n’est pas pour demain, mais que oui, il convient de réguler ses développements et ses usages. Mais commençons tout d’abord par étudier ce qu’il en est de l’IA aujourd’hui.

1. Intelligence étroite et intelligence générale

L’IA n’est pas apparue l’année dernière. Elle forme une branche des mathématiques et de l’informatique depuis de nombreuses années. Cependant, ce sont réellement ces vingt dernières années qu’elle a envahi, à l’insu de notre plein gré, applications et services en ligne. Le docteur Kai-Fu Lee dans son livre AI Superpowers propose une classification historique de l’IA en quatre périodes :

  • IA Internet

  • IA Business

  • IA Perception

  • IA Autonome

Reprenons succinctement ces quatre périodes.

a. IA Internet

C’est l’IA à laquelle on est habitué, au point où l’on ne se rend pas forcément compte qu’il s’agit d’IA. Si vous avez acheté des produits sur un site marchand, le moteur de recommandation est piloté par de l’IA. Si vous êtes abonné à un service de diffusion de films et séries, là encore...

Un peu (beaucoup) de mathématiques

Il est impossible de couvrir le sujet en quelques pages. Des livres entiers, que dis-je, des bibliothèques entières sont consacrées aux mathématiques destinées à conceptualiser, modéliser et implémenter les algorithmes d’apprentissage machine et d’intelligence artificielle. L’objectif de ces quelques pages est de fournir les quelques bases nécessaires à leur compréhension et à rafraîchir les mémoires des cours de mathématiques du secondaire et du supérieur pour ceux qui en ont faits !

Une guerre est en cours depuis bien longtemps entre statisticiens et experts de l’apprentissage machine. Les premiers sont des mathématiciens fiers de leur science, les seconds des informaticiens travaillant de manière empirique. De ce fait, les premiers sont les garants d’une science exacte, alors que les seconds des bidouilleurs utilisant des outils mathématiques quand bon leur semble. C’est un peu la guerre des Horaces et des Curiaces dont on ne sait qui a tort ou raison, mais les Horaces devront tôt ou tard se soumettre au joug de la loi. Pour faire simple, ma vision est la suivante : la statistique (et les statisticiens) s’occupe de trouver un modèle dans un amas de données et d’en tirer des mesures, les statistiques (par exemple, 30 % d’une population donnée possède un vélo et 57 % ont moins de 25 ans) ; l’apprentissage machine utilise les statistiques et d’autres méthodes pour prédire des données qui ne font pas partie de l’amas de données initial (par exemple, en déplaçant mon cavalier, j’ai 77 % pour cent de chance de gagner la partie, ce qui me met en meilleure position que mon adversaire qui n’a que 54 % de la gagner). La statistique est une science, l’apprentissage machine une discipline de l’ingénieur. Le second a juste besoin des fondements de la première.

1. Statistiques et probabilités

J’imagine la grimace déformant votre visage à l’évocation des mots statistiques et probabilités, en tout cas, je souris à la mienne. Moyenne, médiane, pondération, déviation, autant de termes barbares...

Réseaux de neurones formels

Dans la première version du manuscrit de ce livre, le titre de cette partie était simplement Réseaux de neurones, terme toujours utilisé dans la littérature. Cependant, il m’a semblé important d’y ajouter l’adjectif consacré « formel », car un neurone dans un réseau de neurones dans le cadre de l’IA n’a que peu de similitudes avec un neurone biologique comme nous allons le voir ci-après. Pour éviter la confusion, le mot formel me semble primordial car, sans celui-ci, on peut imaginer que les réseaux de neurones utilisés en IA reproduisent le fonctionnement du cerveau. Comme le dit Yann LeCun, le responsable de l’IA chez Facebook, il y a autant de différences entre un neurone formel et un neurone biologique qu’entre un avion en papier et un aigle.

On parle aussi souvent de neurones artificiels, pour les opposer aux neurones naturels ou biologiques. Cependant, l’adjectif artificiel possède plusieurs significations et peut faire référence à une chose qui n’est pas conforme à la réalité ou qui manque de naturel, c’est tout le contraire que les chercheurs ont essayé l’obtenir et essaient toujours avec les neurones formels. L’objectif est, en effet, d’être le plus conforme à la réalité et de rendre leur fonctionnement le plus naturel possible. Je préfère donc la notion de neurone formel à celle de neurone artificiel.

Si l’idée de base était de répliquer de façon simple le fonctionnement d’un réseau de neurones biologiques, les réseaux de neurones formels s’en sont éloignés pour s’appuyer plus lourdement sur les statistiques. Il est à noter que le fonctionnement exact d’un neurone biologique et des réseaux synaptiques nous est encore grandement inconnu. Alors de là à le répliquer ! Dans les pages suivantes, je vous donne une idée du fonctionnement d’un réseau de neurones formels. Il s’agit cependant d’une branche de l’IA en évolution constante et une des plus prometteuses, a priori. Je vous conseille donc de les utiliser comme base de leur compréhension...

Données et Big Data

Pas d’IA sans données. Que celles-ci soient étiquetées ou non, que l’algorithme s’appuie sur des données existantes ou en génère au fur et à mesure de son apprentissage, elles sont la base de toutes les IA. Si les années 90 furent celles des SGBDR (Système de Gestion de Base de Données Relationnelle), les années 2000 marquent l’avènement des données non structurées. Grâce aux techniques informatiques et mathématiques vues dans les pages précédentes, il est désormais possible d’analyser des données non structurées, comme du texte, des images, des vidéos ou des flux provenant d’objets, et d’en tirer des informations intéressantes.

L’objectif de cette partie est d’effectuer un tour d’horizon rapide des types de données afin de pouvoir être en capacité de sélectionner les bonnes données comme source de nos algorithmes d’IA. Si les données sont importantes, leur qualité est critique. Comme disent les Anglo-Saxons, « garbage in, garbage out! ». Si vous fournissez des données de piètre qualité en entrée, ne vous attendez pas à obtenir des résultats probants. Prendre des décisions à partir de ces résultats peut conduire à des catastrophes.

Une des fondations de l’IA est le fameux « big data », ou mégadonnées. Que vos données soient des mégadonnées, peu transformées et stockées telles quelles, il convient de ne pas transformer vos lacs en marécages, comme nous allons le voir. Un peu de bon sens et de compréhension des mécanismes de stockage suffisent souvent, avec l’aide d’un bon expert en mégadonnées (data scientist), pour s’en sortir.

1. Données structurées

Les données structurées sont généralement le pré carré des grands éditeurs comme Oracle, Microsoft, Amazon ou IBM, avec des systèmes comme Oracle DB, MySQL, SQL Server, Aurora, DB2 ou Informix. Ils offrent des systèmes de gestion locale ou dans le cloud. Les fondamentaux restent cependant les mêmes où...

Limites actuelles

Quand on parle d’IA, j’ai tendance à dire que son développement actuel est dû à la conjonction de trois phénomènes : la puissance de calcul disponible, la vitesse des réseaux, le volume de données accessibles. Ils ont ainsi permis l’émergence du cloud et d’en diminuer drastiquement les coûts. Maintenant que nous avons parcouru les fondations théoriques et pratiques des services d’IA, regardons-en les limites actuelles.

1. Cloud ou pas ?

La question n’en est en fait pas une tant la réponse paraît évidente, dans la plupart des cas. Les services d’IA sont disponibles dans le cloud. Grâce à la mutualisation des services et des infrastructures, il est possible d’utiliser des services d’IA, voire de développer les siens sans posséder ni l’infrastructure matérielle, ni l’infrastructure logicielle.

Qui produit sa propre électricité de nos jours ? L’époque est à la mutualisation des services. Si vous souhaitez approfondir les raisons d’utiliser ou pas les services cloud, je vous invite à lire mon précédent livre, Cloud privé, hybride et public, publié aux Éditions ENI (ISBN 978-2-409-01242-6) et vous abonner à mon blog http://cloudhybride.business.

Il y a des cas cependant qui peuvent remettre en question ce choix : souveraineté nationale, algorithme propriétaire, recherche. Nous verrons que la possibilité de créer ses propres machines virtuelles dans des centres de données mutualisés et sécurisés peut en grande partie répondre à ces préoccupations. Monter un centre de données et une infrastructure physique nécessite de vastes ressources financières, humaines et matérielles.

AWS propose différentes options pour monter des applications d’IA, de l’utilisation de services prépackagés sous forme d’API aux infrastructures matérielles extensibles pour monter ses propres machines d’IA. Dans...

Un peu de prospective

Cette dernière partie se propose de conclure ce chapitre avant de se plonger dans la partie pratique du livre, en revenant sur deux grands mythes : la singularité et l’ordinateur quantique. Mythes, car de nombreux fantasmes en sont issus : la disparition de l’être humain, l’immortalité, le renversement du réchauffement climatique, les voyages intersidéraux, la fin du travail, etc.

Cependant, comme vous avez dû pouvoir le réaliser si vous avez lu les pages précédentes, si l’IA a fait des progrès colossaux ces quarante dernières années, nous ne sommes sans doute qu’à quelques centièmes de pour cent de notre compréhension des mécanismes biologiques du cerveau, de la conscience et de la vie en général. De ce fait, la machine, si elle nous est supérieure dans de nombreuses tâches, n’en est qu’à ses balbutiements pour devenir intelligente et résoudre tous les problèmes qui nous préoccupent. Un peu de philosophie pratique pour terminer notre voyage.

1. La singularité est-elle un mythe ?

« Je suis désolé Dave, je ne crois pas pouvoir faire ça ». C’est ainsi que l’ordinateur HAL 9000 refuse l’entrée dans le vaisseau de 2001 : l’Odyssée de l’espace à Dave Bowman, un des astronautes. Il a en effet surpris une conversation entre Dave et un autre astronaute, Franck Poole, en lisant sur leurs lèvres. Leur objectif est de déconnecter l’ordinateur qui semble faire des erreurs. HAL se rebiffe alors en se débarrassant des êtres humains qui veulent l’arrêter. Le mythe de la singularité technologique était alors né dans l’inconscient collectif.

Le terme vient des mathématiques. La singularité « est en général un point, une valeur ou un cas dans lequel un certain objet mathématique n’est pas bien défini ou bien subit une transition ». Par exemple, la fonction images/eq66.png admet une singularité quand images/eq67.png. En ce point, images/eq68.png tend vers l’infini. La singularité technologique est ce point dans un futur plus ou moins proche selon les futurologues à partir duquel les progrès...