L’homme tente de concevoir des machines capables de répliquer les caractéristiques du vivant depuis de nombreuses années. Il commença par re-créer des mouvements grâce à des mécanismes poussés, dont l’un des exemples les plus célèbres reste Léonard de Vinci qui analyse et décompose le mouvement des oiseaux dans le but de construire des ailes volantes adaptées aux hommes ou offre au roi de France François Ier un lion automate dévoilant une fleur de lys. Si cette recherche de mimétisme des comportements physiques du vivant est toujours d’actualité, (on peut penser aux robots de Boston Dynamics par exemple), le véritable enjeu à partir du développement des premiers ordinateurs programmables au XXème siècle, fut de tenter de répliquer le processus de la pensée humaine, dans le but de créer une forme d’intelligence à laquelle déléguer des tâches complexes. Ce fut le point d’entrée d’un nouvel acteur sur la grande scène de notre spectacle : les algorithmes.
En réalité, pas si nouveau, étant donné que ce mot tient son origine de la déformation du nom du grand mathématicien perse Al-Khwârizmî ayant vécu entre le VIII et IX ème siècle. Les algorithmes font partie de l’histoire des mathématiques bien avant de se formaliser dans les langages de programmation. L’algorithme est défini simplement par Dominique Cardon comme “une série d’instructions permettant d’obtenir un résultat”, une définition que l’on trouve souvent complétée de la comparaison avec une recette de cuisine pour la rendre plus compréhensible. Comme se plaisent à dire de nombreux informaticiens, il n’y a rien de plus bête qu’un ordinateur, c’est pourquoi les algorithmes sont nécessaires. Pour qu’un computer (celui qui calcule) effectue n’importe quelle tâche, il lui faut une entrée (input) pour qu’il produise une sortie (output), et que chaque étape intermédiaire soit précisément détaillée dans un programme. Celui-ci est écrit dans un langage de programmation, qui joue le rôle d’intermédiaire entre l’homme et le binaire, seule réelle langue que l’ordinateur est capable d’interpréter.
La machine pensante, humanoïde, à laquelle on peut déléguer des tâches difficiles, traîne dans l’imaginaire humain depuis très longtemps et conditionne l’idée que l’on se fait de l’intelligence artificielle. On peut remonter au mythe du Golem, cette créature d’argile issue de la mythologie juive, façonnée dans le but d’être au service de son créateur, mythe ayant inspiré le célèbre Frankenstein de Mary Shelley. On pourrait également parler des automates, système qui se meut de soi d’après Descartes, à l’allure humaine ou animale, dont l’origine remonte à l’Antiquité. Ces créatures ont influencé de nombreuses œuvres de science fiction, qui s’en sont emparées pour imaginer robots, cyborgs, et autres machines pensantes au service des êtres humains.
John McCarthy crée en 1956 l’expression “intelligence artificielle” (IA), ouvrant la porte à un imaginaire qui continue d’influencer notre manière de penser actuelle. Après des années d’utilisation de ce terme et de multiples œuvres de fiction, nous sommes conditionnés par l’idée, qu’au fond, les programmes des machines brillent par leur intelligence. Idée qui suscite de grands débats interminables pour déterminer si oui ou non, les robots sonneront la fin de l’humanité. La réalité est tout autre ; malgré tous ses progrès l’intelligence artificielle reste enchaînée à un contexte et, si elle peut surpasser l’homme à des jeux liés à la calculabilité comme le démontre la défaite du champion d’échecs Garry Kasparov face à l’algorithme Deep Blue d’IBM en 1997, elle est loin de reproduire la conscience spontanée humaine. Les jeux sont le terrain de l’affrontement homme-machine, comme le prouve la création de programmes pour les échecs et le jeu de go. Les jeux de combinatoires et de stratégie ont une forte histoire commune avec l’évolution de l’IA et sont à l’origine de maints développements dans le domaine des mathématiques.
Lorsque l’on évoque l’IA aujourd’hui, on parle en réalité souvent de l’apprentissage automatique, le machine learning. Quelle différence entre les IA actuelles, celles des traducteurs automatiques, celles qui hiérarchisent l’information, qui prédisent nos futurs achats ou nos goûts musicaux et les premiers développements de la cybernétique dans les années cinquante ?
Les premières tentatives essayaient de simuler les fonctions cognitives de l’homme en développant des méthodes algorithmiques combinatoires aux règles très précises et très élaborées qui permettaient à la machine de calculer des probabilités dans une approche purement logique et dans un contexte extrêmement précis (les échecs par exemple). Désormais, la stratégie est différente, ces règles, dites « symboliques », circonscrivent l’utilisation des algorithmes et sont supprimées au profit de l’apprentissage automatique. Ce développement est directement corrélé à l’arrivée du Big Data, ou données massives, rendu possible grâce à l’augmentation exponentielle des capacités de calcul et de stockage. Pour devenir intelligent, tout se joue sur le dataset, la banque de données de référence. Par exemple, si l’on souhaite entraîner une IA à la reconnaissance d’images de baleines, il faut commencer par fournir à la machine une base de données. Cette structure des données bien particulière est organisée afin d’être facilement consultable, sous forme de tables, de lignes, colonnes… Puis on peut lancer l’analyse des milliers de photographies de baleines que contient le jeu de référence. La machine parcourt alors les données sans aucune recommandation, sans repère. Elle découvre elle-même les patterns (motifs) récurrents qui définissent ses propres règles de calcul qui lui permettront d’identifier des baleines. Une fois l’entraînement terminé et les règles définies, sur n’importe quelle nouvelle image qu’on lui donnera en input, la machine sera capable de dire en sortie si, pour elle, oui ou non il s’agit d’une image de baleine. Plus le système reçoit de données, plus il affine ses règles de calcul et devient précis. Cette technique d’apprentissage est dite profonde, le deep learning, mais n’est possible que dans le cadre de l’utilisation du Big Data.
« Si le discours public se concentre aujourd’hui sur le volume extravagant des données numérisées et les menaces que leur extraction fait peser sur la vie privée des individus, le principal défi que doivent affronter les big data est de donner du sens à ce magma de données brutes. Aussi la deuxième dynamique qui nourrit la société des calculs est-elle le développement de procédés, les algorithmes, donnant aux ordinateurs des instructions mathématiques pour trier, traiter, agréger et représenter les informations. Venues de mondes différents, ceux du marketing, des marchés financiers ou de l’actuariat, de puissantes techniques statistiques (notamment celles que l’on qualifie de « prédictives ») se déploient à grande échelle en profitant de l’exceptionnelle augmentation des capacités de calcul des ordinateurs. »
Dominique Cardon A quoi rêvent les algorithmes, nos vies à l’heure du big data, Le seuil, 2015
Ce croquis d’une aile inspirée des chauve-souris est tiré d’un des nombreux carnets de De Vinci. Il a consacré de nombreuses pages à l’étude des oiseaux, dans le but de comprendre comment ces animaux sont capables de voler. Il réalisa également de nombreux dessins et maquettes inspirées de ses études pour permettre à l’homme d’imiter le vol.
Décrit par ses fabricants comme le robot humanoïde le plus dynamique au monde, Atlas est un robot perfectionné au fil des années par l’entreprise Boston Dynamics dans le but d’égaler, voire de surpasser la puissance et l’équilibre humain.
Maîtrisant simplement la marche en 2016, il est désormais capable de sauter, faire des parcours, soulever des cartons, et fait le buzz en réalisant des pas de danse.
Deep Blue est un superordinateur spécialisé dans le jeu d’échecs développé par IBM. Capable d’imaginer jusqu’à 200 millions de positions par seconde, cet ordinateur remporte un match aujourd’hui entré dans l’histoire, face au champion du monde d’échecs Garry Kasparov en 1997.