ALS - Magazine 7 - Avril 2020

ALSMag / 7 ALS MAG INTELLIGENCE… ET INTELLIGENCE ARTIFICIELLE L’intelligence est une notion multiforme. Philo- sophes et scientifiques se sont attachés à la définir depuis des millénaires. Pour les besoins de l’IA, nous nous contenterons de qualifier l’intelli- gence par un ensemble de capacités, notamment de mémorisation, de structuration de la connais- sance et de conceptualisation, de perception, de raisonnement, de prise de décision, d’appren- tissage, de communication et de dialogue. Ces capacités se retrouvent, à des degrés divers, dans les systèmes d’IA actuels qui se nourrissent des avancées dans les différents domaines. Inver- sement, l’IA contribue à ce que nous comprenions mieux l’intelligence. Les grands modèles de l’IA Dès le début de l’IA dans les années 1950, trois grands types de modèles ont été proposés par les chercheurs pour concevoir des machines intelli- gentes : f les modèles symboliques dotent les systèmes d’IA de mécanismes de raisonnement capables de manipuler les données symboliques qui consti- tuent les connaissances d’un domaine. Cette approche fait appel aux modèles et méthodes de la logique mathématique. Elle a donné lieu aux systèmesexpertsousystèmesàbasesdeconnais- sances [2] . De telles bases de connaissances inter- viennent dans de nombreux champs d’application comme l’intelligence économique, le droit, la conduite de procédés industriels, la médecine, etc. ; f les modèles neuromimétiques correspondent à une approche dite d’IA connexionniste par analogie métaphorique. Ils consistent à imiter numériquement le fonctionnement des neurones du cortex cérébral. L’entité de base est un modèle formel très simplifié du neurone proposé par McCulloch et Pitts en 1943 [3] . Un système est formé par l’interconnexion d’un grand nombre de tels neuronesencouchessuccessives.Cetteapproche a donné lieu aux réseaux neuromimétiques actuels, avec une grande variété des modèles tels que les perceptrons ; f les modèles probabilistes et statistiques consistent à analyser les probabilités relatives d’événements à partir d’observations du monde réel, puis à utiliser ces probabilités pour faire des prédictions. Cette approche constitue un cadre formel intéressant pour capturer la variabilité inhérente au monde réel et en rendre compte. Un modèle très répandu est le modèle de Markov caché, ou MMC (Hidden Markov Model, HMM). C’est le cas en reconnaissance de la parole [4] ; les MMC ont également été utilisés avec succès dans des domaines tels que l’interprétation d’images, la reconnaissance de l’écriture, l’interprétation de signaux (radar, sonar, biologiques, etc.) ou la robotique. Depuis une dizaine d’années, la grande puissance de calcul des ordinateurs permet de mettre en place des systèmes réellement sophistiqués combinant parfois plusieurs types de modèles, ce qui explique les performances observées. Apprentissage Une caractéristique commune aux trois types de modèles décrits ci-dessus est leur capacité d’apprentissage à partir d’exemples. L’appren- tissage, capacité fondamentale de l’intelligence, joue un rôle majeur dans le bon fonctionnement des systèmes d’IA. En 1959, Arthur Samuel, un des pionniers de l’IA, définit l’apprentissage automa- tique (machine learning) comme la capacité pour un ordinateur d’apprendre sans être explicitement programmé. Toutes les méthodes d’apprentissage supposent l’existence de grandes bases de données d’exemples et parfois de contre-exemples, le plus souvent dûment étiquetés. Un système apprend à partir de chaque exemple, avec l’idée d’être capable de généraliser son comportement à de nouveaux cas non encore rencontrés, grâce aux bonnes propriétés des modèles appris. Réseaux neuronaux profonds La majorité des progrès réalisés en IA depuis le début des années 2000 sont dus à l’utilisation de méthodes numériques d’apprentissage, tout spécialement pour les modèles neuronaux. On démontre que, moyennant un nombre suffisant d’exemples, l’apprentissage converge vers une configuration stable de poids synaptiques pour l’ensemble des neurones d’un réseau. Depuis 2010 environ, le nombre de couches cachées a été considérablement augmenté, tout en conservant la capacité d’apprentissage à partir d’exemples, ce qui a donné naissance aux réseaux neuronaux profonds (Deep Neural Nets, DNN) . Les DNN ont montré leur efficacité dans des domaines très variés : reconnaissance de la parole, reconnais- sance d’images, jeux, traitement de textes, diagnostic, robotique, etc. La rapide émergence des réseaux profonds est due à la conjonction de trois conditions : f l’existence de très grandes bases de données étiquetées nécessaires à l’apprentissage de ces modèles, f la disponibilité de capacités de calcul en constante augmentation, f l’amélioration des algorithmes d’apprentissage profond (Deep Learning [5] ).

RkJQdWJsaXNoZXIy MTIzMTM=