ALS - Magazine 7 - Avril 2020

ALSMag / 13 ALS MAG CONCLUSION L’IA, une histoire de progrès, qui n’est pas terminée Depuis 2010, la conjonction de l’évolution techno- logique, de l’amélioration des algorithmes d’apprentissage et de la disponibilité de grandes bases de données a conduit à des réalisations spectaculaires fondées essentiellement sur les réseaux neuronaux profonds, les DNN. L’enthou- siasme pour l’IA, dernier outil en date de homo faber , est donc très grand et sans précédent dans l’histoire du domaine, avec toutes les exagérations médiatiques et les promesses que cela implique. Cette inflation de promesses pourrait être préjudi- ciable à l’IA, comme cela s’est déjà produit dans le passé. On nomme singularité le point hypothétique où l’IA dépasserait l’intelligence humaine. Cette perspective paraît encore peu crédible, et la crainte de voir les systèmes d’IA échapper au contrôle humain et prendre le pouvoir paraît infondée. En revanche, les travaux et les réflexions sur le transhumanisme ou l’homme augmenté nécessitent d’amplifier la réflexion sur les aspects juridiques, éthiques et sociétaux de la recherche en IA, ainsi que son enseignement. C’est l’être humain, son droit et son éthique qui doivent limiter les pouvoirs des systèmes d’IA, de même que leur utilisation frauduleuse : usurpation des données personnelles, pouvoir létal des robots, etc. Acceptabilité de l’IA Nous avons vu que l’IA soulève un ensemble de questions juridiques importantes, comme : f la traçabilité des systèmes (le côté « boîte noire » de systèmes à base de réseaux neuronaux), f l’utilisation des grandes bases de données indispensables à l’apprentissage des systèmes, souvent collectées à l’insu des personnes concernées : propriété, conditions d’exploitation, commercialisation, confidentialité, etc., f le droit à l’anonymat et la non-divulgation de données à caractère personnel, f le droit à l’oubli, f lepartagederesponsabilités :voitureautonome, système d’aide à la décision médicale, robot d’assistance. Une conséquence de l’arrivée de l’IA est l’aug- mentation importante des collaborations entre humains et machines, ainsi que la délégation croissante de tâches et de décisions humaines à des machines. L’intelligence collective, la robo- tique collaborative sont une caractéristique du futur. Comment fixer des limites ? L’ acceptabilité de l’IA par les individus devient cruciale, pour qu’elle reste un instrument de progrès. Les sondages et les études d’opinion montrent de grandes variations selon les pays, les tranches d’âge et les cultures. On constate notamment une forte disparité entre les pays asiatiques, en majorité confiants voire enthou- siastes, et les pays occidentaux majoritairement défiants. Ainsi, la société japonaise apprécie beaucoup les robots de compagnie. En Chine, le paiement par reconnaissance faciale est largement répandu. Sur un autre plan, plus contro- versé, la Chine est leader dans l’utilisation de techniques de reconnaissance faciale pour la surveillance de la population. Reste à savoir si la population accepte ces méthodes parce qu’elle en voit les avantages ou si c’est par simple résignation. L’acceptabilité est aussi question d’ appropriation , à mesure que les utilisateurs acquièrent une maîtrise technique et cognitive, et intègrent les applications de l’IA dans leur quotidien. Cette appropriation peut se limiter à une assimilation superficielle de l’interface humain-système, ou comporter une compréhension des mécanismes du système. L’acceptabilité est finalement une question de confiance dans les outils et les acteurs. La caution scientifique, le contrôle vigilant de la justice et de l’autorité administrative sont autant d’éléments clefs. Droit et valeurs La technologie nous a rendus, parfois à notre insu, éminemment observables, voire manipulables. Les enjeux juridiques de l’IA sont donc clairs, et justifient un encadrement des pratiques de recherche et des développements industriels, à travers des règles déontologiques et des régle- mentations. Cependant, la disparité entre pays, ainsi que les enjeux économiques et politiques, éloignent l’espoir d’un consensus mondial. Nous pensons que l’Europe doit dans ce domaine conserver le rôle pionnier qu’elle a actuellement endossé avec l’adoption du RGPD, tout en veillant à ne pas pénaliser les acteurs économiques européens dans la compétition mondiale. Références [1] J.-P. Haton et M.-C. Haton, L’intelligence artificielle, Coll. Que-sais-je?, PUF, 3e éd., 1993. [2] J.-P. Haton et al. Le raisonnement en intelligence artificielle - Modèles, techniques et architectures pour les systèmes à bases de connaissances, InterEditions, 1991. [3] W.S. McCulloch and W.H. Pitts, “A Logical Calculus of the Ideas Immanent in Nervous Activity”, Bulletin of Mathematical Biophysics, 5, pp. 115-133, 1943. [4] L. Rabiner and B.H. Huang, Fundamentals of Speech Recognition, Prentice-Hall, 1993. [5] Y. Le Cun et al., « Deep learning », Nature, vol. 521, pp. 436-444, 2015. [6] Conseil de l’Europe, Charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires, CEPEJ, 2018. [7] A. Bonnet, J.-P. Haton et J.-M. Truong, Systèmes experts : vers la maîtrise technique, InterEditions, 1986. [8] M.Quenillet,«L’émergencedesystèmesexperts juridiques», in Dialogo sobre la informatica juridica, Presses de l’université autonome de Mexico, 1989. [9] D. Bourcier, La décision artificielle, PUF, 1995. [10] S. Amrani-Mekki, La justice prédictive, Dalloz, 2018. [11] R. Susskind, Tomorrow’s Layers, Oxford University Press, 2016 [12] https://www.cnil.fr/fr/reglement-europeen-protection- donnees [13] Résolution du Parlement européen du 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique : http://www.europarl.europa.eu/sides/getDoc. do?pubRef=-//EP//NONSGML+TA+P8-TA-2017- 0051+0+DOC+PDF+V0//FR [14] U. Pagallo, The Laws of Robots: Crimes, Contracts, and Torts, Springer, 2013. [15] CNIL, Voix, image et protection des données personnelles, La documentation française, 1996. [16] J-P. Haton, « Les modèles en intelligence artificielle », in Modèles : prévoir, comprendre, expliquer, interpréter, reproduire, trahir, Académie Royale de Belgique, 2019. L’auteur remercie Marie-Christine, Emmanuel et Sébastien Haton pour leur relecture attentive et avisée. Le gouvernement français et l’ensemble de la classe politique semblent avoir pris conscience de ces problèmes. Comme cela a été fait en bioéthique, une réflexion globale pourrait être menée, en se fondant sur le principe de proportionnalité connu de longue date en droit administratif et relatif aux libertés indivi- duelles. Dans le domaine de l’IA, on observe donc que le droit est un outil de protection et de confiance.

RkJQdWJsaXNoZXIy MTIzMTM=