Introduction
Elle fait de plus en plus parler d’elle et a souvent une connotation négative, due à son traitement dans les œuvres cinématographiques et littéraires de science-fiction : il s’agit de l’intelligence artificielle (IA), qui, selon les prédictions les plus apocalyptiques, amènerait les machines à se rebeller contre l’espèce humaine et à l’asservir. Si ces prédictions relèvent de la dystopie, on peut néanmoins affirmer que l’IA va à terme bouleverser nos vies et nos sociétés, car tous les secteurs semblent concernés. Cet article consacré à l’IA prétendra dans un premier temps à apporter des éléments de définitions, suivi d’une exposition d’un panel de champs d’application de l’IA et les enjeux qui en sont liés, suivi de l’action que compte prendre l’Union européenne.
Qu’est-ce que l’IA ?
Histoire et définitions
Si elle fait parler de plus en plus d’elle ces derniers temps, l’IA n’est pas « toute jeune » : un consensus d’experts date les origines de l’IA avec les travaux du vainqueur de la machine Enigma Alan Turing, remontant aux années 1950[1] et le terme a été inventé en 1955 par le mathématicien John Mc Marty « pour désigner une discipline scientifique neuve destinée à mieux comprendre l’intelligence en la décomposant en facultés cognitives si élémentaires que l’on devrait être en mesure de fabriquer des machines pour les simuler. »[2].
Plus récemment, selon Stuart Russel, l’IA est « l’étude des méthodes permettant aux ordinateurs de se comporter intelligemment [qui] englobe des tâches telles que l’apprentissage, le raisonnement, la planification, la perception, la compréhension du langage et la robotique »[3], mais pour d’autres, la définir la plus complètement possible pose un problème[4] et donc, « l’IA demeure […] un objet difficile à cerner »[5].
Une autre manière de définir l’IA est de cerner ses composants : selon Nicolas Miailhe, « l’IA est propulsée par la convergence et la maturité industrielle de trois grandes tendances technoscientifiques : le big data, le machine learning et l’informatique de très haute puissance dans le cloud »[6], avec au cœur de ce système, l’être humain[7]. Pour Miailhe, on devrait plutôt parler d’intelligence « collective » au lieu d’intelligence « artificielle »[8] . Deux des trois composantes seront explicitées : le big data et le machine learning.
Le Big Data
À l’instar de l’IA, le Big Data n’est pas nouveau non plus : il remonterait au milieu du 19e siècle où la technologie de l’époque a permis aux États de constituer des registres de toutes les données qui pouvaient passer sous la main[9], mais le terme en lui-même ne remonte qu’aux années 1990, popularisé par John Mashey pour désigner « des bases de données trop grandes et complexes pour être étudiées avec les méthodes statistiques traditionnelles et, par extension, à tous les nouveaux outils d’analyse de ces données »[10]. En outre, le terme Big Data aurait été utilisé comme substitut à l’expression intelligence artificielle, à cause des films de science-fiction où la machine écraserait l’homme dans le futur, comme dans Terminator[11].
De manière simplifiée, le Big Data se caractérise par deux choses : un volume important de données collectées et la création de contenus variés en continu[12], le tout pour un meilleur coût[13]. Le Big Data doit son envol à partir de 2008 grâce à la troisième génération de téléphones portables ainsi qu’à la capacité de calcul et de stockage de plus en plus performant[14], mais plus tôt dans la décennie, en 2001, Douglas Laney qualifie le Big Data avec ses trois, puis cinq « V »: le volume, la vélocité, la variété, la valeur et la véracité[15].
C’est-à-dire, primo le Volume, soit la grande quantité d’information contenue dans ces bases de données dont la vitesse de génération dudit volume est de l’ordre du zettabits voire du brontobits par seconde (respectivement 1021 et 1024, sachant qu’un giga représente 109, soit un milliard) ou encore que chaque minute, on génère en donnée l’équivalent de toutes les données du monde de l’invention de l’écriture jusqu’à 2008[16], ce qui pose des problèmes de stockage. Cependant, si tous les ordinateurs étaient connectés en réseaux, la capacité de stockage excéderait les besoins[17].Secundo, la Vélocité, soit la vitesse de la création, de collecte, de transmission et d’analyse de données qui est de l’ordre de la nanoseconde (un milliardième de seconde)[18], soit la vitesse des achats et des ventes d’actif sur les marchés financiers[19], mais qui pose la question de la rapidité de la réactivité, en cas d’une propagation d’une fausse information par exemple[20]. Tertio, la Variété, soit les différences de natures, de formats et de structures des données (tableaux avec variables, textes, fichiers audio et/ou vidéo, images ) dont l’analyse avec les méthodes statistiques traditionnelles se révèle impossible[21]. Quarto, la Valeur, soit la capacité de ces données à générer du profit. Pour la période 2009-2018, le revenu généré par le Big Data est passé de 100 millions à 42 milliards d’euros[22] et enfin cinco, la Véracité des données, soit « leur validité, c.-à-d. la qualité et la précision ainsi que leur fiabilité », challengée notamment par les fake news[23].
Le machine learning et le deep learning
Le terme machine learning – ou apprentissage automatique – est apparu également dans les années 1950, inventé par Arthur Samuel[24], qui consiste en un algorithme exploitant des grandes bases de données, c’est-à-dire du big data avec une énorme puissance de calcul pour exécuter les tâches[25], et à terme, la machine elle-même s’améliore au niveau de la vitesse d’exécution et de sa capacité à résoudre les problèmes – de plus en plus complexes – qui lui sont soumis[26].
Deux autres concepts sont à mentionner en parallèle du machine learning. D’une part, on parle également de deep learning – ou apprentissage profond – dont le terme n’apparut qu’à partir des années 1980-1990[27] et dont l’apprentissage « supervisé ou non, [a] pour but de s’approcher – et de dépasser – des résultats obtenus par l’humain pour la même tâche, y compris dans des situations complexes multifacteurs »[28] et d’autre part, le transfer learning – ou apprentissage par transfert – qui désigne la capacité à transférer les algorithmes de machine learning d’une application à une autre[29].
Les différentes IA
Pour terminer, il existe une typologie des IA, certaines sont dites faibles ou fortes, limitées ou totales, voire encore combinées. Une première distinction donc est celle proposée par John Searle où il opposa la notion d’intelligence artificielle faible, «celle des ingénieurs susceptibles de reproduire un grand nombre de fonctions cognitives avec une manipulation symbolique d’information […] qui parviendrait à des réalisations techniques inouïes»[30], à celle d’intelligence artificielle forte, c’est-à-dire « celle des philosophes qui prétendaient restituer avec les techniques d’IA l’esprit dans son intégralité, et en particulier la conscience [mais qui] serait incapable d’atteindre ses objectifs »[31]. Toujours sur base de cette distinction, une IA faible permet l’automatisation de tâches dites à faible valeur ajoutée – comme les voitures autonomes – tandis qu’une IA forte « serait le pendant de l’homme voire le dépasserait, sachant concilier émotions, ressentis, confiance, instinct, analyse, etc. –, mais qui relève encore de l’imaginaire »[32].
Une autre distinction, ressemblant peu ou prou à la première, est celle entre une IA dite limitée (ou de bas niveau) et une IA dite totale. La première se base sur le machine learning dans l’exécution de tâches simples, améliorant le processus sans pour autant le modifier dont les exemples sont connus comme les assistants Siri (Apple) ou Echo (Amazon) ou encore le robot d’indexation des sites de Google[33], mais bien que reposant sur un système big data optimisé, ils ne peuvent rien faire que ce pour lequel ils sont programmés[34]. La seconde désigne une technologie caractérisée par le traitement de multiples canaux de données à vitesse supérieure à celle de l’humain et qui, à terme, pourrait dépasser son concepteur, car sa principale caractéristique est de pouvoir modifier son propre programme par elle-même, ce qui suscite un sentiment de menace pour certains, mais cette technologie n’existe pas pour le moment et semble lointaine[35]. Enfin, à l’intermédiaire de ces deux IA, notons celle dite combinée, qui « [intègre] des capteurs de natures différentes et [tente] de combiner à la manière de l’homme, plusieurs signaux pour élaborer une réponse […] une sorte de cyber-prothèse de l’homme qui lui permet de disposer de capacités d’actions étendues »[36]
Liste non exhaustive des domaines concernés
L’armée et les systèmes d’armes létales autonomes (SALA)
Sur le plan militaire, l’IA pourra changer la donne sur la manière de mener une guerre sur bien des plans : la réalisation de cartes, la reconnaissance de terrain, le renseignement ou encore des véhicules autonomes[37], mais également les systèmes d’armes létales autonomes (SALA), qu’on pourrait qualifier de « robots tueurs », systèmes qui agissent d’eux-mêmes en quelque sorte (ex : équipements de poursuite des missiles autonomes)[38]. La venue de l’IA sur le plan militaire apportera son lot de bouleversements.
Tout d’abord, à l’instar des enjeux liés à l’espace, les nouveaux acteurs du numérique pourraient faire leur entrée dans l’économie de l’armement et de la sécurité[39]. Ensuite, elle pourrait faire de moins en moins place à l’homme[40], mais elle sera d’une grande aide pour la prise de décision ou pour préparer une opération militaire[41], voire remplacer le soldat pour des missions jugées trop périlleuses[42]. En outre, des systèmes d’armements autonomes, létaux ou non, sont déjà proposés par certains pays (États-Unis, Chine, Russie, Royaume-Uni, France, Israël)[43], mais on estime être toujours au stade d’une IA faible . Cependant, à terme, on pourra envisager des robots opérés à distance agir comme des « compagnons d’armes »[44] .Pour terminer, citons deux gros obstacles : l’argent et le droit. Pour le premier, le développement et l’utilisation de l’IA supposeront être capables de payer un prix d’entrée et on devra probablement revoir « l’organisation nationale et européenne de notre base industrielle et technologique de défense et sur les schémas de production et de reproduction des armes nouvelles »[45]. Pour le second, il est une volonté de réglementer l’IA dans son application militaire avec en ligne de mire ces fameux « robots tueurs » : pour l’eurodéputée grecque Eva Kaili, une réglementation internationale sera nécessaire à l’instar des traités concernant les armes chimiques et biologiques[46]. Plus récemment, en 2018, une résolution du Parlement européen a appelé à une interdiction internationale des SALA estimant que les « décisions en situation de guerre doivent rester l’apanage des cerveaux humains[47], mais aux Nations Unies, les États-Unis, la Russie, Israël ou encore la Corée de Sud ont exprimé une grande opposition à ce type de réglementation[48].
Les impacts sociaux et sociétaux
L’IA génère aussi des craintes sur les plans sociaux et sociétaux, avec en premier lieu l’impact sur l’emploi de manière générale. Si l’IA a permis de nos jours de remplacer l’humain dans un bon nombre de tâches, la crainte qu’elle soit plus destructrice que créatrice d’emploi n’est pas neuve : un rapport de 1966 adressé au président américain Lyndon Jonhson faisait part de ces inquiétudes[49] et se posa dans la foulée la question de mettre en place un revenu universel/de base pour compenser cette destruction, et financé par une taxe sur les machines[50], car dans un modèle d’État-providence dont la majorité des recettes fiscales est issue du travail, il faut trouver une alternative à son financement si le nombre d’emplois venait à diminuer selon l’eurodéputée Mady Delvaux[51].
Plus récemment, l’Agence européenne pour la sécurité et la santé au travail recommande une « IA d’assistance et collaborative » sur base de certains risques identifiés[52] : le danger des travailleurs ; les discriminations, avec la présence de biais sexistes et/ou racistes[53],[54],[55], sciemment programmés ou non, avec une base de données où l’on retrouve des métiers historiquement genrés ; la destruction massive d’emplois peu qualifiés avec, pour la période 1999-2017 , des « effets significatifs sur l’emploi, principalement pour les jeunes travailleurs et les travailleurs moyennement qualifiés, et quasi aucun effet sur les salaires »[56] ; l’augmentation des accidents entre robots et travailleurs et les atteintes à la vie privée.
Mais d’autres se montrent plus optimistes : pour le Parlement européen, l’IA, couplée à la robotique, peut aider les gens dans leur vie privée et professionnelle -avec par exemple les exosquelettes[57], mais il faudra en contrepartie à la destruction d’emploi, organiser la formation et la reconversion[58]. De plus, selon un avis de la commission « Industrie, recherche et énergie » (ITRE) d’octobre 2016, une équipe composée de robots et d’humains peut voir sa productivité augmenter de 85% comparée à une équipe homogène doublée et demande un cadre pour répondre aux besoins de développement de l’IA[59]. De manière plus large, certains militent pour donner un sens à l’IA, si elle est tournée vers l’aide aux réfugiés, malades et pauvres et en se mettant au service de l’écologie et du social, comme c’est le cas dans divers domaines : la prévision de catastrophes naturelles, la gestion de denrées alimentaires et l’optimisation de l’agriculture ou encore favoriser l’accès à la culture[60].
Lutte contre les fake news
L’autre défi que pose l’IA se situe au niveau politique : : si celle-ci posait la question de comment réagir à la propagation d’une fausse information – ou fake news – mentionnée supra, elle pourrait en être la solution, c’est le pari fait par 3 étudiants fin 2018. Baptisée Neutral News, il s’agit d’une IA qui agrège en continu des centaines de milliers d’articles du monde entier qui sont soumis à un nombre large de critères comme la sémantique, la syntaxe, le degré de plagiat d’un article ou encore la fiabilité de la source avec un but de pouvoir donner une information viable. Cette méthode se trouve, aux antipodes de Facebook dont l’algorithme propose à l’utilisateur des informations partagées par « ses semblables », le confortant encore plus dans ses idées[61], mais se pose alors la question en amont, sur quel(s) critère(s) peut-on établir la fiabilité d’une source ?
Mais si l’IA semble une solution à ces fameuses fake news, on peut aller plus loin dans un but malveillant avec l’apparition de ce qu’on appelle les deep fake ou « hyper-trucage ». Issu de la contraction entre les expressions « deep learning » et « fake », un deep fake consiste en « un contenu fallacieux rendu profondément crédible grâce à l’IA [dont l’] objectif est simple : passer des éléments faux comme étant vraisemblables »[62]. D’un point de vue technique, le concept repose sur celui de Generative Adversarial Networks (réseaux antagonistes génératifs) créé en 2014, qui consiste en deux algorithmes qui « s’entrainent mutuellement : l’un tente de créer de fausses imitations aussi crédibles que possible ; l’autre cherche à détecter les faux. Ainsi, les deux algorithmes s’améliorent ensemble avec le temps, par leur entraînement respectif »[63], avec au centre la base de données dans laquelle les algorithmes puisent leur information et que donc, plus cette base est développée, plus les résultats seront affinés[64].
D’un point de vue plus concret, un deep fake est un contenu audiovisuel où l’on peut modifier l’image et/ou le son, dans le but de le rendre vraisemblable. À l’origine, cette technique est principalement utilisée dans un but humoristique et/ou parodique et reste son principal usage : 96% des deep fake ressortent de la parodie de célébrités à but de divertissement[65], mais son utilisation a commencé à prendre une tournure inquiétante avec d’abord l’insertion d’images de célébrités dans du contenu pornographique[66], ensuite en utilisant des extraits audiovisuels d’hommes et de femmes politiques dans des situations inventées avec comme exemple, Barack Obama insultant Donald Trump[67] ou encore plus récemment en décembre 2019, des faux propos de Boris Johnson lors de l’enjeu des élections liées au Brexit[68]. L’illusion est telle que l’ancien Premier ministre italien Matteo Renzi en a fait les frais[69]. Cette technique est même utilisée à des fins, disons « bienveillantes » comme Donald Trump annonçant la fin du Sida dans le monde, fausse déclaration réalisée par les Français de Solidarité Sida même si ces derniers l’ont clairement annoncé à la fin[70].
Dans l’immédiat, ce nouveau phénomène, qui est relativement marginal, nait officiellement à l’automne 2017. On dénombre près de 14 700 deep fakes à l’automne 2019 contre 8 000 deux ans plus tôt[71]. Pour l’instant, la création de deep fakes relève de la possession de matériel professionnel et la plupart d’entre eux sont facilement reconnaissables de par leur grossièreté, mais les machines permettant leur détection ne sont pas plus développées pour autant[72]. Cependant, à la vitesse où va la technologie, les deep fakes pourraient devenir un réel problème dans le courant de l’année[73] et Facebook a décidé de prendre les devants pour redorer son blason suite aux accusations de propagations de fake news et donc de lutter contre les deep fakes sur base du critère selon lequel une IA « qui mélange, remplace ou superpose un contenu »[74]. Ainsi, une vidéo truquée de « manière traditionnelle » ne serait pas concernée comme une vidéo de la présidente de la Chambre des représentants américaine Nancy Pelosi la montrant ivre alors qu’il ne s’agit que d’un ralenti[75].
Le domaine de la santé
Autre domaine où l’IA joue(ra) un grand rôle est celui de la médecine et de la santé : elle sera amenée à améliorer les diagnostics, la vitesse de prise en charge des patients, des assistants personnels ou encore une meilleure détection des maladies[76], mais nous pouvons citer des exemples récents : en Angleterre, à l’issue d’une collaboration entre Google et un hôpital, une intelligence artificielle a pu diagnostiquer une cinquantaine de pathologies oculaires avec un taux de précision de 94%, le développement par Facebook d’une IRM dix fois plus rapide que la normale ou encore une IA de IBM employée dans un hôpital allemand spécialisé dans les maladies rares[77]
Cependant, cela suscite des interrogations comme pour l’eurodéputée luxembourgeoise Mady Delvaux où en 2016, elle faisait part de ses inquiétudes: si elle reconnait le caractère bénéfique, à travers le cas des exosquelettes, l’IA couplée à la robotique peut très bien modifier l’être humain[78]. Enfin, notons une polémique venue des États-Unis : dans le but d’améliorer sa technologie de l’IA, le géant Google a passé un accord avec 153 hôpitaux qui lui fourniront des données médicales au détriment des patients[79]. Se pose la question du traitement de ces données, qui pourrait représenter une mine d’informations pour des organismes d’assurance par exemple.
Quel rôle pour l’Union européenne
Du côté de l’Union européenne, la question des enjeux de l’IA semble se manifester vers le début de l’année 2017 avec un appel des eurodéputés quant à la création d’une agence européenne consacrée à la robotique et à l’IA, en tant qu’expert technico-éthique pour accompagner l’UE et les Etats-Membres dans l’évolution de la robotique[80], mais c’est dans le courant de 2018[PD1] que l’UE commencera à bouger. Ce qu’il faut retenir principalement, c’est la volonté de l’UE d’agir avec au cœur de sa politique la notion d’éthique et celle des valeurs humaines afin d’éviter des dérives de type orwellien pour le reprendre les propos de Roberto Viola, directeur général de la DG Connect, s’adressant à la Commission européenne en février 2018[81]. Cette dimension éthique sera récurrente tant au sein de la Commission que du Parlement européen même l’Agence européenne des droits fondamentaux aborde l’éventuel recours à la reconnaissance faciale, une technologie liée à l’IA, pour des situations dites « exceptionnelles » ((luttes antiterrorisme, recherches de victimes ou de disparus) à condition que cela ne doive pas entraver les libertés d’association et de réunions[82].
La première étape de l’implication européenne vis-à-vis de l’IA a lieu lors de la journée du numérique du 10 avril 2018 où 5 déclarations, dont une concernant l’IA, ont été signées par 24 États membres ainsi que la Norvège. La déclaration relative à l’IA reconnait l’importance d’assurer la compétitivité de l’Europe dans la recherche et le déploiement de l’IA ainsi que de traiter des questions sociales, économiques, juridiques et éthiques[83]. Cet engagement se traduit par la volonté de mettre en place un réseau dense de centres d’innovation numérique au niveau européen et d’améliorer l’accessibilité des données pour les secteurs publics et privés. Tous les États membres auront signé cette déclaration[84].
En parallèle, notons l’annonce de la Commissaire européenne à l’Économie et à la Société numérique de l’époque Mariya Gabriel quant au lancement d’une alliance européenne pour l’IA[85], d’un document informel du groupe de Visegrad (Hongrie, Pologne, République tchèque, Slovaquie) insiste sur la création d’un environnement de travail uniforme au niveau européen ainsi qu’une voix commune de plusieurs commissaires (Günther Oettinger, Vytenis Andriukaitist, Elżbieta Bieńkowska, Carlos Moedas et Mairya Gabriel) et vice-commissaires (Andus Ansip, Valdis Dombrovskis) estime que la libre circulation des données non personnelles, entre autres, doit être approuvé par le PE et les EM, jugées essentielles pour l’IA.[86]
La seconde étape est le dévoilement fin avril d’une stratégie de la Commission européenne pour stimuler l’IA et accroître les investissements publics et privés. Elle fait le pari d’un investissement de 1,5 milliard d’euros d’ici 2020 contre un investissement de 20 milliards de la part du public et du privé dans les deux ans, doublé d’un engagement à la mobilisation d’un fonds européen de 500 millions d’euros. Ce pari s’accompagne de l’annonce de politiques concernant le marché de l’emploi touché par l’IA, des lignes directrices en matière d’éthique (comme les impacts sur les droits fondamentaux et la vie privée), pour fin 2018 ainsi que des orientations interprétatives en matière de responsabilité[87].
La troisième étape est une autre action de la Commission européenne, à travers une proposition de la Commissaire Mariya Gabriel faite en juin 2018 qui consiste en une enveloppe de 9,2 milliards d’euros pour la période 2021-2027 pour relancer la course du numérique dont 2,5 milliards pour favoriser la diffusion de l’IA dans l’UE auprès des pouvoirs publics et les entreprises, y compris les plus petites[88]. Ce programme trouve un premier soutien auprès des eurodéputés en novembre à condition que, concernant l’IA il faut que les projets soient centrés sur l’humain et que le programme soit aussi accessible aux chercheurs, aux universités et aux ONG, ajoutant que les actions non éthiquement acceptables ne doivent pas être éligibles pour un financement[89]. En décembre, le PE estime que ce programme doit être ouvert aux pays de l’Espace économique européen, ainsi qu’au cas par cas à des pays tiers, y compris les entités juridiques établies dans un pays tiers[90]. Le 18 avril 2019, le programme Europe numérique 2021-2027 a été approuvé par le PE : cela concerne l’investissement dans cinq secteurs numériques clés dont l’IA et les eurodéputés demandent 9,2 milliards d’euros en prix courants pour réaliser cette stratégie[91].
La quatrième étape est le lancement au mois de juin par la Commission européenne d’un groupe de 52 experts en matière d’éthique[92], qui rendit six mois plus tard un premier cadre concernant l’utilisation de l’IA « qui doit toujours être conforme à nos valeurs fondamentales et respecter les droits fondamentaux »[93]. C’est en juin 2019 que lesdits experts communiquèrent leur position sur un ensemble de points : le premier, est leur opposition à la surveillance de masse, les armes létales ou la notation des citoyens comme ce qui se fait en Chine et demande, dans le champ de la responsabilité civile et pénale, des critères de tracés et de suivis ainsi qu’« une compensation adéquate en cas de blessures et/ou de violations de droits »[94]. Peu après, l’action européenne envers l’IA se fait à travers le programme horizon 2020 pour la recherche et le développement pour la période 2014-2020 où la Commission européenne, en juillet 2019, a lancé un appel à proposition en vue de créer un réseau de centres d’excellence artificielle, financé pour environ 50 millions d’euros avec comme objectif de surmonter les obstacles technico-scientifiques qui bloquent le déploiement de solutions basées sur une technologie de l’IA[95].
Dernièrement, suite aux élections européennes et sa nomination un peu retardée, la nouvelle Présidente de la Commission européenne Ursula Von der Leyen entrée en fonction au 1er décembre 2019 avait annoncée dans son programme l’importance qu’occupe le numérique et s’était engagée dans les 100 jours à présenter « une proposition législative en vue d’une approche européenne coordonnée relative aux implications humaines et éthiques de l’intelligence artificielle »[96]. On rapporte que la nouvelle commission compte présenter un livre blanc sur l’IA courant février dans lequel l’UE envisage des règles à l’attention des autorités publiques en matière d’utilisation de la reconnaissance faciale et souhaite la nomination dans les pays membres d’autorités en chargées d’appliquer les futures règles liées à l’IA[97].
Conclusion
Face à tous les enjeux auxquels on puisse faire face, l’Union européenne a décidé, une fois de plus, d’agir en fonction de ses valeurs, c’est-à-dire dans le respect des droits fondamentaux. Outre les exemples d’initiatives susmentionnées comme la création d’un comité d’experts ainsi que de leurs recommandations qui s’inscrivent dans cette perspective éthique, n’oublions pas le Règlement Général de Protection de Données (RGPD) entré en vigueur en 2018, une disposition juridique qui permet aux usagers du net de pouvoir maitriser l’usage de leurs données personnelles, mais de pouvoir également les récupérer ultérieurement[98].
La protection de l’individu a dans une certaine mesure, le revers de la médaille. Comme nous l’avons vu, la technologie de l’IA, pour fonctionner et devenir de plus en plus performante, a besoin d’un Big data, d’une base de données toujours plus riche et imposante, mais le RGPD – et supposons d’autres barrières ultérieures similaires – aura pour conséquence de dissuader certaines entreprises de recourir à l’IA pour les coûts supplémentaires engendrés[99]. Il faudrait pour l’eurodéputée grecque Eva Kaili, « combiner les leçons tirées du RGPD dans l’espace de l’IA, sans le surréglementer pour que l’innovation puisse être encouragée plutôt qu’arrêtée. »[100].
Alessandro Megna
[1] Jérôme Berthier, « Que (nous) font les big data ? », Revue internationale et stratégique 110, no 2 (2018): 89‑99, https://doi.org/10.3917/ris.110.0089., p.89
[2] Jean-Gabriel Ganascia, « Peut-on contenir l’intelligence artificielle ? », Pouvoirs 170, no 3 (2019): 71‑81, https://doi.org/10.3917/pouv.170.0071., p.71
[3] Nicolas Miailhe, « Géopolitique de l’Intelligence artificielle : le retour des empires ? », Politique étrangère Automne, no 3 (2018): 105‑17., p.106
[4] Nicolas Mazzucchi, « Les implications stratégiques de l’intelligence artificielle », Revue internationale et stratégique 110, no 2 (2018): 141‑52, https://doi.org/10.3917/ris.110.0141., p142
[5] Ibid., p141
[6] Miailhe, « Géopolitique de l’Intelligence artificielle : le retour des empires ? », p.107
[7] Ibidem.
[8] Ibidem.
[9] Alizé Papp, « 1. L’afflux massif de données est-il nouveau ? », Regards croisés sur l’économie 23, no 2 (2018): 14‑26, https://doi.org/10.3917/rce.023.0014., p.14
[10] Thomas Bourany, « Les 5V du big data », Regards croisés sur l’économie 23, no 2 (2018): 27‑31, https://doi.org/10.3917/rce.023.0027., p.27
[11] Berthier, « Que (nous) font les big data ? », p.92
[12] Lénaïc Couderc, « Data, big data, open data : de quoi parle-t-on ? », Regards croisés sur l’économie n°23, no 2 (2018): 41‑46, https://doi.org/10.3917/rce.023.0041., p.42
[13] Ibid., p.43
[14] Berthier, « Que (nous) font les big data ? », p.90
[15] Bourany, « Les 5V du big data »., p.27
[16] Ibid., p.28
[17] Berthier, « Que (nous) font les big data ? », p.91
[18] Bourany, « Les 5V du big data »., p.28
[19] Bourany, « Les 5V du big data »., p.29
[20] Berthier, « Que (nous) font les big data ? », p.92
[21] Bourany, « Les 5V du big data »., p.29
[22] Ibidem.
[23] Ibidem.
[24] Berthier, « Que (nous) font les big data ? », p.89
[25] Philippe Askenazy et Francis Bach, « IA et emploi : une menace artificielle », Pouvoirs 170, no 3 (2019): 33‑41, https://doi.org/10.3917/pouv.170.0033., p.33
[26] Mazzucchi, « Les implications stratégiques de l’intelligence artificielle »., p.142
[27] Berthier, « Que (nous) font les big data ? », p.89
[28] Mazzucchi, « Les implications stratégiques de l’intelligence artificielle »., p.142
[29] Miailhe, « Géopolitique de l’Intelligence artificielle : le retour des empires ? », p.110
[30] Ganascia, « Peut-on contenir l’intelligence artificielle ? », p.74
[31] Ibidem.
[32] Berthier, « Que (nous) font les big data ? », p.94
[33] Mazzucchi, « Les implications stratégiques de l’intelligence artificielle »., p.142
[34] Ibid., p.143
[35] Ibidem.
[36] Ibidem.
[37] Louis Gautier, « La guerre augmentée ?Enjeux et défis de l’ia dans les conflits futurs », Pouvoirs 170, no 3 (2019): 83‑93, https://doi.org/10.3917/pouv.170.0083., p.84
[38] Samuel Stolton, « La Commission met en garde contre les dérives de l’intelligence artificielle », www.euractiv.fr (blog), 20 décembre 2018, https://www.euractiv.fr/section/economie/news/ai-ethics-critical-concerns-highlighted-in-commission-report/.
[39] Gautier, « La guerre augmentée ? », p.87
[40] Ibidem.
[41] Ibid., p.88
[42] Ibidem.
[43] Ibid., p.89
[44] Ibid., p.92
[45] Ibid., p.88
[46] Samuel Stolton, « Le RGPD pourrait poser problème à l’intelligence artificielle », www.euractiv.fr (blog), 28 août 2019, https://www.euractiv.fr/section/economie/interview/gdpr-could-obstruct-ai-development-mep-says/.
[47] Stolton, « La Commission met en garde contre les dérives de l’intelligence artificielle ».
[48] Ibid.
[49] Askenazy et Bach, « IA et emploi : une menace artificielle »., p.33
[50] Ibid., p.36
[51] Jorge Valero, « «Les humains ne doivent pas être dominés par les robots» », www.euractiv.fr (blog), 13 octobre 2016, https://www.euractiv.fr/section/innovation-entreprises/interview/mep-my-main-concern-is-that-humans-are-not-dominated-by-robots/.
[52] Pascal Hansens, « L’OSHA recommande fortement d’encadrer le recours de l’IA », Agence Europe, 17 mai 2019, https://agenceurope.eu/fr/bulletin/article/12257/19.
[53] Emma Sheppard, « Why Are Virtual Assistants Always Female? Gender Bias in AI Must Be Remedied », The Guardian, 26 mars 2019, sect. PwC partner zone, https://www.theguardian.com/pwc-partner-zone/2019/mar/26/why-are-virtual-assistants-always-female-gender-bias-in-ai-must-be-remedied.
[54] Henry McDonald, « AI Expert Calls for End to UK Use of ‘Racially Biased’ Algorithms », The Guardian, 12 décembre 2019, sect. Technology, https://www.theguardian.com/technology/2019/dec/12/ai-end-uk-use-racially-biased-algorithms-noel-sharkey.
[55] Amaelle Guiton, « Intelligence artificielle : biaise-moi », Libération.fr, 18 avril 2019, https://www.liberation.fr/debats/2019/04/18/intelligence-artificielle-biaise-moi_1722211.
[56] Sophie Petitjean, « Une conférence Bruegel met en avant les défis et potentiels de l’intelligence artificielle pour l’emploi et l’économie », Agence Europe, 18 avril 2018, https://agenceurope.eu/fr/bulletin/article/12004/17.
[57] Askenazy et Bach, « IA et emploi : une menace artificielle »., p.41
[58] Pascal Hansens, « Les eurodéputés veulent une intelligence artificielle « made in Europe », « éthique » et « centrée sur l’homme » », Agence Europe, 12 février 2019, https://agenceurope.eu/fr/bulletin/article/12192/5.
[59] Pascal Hansens, « Les députés du PE insistent sur la symbiose entre les robots et les humains », Agence Europe, 14 octobre 2016, https://agenceurope.eu/fr/bulletin/article/11646/13.
[60] Dominique Pialot, « Une intelligence artificielle au service de l’écologie et du social », www.euractiv.fr (blog), 30 avril 2018, https://www.euractiv.fr/section/economie/news/une-intelligence-artificielle-au-service-de-lecologie-et-du-social/.
[61] Anaïs Cherif, « Comment Neutral news veut analyser la propagation des fake news », www.euractiv.fr (blog), 19 décembre 2018, https://www.euractiv.fr/section/politique/news/comment-neutral-news-veut-analyser-la-propagation-des-fake-news/.
[62] Sarah Cahen et Emeline Strentz, « Intelligence Artificielle et Deepfakes : La Naissance de Nouveaux Risques Stratégiques », consulté le 9 janvier 2020, https://portail-ie.fr/analysis/2253/intelligence-artificielle-et-deepfakes-la-naissance-de-nouveaux-risques-strategiques.
[63] Ibid.
[64] Ibid.
[65] Ibid.
[66] Julien Baldacchino, « En 2020, Facebook veut bannir les “deepfakes” de son réseau social », 7 janvier 2020, https://www.franceinter.fr/societe/en-2020-facebook-veut-bannir-les-deepfakes-de-son-reseau-social.
[67] Ibid.
[68] Ibid.
[69] Ibid.
[70] Ibid.
[71] Ibid.
[72] Cahen et Strentz, « Intelligence Artificielle et Deepfakes ».
[73] Ibid.
[74] Baldacchino, « En 2020, Facebook veut bannir les “deepfakes” de son réseau social ».
[75] Ibid.
[76] Cédric Villani, « Les enjeux politiques de l’intelligence artificielle », Pouvoirs 170, no 3 (2019): 5‑18, https://doi.org/10.3917/pouv.170.0005., p.10
[77] Jaime D’Alessandro, « Google, i dati di milioni di pazienti a loro insaputa per allenare l’intelligenza artificiale », Repubblica.it, 12 novembre 2019, https://www.repubblica.it/tecnologia/sicurezza/2019/11/12/news/google_spiati_milioni_di_pazienti_per_allenare_sua_intelligenza_artificiale-240921834/.
[78] Valero, « «Les humains ne doivent pas être dominés par les robots» ».
[79] Ibid.
[80] Pascal Hansens, « Les eurodéputés demandent à la Commission européenne de se pencher sur le revenu de base universel », Agence Europe, 16 janvier 2017, https://agenceurope.eu/fr/bulletin/article/11704/9.
[81] Sophie Petitjean, « Intelligence artificielle, le contrôle humain doit être le principe clé, selon Roberto Viola », Agence Europe, 12 février 2018, https://agenceurope.eu/fr/bulletin/article/11959/16.
[82] Sophie Petitjean, « L’Agence européenne des droits fondamentaux appelle à encadrer l’utilisation de la reconnaissance faciale dans le domaine de la sécurité », Agence Europe, 27 novembre 2019, https://agenceurope.eu/fr/bulletin/article/12378/12.
[83] Sophie Petitjean, « Déclaration de vingt-quatre États membres plus la Norvège pour stimuler l’intelligence artificielle », Agence Europe, 10 avril 2018, https://agenceurope.eu/fr/bulletin/article/11998/3.
[84] Pascal Hansens, « Les États membres ébauchent une réponse aux défis posés par l’intelligence artificielle à l’industrie européenne », Agence Europe, 16 juillet 2018, https://agenceurope.eu/fr/bulletin/article/12063/14.
[85] Petitjean, « Déclaration de vingt-quatre États membres plus la Norvège pour stimuler l’intelligence artificielle ».
[86] Sophie Petitjean, « La Journée du numérique se conclut sur un appel à l’innovation », Agence Europe, 11 avril 2018, https://agenceurope.eu/fr/bulletin/article/11999/6.
[87] Sophie Petitjean, « La Commission ouvre un boulevard pour l’intelligence artificielle », Agence Europe, 26 avril 2018, https://agenceurope.eu/fr/bulletin/article/12009/4.
[88] Sophie Petitjean, « La Commission propose de mobiliser près de 10 milliards € entre 2021-2027 », Agence Europe, 6 juin 2018, https://agenceurope.eu/fr/bulletin/article/12035/7.
[89] Sophie Petitjean, « Le programme Europe numérique soutenu par les eurodéputés », Agence Europe, 22 novembre 2018, https://agenceurope.eu/fr/bulletin/article/12142/8.
[90] Sophie Petitjean, « Le Parlement valide sa position sur le futur programme Europe numérique », Agence Europe, 14 décembre 2018, https://agenceurope.eu/fr/bulletin/article/12159/26.
[91] Sophie Petitjean, « Le Parlement soutien l’accord sur le programme Europe numérique », Agence Europe, 18 avril 2019, https://agenceurope.eu/fr/bulletin/article/12239/18.
[92] Mathieu Solal, « La Commission lance l’Alliance européenne de l’intelligence artificielle et nomme un groupe d’experts », Agence Europe, 15 juin 2018, https://agenceurope.eu/fr/bulletin/article/12042/30.
[93] Pascal Hansens, « Le groupe de haut niveau sur l’intelligence artificielle présente une première version provisoire des lignes directrices éthiques sur l’IA », Agence Europe, 18 décembre 2018, https://agenceurope.eu/fr/bulletin/article/12162/10.
[94] Sophie Petitjean, « Le groupe d’experts sur l’intelligence artificielle prend position sur les questions sensibles », Agence Europe, 24 juin 2019, https://agenceurope.eu/fr/bulletin/article/12281/13.
[95] Sophie Petitjean, « L’UE mobilise 50 millions € pour la recherche sur l’intelligence artificielle », Agence Europe, 11 juillet 2019, https://agenceurope.eu/fr/bulletin/article/12294/27.
[96] Agathe Cherki, « La Commission veut garantir une utilisation éthique de l’intelligence artificielle », Agence Europe, 17 janvier 2020, https://agenceurope.eu/fr/bulletin/article/12406/8.
[97] Ibid.
[98] Isabelle Falque-Pierrotin, « 12. L’économie de la donnée peut-elle se développer contre ses utilisateurs ? », Regards croisés sur l’économie 23, no 2 (2018): 161‑69, https://doi.org/10.3917/rce.023.0161., p.63
[99] Nick Wallace, « L’Europe s’apprête à perdre la course mondiale à l’intelligence artificielle », www.euractiv.fr (blog), 5 juin 2018, https://www.euractiv.fr/section/economie/opinion/europe-is-about-to-lose-the-global-ai-race-thanks-to-gdpr/.
[100] Stolton, « Le RGPD pourrait poser problème à l’intelligence artificielle ».
[PD1]dans