L’Intelligence Artificielle, Évolution naturelle

Je souhaite partager avec vous ce soir quelques réflexions personnelles sur l’IA, sa place, ses enjeux et ses conséquences face à nos sociétés humaines.

Le présent travail n’est pas la présentation par un expert – que je ne suis pas – de l’état de l’art technologique, encore moins une revue analytique des performances comparées de l’IA avec l’intelligence humaine. La bonne littérature abonde sur ce sujet d’actualité. Mais, comme je vais essayer de le montrer, les questions me paraissent parfois bien mal posées…


(prise de conscience)
Il y a quelques années, on pouvait voir, au Musée de l’Histoire Américaine à Washington, une vidéo qui répétait en boucle la présentation en 1964 de la nouvelle gamme d’ordinateurs IBM (1), par le président de la firme d’alors, Thomas Watson Jr. Celui-ci déclamait sur un ton solennel : « Je suis convaincu, et la Compagnie est convaincue, que l’ordinateur ne rendra pas l’homme obsolète (2) »…
C’est dire si la prise de conscience inquiète à laquelle voulait répondre cette profession de foi remonte à loin…

Je souhaite partager avec vous ce soir quelques réflexions personnelles sur l’IA, sa place, ses enjeux et ses conséquences face à nos sociétés humaines.
Le présent travail n’est pas la présentation par un expert – que je ne suis pas – de l’état de l’art technologique, encore moins une revue analytique des performances comparées de l’IA avec l’intelligence humaine. La bonne littérature abonde sur ce sujet d’actualité. Mais, comme je vais essayer de le montrer, les questions me paraissent parfois bien mal posées…

(l’écosystème professionnel)
Sa forme la plus évidente se manifeste dans la transformation économique de la valeur des savoir-faire humains, généralement assemblés en professions.
Le sujet est d’autant plus sensible qu’à la suite de la révolution industrielle, qui a transformé la vie de l’homme en le privant de la valeur de son travail de force, celui-ci s’est réfugié au XXème siècle sur le « tabouret » de l’intelligence, développant une croyance dans le fait qu’il avait le monopole de celle-ci.
Mais évidemment la machine a élevé son niveau, précipitant dans l’oubli des professions entières. Déjà, depuis les années 90, 150 000 postes de secrétariat ont disparu (3). Et c’est, dit-on, maintenant au tour des avocats et des médecins d’être menacés par l’intelligence artificielle…
A l’heure où s’affirme l’intelligence artificielle, une étude d’un think tank(4) de l’université d’Oxford en 2013 aboutit à la conclusion qu’un quart des professions existantes ont plus de 90% de probabilité d’être remplacées par des machines… D’autres études estiment qu’à l’échelle d’un pays comme le nôtre, 3 millions d’emplois seront détruits pour seulement 500 000 nouveaux créés (5).
Les bouleversements à attendre de notre écosystème par l’IA sont loin d’être clairement identifiés et, pour la question des professions, comme pour bien d’autres, le débat est loin du consensus : l’IA constituera-t-elle pour l’homme un formidable outil ou une redoutable concurrence ?
Un médecin généraliste aujourd’hui établit un diagnostic en rapportant les symptômes qu’il observe aux cas qu’il connaît pour les avoir appris ou précédemment rencontrés en construisant son expérience. Pouvoir rapporter l’observation instantanément à une base de données de millions de cas, perpétuellement mise à jour des nouvelles occurrences à l’échelle planétaire, est un outil merveilleux qui accroît de façon exponentielle la rapidité et la précision du diagnostic. Mais l’IA a-t-elle besoin de l’homme pour réaliser cette fonction ? A quel rôle, sinon celui de simple opérateur de machine, le médecin humain risque-t-il de se trouver réduit ?…
Si de surcroît l’IA médicale accède directement, via des capteurs biométriques, aux paramètres corporels des patients, et qu’on imagine quelques milliards d’IA médicales surveillant chacune un humain et échangeant en temps réel les informations pertinentes, le médecin à l’ancienne n’est vraiment plus très compétitif… C’est là un des nombreux exemples de domaine que l’IA promet de conquérir par son alliance avec le développement des biotechnologies ; mais on peut citer également ici toutes les applications qui fonctionnent à partir des émotions humaines : de la production artistique (musique notamment) aux systèmes prédictifs à visée sécuritaire ou militaire, en passant par tous les systèmes qui aident à la décision (ou prennent la décision ?) à partir d’analyse de paramètres liés aux comportements et aux émotions. Un négociateur, un banquier, un avocat, ont justement des professions centrées sur ces compétences-là.
Ces perspectives sont à la fois fascinantes et effrayantes. Le diagnostic dermatologique des tumeurs gagne considérablement en fiabilité grâce à la machine, de même que l’évaluation des risques chère aux assureurs. Et puis, imaginer que chaque humain sur terre, puisse bénéficier depuis son village isolé, d’un suivi médical supérieur à celui que le plus fortuné reçoit aujourd’hui en fréquentant les meilleurs hôpitaux est tentant(6 ). Mais à quel prix pour l’humanité, dont la transformation radicale de l’écosystème n’est qu’un commencement ?…

(mise en perspective – extensions)
Churchill avait coutume de dire : « Nous donnons forme à nos bâtiments, puis ils nous donnent forme »(7 ). Quelle conscience – et quelle maîtrise – avons-nous de cette dialectique ?
Günther Anders, dès 1956 dans « L’obsolescence de l’homme »( 8), s’inquiétait de ce que la capacité technologique de l’humanité, qu’il avait vue à l’œuvre à Auschwitz et à Hiroshima, dépassait notre capacité à nous en représenter les conséquences – il utilisait à ce propos la formule de « décalage prométhéen ».
Nous pouvons aussi rapporter notre relation à l’IA à un problème d’« extensions », tel que l’anthropologue américain Edward T. Hall l’analysait dans les années 70i (9). Les « extensions » sont tous les outils et instruments, parmi lesquels le langage, que les formes de vie ont développés. Une toile d’araignée, un nid d’oiseau, un marqueur territorial. Mais l’homme a su faire de ses extensions la clé de son adaptation à un rythme incomparablement plus rapide que la mutation de son ADN. Dans les années 80, alors que l’informatique ne lui est pas connue, Edward T. Hall sonne l’alarme : « L’humanité a fait évoluer ses extensions au point où elles commencent à prendre le contrôle du monde et peuvent finir par rendre la vie impossible si elles ne sont pas mieux comprises » (10)
Doux euphémisme que de rappeler que dans le demi-siècle qui a suivi ces alarmes, peu d’obstacles se sont dressés sur la voie du développement d’extensions comme l’IA ou les biotechnologies.
Quel contrôle, ou simplement quelle compréhension l’humain a-t-il, par exemple, d’une IA – Aladdin pour ne pas la nommer – un seul logiciel qui gère déjà, au jour où nous parlons, 7% des actifs financiers de la planète (11 )?…

(seulement extension ou « espèce » ?)
Nous sommes sans doute ici devant une extension d’une nature différente, ou plus extrême que ne l’ont été le calendrier ou l’automobile. Elle se place sur le plan de l’information et de la décision – là où se plaçait notre « intelligence », elle semble se développer de manière très autonome, et – comme toutes les extensions à enjeu économique – elle se développe de manière incoercible.
Par ailleurs, comme toutes les « extensions », elle concentre à son profit une part non négligeable de l’activité humaine. Pour revenir au sujet par lequel nous avons introduit notre propos – les conséquences sur les professions humaines – l’on peut sommairement classer ces dernières en trois catégories : celles qui subiront peu de conséquences, celles qui seront radicalement transformées, et celles qui seront créées avec pour unique vocation de « servir » la machine : des humains qui produiront du code informatique, qui assureront la maintenance des réseaux et des serveurs, qui ajouteront de la capacité quand la machine en formulera l’impérieuse requête. Nous allons former des bataillons de « chair à IA » en leur donnant l’espoir peut-être illusoire de métiers d’avenir…
A la plage il y a quelques mois, nombre d’entre nous nous sommes accordés la lecture du best-seller de l’été : « Sapiens » de Yuval Noah Harari… On y trouve l’idée qu’entre l’humain cultivateur et la céréale cultivée, la relation dialectique n’est pas nécessairement à l’avantage du premier, si l’on considère la multiplication de la céréale sur la planète et l’effort que l’humain a consacré à celle-ci…
De façon similaire, pour tenter d’approcher la nature de l’IA et ses conséquences sur notre humanité, je vous propose d’aborder celle-ci comme une espèce – à l’instar d’une espèce vivante – avec laquelle notre humanité entretient un rapport d’interdépendance dialectique, peut-être de symbiose, peut-être de concurrence…

(abord de l’autre espèce et hubris humaine)
La plupart des définitions de l’IA que l’on rencontre aujourd’hui ressemblent encore à : « ensemble des techniques informatiques visant à reproduire des capacités de l’intelligence humaine »… Des définitions parfaitement anthropocentriques, donc, axées sur la simulation par la machine de l’intelligence humaine, ou de fonctions cognitives de l’humain…
Dans la même veine, le fameux test de Turing constitue toujours le défi ultime pour une machine que l’on voudrait faire passer pour un interlocuteur humain…
L’inventeur et écrivain Ray Kurzweil – par ailleurs transhumaniste assumé – s’est rendu populaire en exploitant le concept de Singularity (12), point d’accélération exponentielle des super-intelligences artificielles. Toujours en arrière-plan, figure une comparaison des performances du cerveau humain et du cerveau artificiel (13 )…
Et aujourd’hui, on ne compte pas les articles marronniers sur le thème « le match du siècle » entre l’humain et l’IA, riches en formules présentant une « machine pas loin d’égaler voire mettre KO l’intelligence naturelle » (14 ), et figurant la plupart du temps une revue analytique des performances de la machine dans les fonctions cognitives élémentaires attribuées à la pensée humaine : déduction, induction, analogie, intentionnalité, compréhension, imagination, etc (15).
Mais cela me paraît bien mal poser le problème…
L’humain assis en face de la machine, attendant d’un air de défi l’instant où elle sera plus intelligente que lui, me fait penser à un tigre imbu de lui-même : Placé dans une cage face à un humain dénudé, il s’interroge si un jour ce bipède même pas poilu aura des griffes et des crocs capables de rivaliser avec les siens…
De la même manière, l’humain estime la machine à l’aune exclusive des atouts qu’il croit posséder et valorise en conséquence…
Mais Darwin lui-même le disait : « Les espèces qui survivent ne sont pas les espèces les plus fortes, ni les plus intelligentes, mais celles qui s’adaptent le mieux aux changements ».
Et ce n’est pas en affûtant ses griffes et ses crocs que l’humain a eu un succès manifestement supérieur au tigre dans la grande cour de l’évolution…
C’est s’adaptant mieux et en changeant les règles du jeu.

(s’adapter)
Pour ce qui est de l’adaptation, si, comme nous le rappelle Harari, Sapiens s’est distingué des autres espèces en apprenant à s’adapter plus vite que son ADN, que dire de la machine ? Non seulement elle s’adapte vite (on pense à l’algorithme Alpha Zéro de Google, qui a auto-appris le jeu d’échecs en seulement quelques heures avant de battre des algorithmes classiques nourris de la masse des connaissances accumulées par les humains)… Mais, ce qui est absolument nouveau, l’IA sous-traite son adaptation à une autre espèce qui lui est dévouée – l’humain en l’occurrence… Du jamais vu dans l’évolution !

(changer les règles du jeu)
Quant à changer les règles du jeu… je souhaiterais à présent aborder un point qui me paraît central de la différence entre l’humain et l’IA, et qui pourrait bien transformer radicalement notre condition.
A travers son histoire, l’humain a mis au point des savoir-faire lui permettant de gérer la complexité, à commencer par celle de sociétés supérieures en nombre à une centaine d’individus. Harari nous parle de fictions, je préfère parler de réduction. Pour gérer la complexité, l’humain a décliné à tous les niveaux la réduction, qu’on la nomme fiction, abstraction, conceptualisation, ou synthèse.
Les premiers humains ont conceptualisé des catégories abstraites, un arbre ou un chien par exemple.
Les hommes ont nommé les concepts abstraits. Platon a proposé son concept d’eidos (εἶδος), l’idée sous-jacente aux apparences des phénomènes.
Les systèmes religieux et politiques (c’est à l’origine la même chose) ont élaboré et institutionnalisé des mythes partagés, que ce soient par exemple des dieux ou des nations, autour desquels nos sociétés sont encore organisées. Les idéologies politiques se sont construites sur des systèmes de représentations très structurés – le capitalisme comme le marxisme. Les organisations humaines se sont bâties autour d’abstractions – Harari cite les exemples d’une monnaie ou d’une compagnie commerciale.
Les sociétés se sont dotées d’un corpus de règles et de lois, permettant de traiter de manière uniforme – dite donc « juste » – une variété de situations parce qu’on peut alors les rapporter à un même principe.
La mathématique a développé des méthodes permettant de réduire une infinité de problèmes en formules. « Algèbre » est dérivé du mot arabe al-jabr (الجبر), qui signifie « réduction d’une fracture », « réunion (des morceaux) ».
La science des Lumières s’est employée à décrire, puis à classer en catégories et à les nommer.
Les arts se sont organisés en styles, les sciences humaines en écoles de pensée…
Toute la science dure s’est bâtie grâce à des abstractions : des grandeurs, des unités, des modèles exprimés en « lois » – lois de la mécanique newtonienne, de la thermodynamique, de la relativité, etc.
Et ici même, dès l’âge de trois ans, l’on apprend une démarche centrale de la pensée construite de l’humain : le symbole, du grec sun bolon (σύμβολον), mettre ensemble, rassembler ce qui est épars, comme l’accomplit avec ordre la grenade de nos colonnes.
Pour résumer, l’humain a dans tous les domaines géré la complexité et organisé sa pensée en réunissant et réduisant grâce à des abstractions, sans oublier de les nommer.
Naguère Camus nous rappelait encore l’importance de bien nommer les choses (16)… à commencer par les objets sociaux ou politiques.

(et l’IA dans tout ça ?)
A l’opposé, l’IA, que sa puissance de calcul et de communication rend capable d’aborder la complexité sans outil réducteur, stocke, traite et partage les données. Elle ne réduit pas, n’abstrait pas, ne nomme pas.
D’ailleurs on l’oppose usuellement à une informatique plus classique, dite symbolique, qui essaie de reproduire le raisonnement humain par l’enchaînement de règles et de logique, en d’autres termes utilise des représentations et des schémas que l’homme a codés en symboles.
L’IA ne réduit pas, n’abstrait pas, ne nomme pas… Quelques exemples peuvent aider à illustrer cette affirmation…
Il y a une dizaine d’années, j’assistais à un cours de marketing. L’intervenant nous présente un graphique, composé de familles de points selon deux axes. En bon élève proprement formaté par l’école, je l’interroge sur la nature des axes de son graphique : « c’est quoi en fonction de quoi ? ». Et l’intervenant de me répondre que ma question n’a pas de sens : ce ne sont pas des grandeurs connues ou définies. L’IA a généré ses propres agrégats de comportements de consommation et les axes ne représentent pas des grandeurs définies a priori, rapportées à des abstractions humaines.
Facebook procède aujourd’hui à grande échelle de la même façon, en classant et rangeant les utilisateurs en différentes catégories publicitaires. Ici, point de « socio-type », de « catégorie socio-professionnelle », de « classe sociale » : aucune référence à une abstraction humaine.
Autre exemple : DeepMind, la division ad-hoc de Google, a fait jouer en 2018 une IA à des jeux vidéo (17) avec des résultats dépassant ceux des humains (18). Ce n’est pas ce résultat en soi qui est remarquable, c’est le fait qu’il a été obtenu sans que jamais les règles du jeu n’aient été inculquées à la machine. Seul un apprentissage par renforcement a été utilisé. Tandis qu’un humain aurait analysé les situations de jeu en les rapportant à une règle, la machine a statistiquement exploré des millions de combinaisons, qui se traduisaient pour elle par un résultat binaire de succès ou d’échec.
Citons encore une illustration de cette différence fondamentale entre le fonctionnement de l’intelligence humaine et celui de l’IA. Lorsque la DARPA, agence de recherche de l’armée américaine, cherche à développer des systèmes dotés d’une grande autonomie et capables de collaborer avec des militaires « comme des collègues », elle se heurte à un obstacle pour l’instant insurmontable : « l’explicabilité » (explainability)(19). Les ingénieurs ne sont pas en mesure à ce jour d’expliquer pourquoi un système basé sur un réseau de neurones artificiels a pris telle ou telle décision, et cette difficulté restreint sévèrement les possibilités de collaboration homme-machine… Des milliards de dollars sont investis pour tenter de doter la machine d’une capacité à « expliquer » sa décision en termes compréhensibles et convaincants selon les schémas humains.


(conséquences)
L’IA ne réduit pas, n’abstrait pas, ne nomme pas…
Nombreuses sont les conséquences de cette absence de rapport de l’IA à une réduction humaine en règles ou en principes, notamment dans le droit et l’éthique.
Nous avons quelquefois évoqué ici les algorithmes d’orientation des jeunes gens vers les études universitaires. Par-delà les imperfections des systèmes, et les positions idéologiques pour ou contre la sélection à l’université, ces algorithmes bousculent la notion même de droit : ce à quoi j’ai droit n’est pas le résultat de l’application d’une règle connue à l’analyse de mon dossier scolaire, mais répond à une logique d’optimisation statistique globale… et parfaitement inexplicable au niveau de l’instance individuelle.
Le problème d’explicabilité, ou plus généralement de mise en relation avec des schémas humains, qui s’illustre ici comme dans les systèmes militaires dont nous parlions précédemment, se retrouve dans la plupart des applications de l’IA à des domaines à forte dimension éthique. S’il y a une chose difficile à coder et algorithmiser, c’est bien la morale. L’exemple le plus vulgarisé aujourd’hui est celui de la voiture autonome, et des décisions que devrait prendre le logiciel lorsqu’il s’agit de choisir « qui tuer » en situation d’accident (20).
L’approche « tout statistique » sans mise en relation qualifiante avec des schémas et des principes humains, est très insidieuse. Tout récemment, le logiciel linguistique Reverso a été épinglé pour l’abondance des phrases insultantes et antisémites proposées en exemples d’utilisation du mot « Juif » (21). Il semble que ce soit principalement le résultat de la compilation de millions d’exemples d’usages décontextualisés, aspirés dans un abondant corpus de livres et films, incluant par ailleurs aussi des fictions qui entendaient dénoncer l’antisémitisme. Autre exemple, aux États-Unis un logiciel utilisé pour prévoir le risque de récidive chez les prévenus a été épinglé pour discrimination envers les Noirs (22).
Pour l’IA tout est plat, rien n’est qualifié. Aujourd’hui, la seule correction connue à de tels problèmes est le filtrage manuel. Le rôle de l’humain dans sa collaboration avec l’IA, est-il cantonné à de la correction et du filtrage ?… Tant que la volumétrie l’y autorise…


(pour aller plus loin)
Nous avons posé la question « symbiose ou concurrence » entre l’humain et la machine… Une autre question est d’intérêt : qui, de l’homme ou de la machine, parcourra le plus de chemin pour s’adapter à l’autre ? Nous avons vu que les « intelligences » de l’homme et de la machine fonctionnent de manières radicalement différentes, la question de l’explicabilité illustrant l’absolue hétérogénéité entre les deux mondes.
Or il est troublant de constater de nos jours une certaine convergence entre l’évolution des modes de pensée humains et le fonctionnement de la machine. Je me garderai bien entendu de suggérer quelque causalité entre les deux phénomènes (je fonctionne déjà en cela comme la machine). Et nous n’oublions pas que d’autres facteurs, liés au marché, peuvent aussi participer de cette convergence.
La littérature sociologique, pensons à Lyotard (23) à Derrida (24), à Bauman (25), abonde en écrits traitant de l’atomisation du social en souples réseaux de jeux de langage, l’effondrement des référents et des grands récits, comme des institutions.
Et la France connaît actuellement des mouvements protestataires dont l’aveuglante caractéristique est qu’ils ne sont pas structurés autour d’idées ou d’idéologies. D’ailleurs n’oublions pas que ce sont principalement les algorithmes de Facebook qui ont constitué les groupes d’affinités portant les protestations, après avoir repéré des similarités, tout comme les ensembles de points sur le graphique dont je parlais plus haut.
Mais l’on constate également une tendance au centre même de la pensée humaine. Combien de thèses en sciences humaines aujourd’hui ne sont que des recherches de corrélations, dont la rigueur interdit toute théorisation imaginative et abstraite ? Personne aujourd’hui ne pourrait proposer et développer une théorie comme le faisait un Freud, un Jung, un Marx !…
Prenons aussi l’exemple de la manière dont les pathologies mentales sont abordées par la médecine. Pendant la première moitié du XXème siècle, on s’efforçait de décrire les symptômes et de les grouper en pathologies que l’on nommait et que l’on classait soigneusement en névroses et psychoses. Aujourd’hui l’approche clinique est délaissée pour une approche expérimentale et statistique : on se contente d’un sur-ensemble de « big psychosis », et l’on explore la réaction du patient aux diverses substances thérapeutiques.
Et nous parlions de droit… Combien de mémoires d’avocats relèvent moins d’une articulation logique de règles expresses de droit que de la collection de jurisprudences dont on attendrait presque que la quantité emporte la décision… Il est certain que pour construire de telles collections une IA sera d’une performance inégalée…
Observons enfin un adolescent en train de s’initier à un jeu vidéo. Il tente une séquence, échoue, effectue une tentative légèrement différente, répète le processus jusqu’à réussir l’étape. Méthode simple et classique d’apprentissage par essais-erreurs, qui lui permet d’empiler la connaissance des séquences qui fonctionnent. Méthode parfaitement similaire à l’apprentissage par renforcement de la machine. Et ce qui est fascinant, c’est que jamais il ne rapporte cela à une logique. Il sait qu’il faut faire ici comme ceci puis là comme cela et que ça marche, c’est tout. Jamais il ne s’interroge sur la logique sous-jacente (ou l’absence de celle-ci) qu’a suivie le programmeur de son jeu.
A l’époque de l’avènement de l’IA, la pensée humaine se transforme. Est-ce une simple coïncidence ?
Mais surtout, comment faut-il comprendre cette transformation ? Adaptation bien utile à la survie de l’espèce humaine, ou renoncement au mode de fonctionnement qui la caractérise depuis un million d’années, transformation qui pourrait faire jouer notre espèce dans une cour qui n’est pas la sienne et lui ferait oublier ses repères éthiques ?…
En tout cas, le décalage prométhéen, pour reprendre la formule de Günther Anders, est béant.

(conclusion)
Nous autres humains aimons bien conclure (un anachronisme, déjà ?)…
Je ne vous ai pas parlé de nouvelles armes destructrices, de surveillance généralisée des citoyens, de remplacement généralisé des employés par des robots, de dérapages éthiques, de super-intelligences devenues autonomes et puissantes, prêtes à coloniser notre galaxie après avoir pris le contrôle de nos sociétés…
Mais l’humanité serait bien avisée de s’intéresser au décalage prométhéen dans lequel nous place cette technologie.
Lui donner un sens, apprendre à en garder la maîtrise, anticiper les transformations sociales et savoir réorganiser la société autour, ne sont qu’une première étape, pour substantielle et incertaine qu’elle soit.
Nous devrions aussi cesser de ne voir l’IA qu’à travers le prisme de nos propres compétences. Comprendre que nous nous transformons nous-mêmes en profondeur dans cette relation symbiotique avec une espèce qui risque moins de nous « dépasser » que de nous entraîner vers des routes sur lesquelles nous ne savons pas conduire…


Christian D… mars 2019

  • Notes
  • 1 IBM 360
  • 2 “I believe, and the Company believes, that the computer will not obsolete man”
  • 3 cf. « Le marché du travail est en train de perdre son milieu. L’urgence est d’inventer la société qui va avec » Le Monde, 28/01/2019.
  • 4 Future of Humanity Institute (FHI)
  • 5 Le Monde video « Serons-nous un jour remplacés par des Intelligences artificielles ? « 
  • 6 Yval Noah Harari, 21 lessons for the 21th century, Penguin Random House UK (2018), chapter I, 2.
  • 7 “We shape our buildings; thereafter they shape us”
  • 8 Günther Anders, L’obsolescence de l’homme, 1956, traduction française aux Editions de l’Encyclopédie des Nuisances (2002).
  • 9 Edward T. Hall, Beyond Culture, 1976.
  • 10 Edward T. Hall, The Dance of Life, The Other Dimension of Time, 1983.
  • 11 Aladdin, développé sous l’égide de Larry Fink (BlackRock), qui gère 15 000 milliards de $.
  • 12 Ray Kurzweil, The Singularity is Near, 2005 (en réalité le concept de Singularity a été proposé par Vernor Vinge en 1993 (The Coming Technological Singularity). Ce concept de fiction est considéré comme pure sornette par de nombreux chercheurs en IA.
  • 13 voir aussi Ray Kurtzweil, How to Create a Mind: The Secret of Human Thought Revealed, 2013
  • 14 voir par exemple le numéro (118) d’avril 2018 de Philosophie Magazine, p.48.
  • 15 voir par exemple Les 7 circuits de la pensée, dans le numéro (118) d’avril 2018 de Philosophie Magazine, pp.50-55.
  • 16 « mal nommer les choses c’est ajouter au malheur du monde »
  • 17 Quake III
  • 18 « Quand l’IA apprend toute seule à jouer à Quake », Sciences et Avenir, 09/07/2018, article d’Arnaud Devillard.
  • 19 « L’armée américaine investit 2 milliards de dollars dans l’intelligence artificielle », Le Monde, 10/09/2018.
  • 20 Voir la plateforme « Moral Machine » mise en ligne par le MIT, destinée à recueillir la perspective humaine sur les décisions que la machine (voiture autonome) serait appelée à prendre. http://moralmachine.mit.edu/
  • 21 « Pourquoi le site de traduction Reverso affiche parfois des résultats antisémites », Le Monde, 28/02/2019
  • 22 par le site d’investigation ProPublica. Voir « Ethique et intelligence artificielle : récit d’une prise de conscience », Le Monde, 04/10/2018.
  • 23 Jean-François Lyotard, La condition postmoderne, Les Editions de Minuit, 1979
  • 24 La déconstruction
  • 25 Zygmunt Bauman, Liquid Times – Living in an Age of Uncertainty, Polity, 2007 et autres ouvrages sur le thème d’un monde « liquide »

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Copyright © 2022 Science et Solidarité. Copie strictement interdite.