"Voyage d'un philosophe au pays de l'intelligence artificielle"
L'Intelligence Artificielle (IA) est une technique de décision et de choix automatisés dont le développement actuel est explosif. Elle parait, pour certains, menacer notre libre arbitre et par voie de conséquence notre démocratie libérale qui repose sur la responsabilité des citoyens, libres de leurs choix. L'IA, meilleure que l'homme aux échecs, au jeu de go, à la lecture des radios médicales, dans la détection de cancers, dans la conduite des véhicules, etc. va-t-elle bientôt nous conduire par la main ? C'est la thèse de la "servitude volontaire" douce de Yuval Harari (Homo Deus) et d'un courant de pensée actif fondé sur la non-existence du libre arbitre. C'est pour montrer les faiblesses conceptuelles cette thèse que ce livre a été écrit. "L'IA est un système fermé qui peut se dispenser de toute vision du monde" écrit-il. C'est donc un sous-système, établi sur les données du passé et conservateur, et cela seulement. Cet essai est un travail brillant par sa documentation et son approche, accessible à tout lecteur et éminemment utile à notre époque, fascinée par les catastrophismes simplificateurs de tous poils.
Qu'est-ce que l'IA ?
Rappelons-le d'abord brièvement sur un exemple. Je sais ce qu'est un chat. Sur une photo, s'il y en a un je le vois, si je suis attentif. L'IA est une technique (pas une science !), qui le verra toujours en un millième de seconde en regardant une photo nouvelle. La machine aura pour cela compilé des millions de photos sur lesquelles il y a ou pas des chats, en aura analysé tous les détails et aura corrélé ces détails avec le résultat de présence de chat (ou non) détectée par l'homme pour chaque photo. Notons au passage qu'un enfant sait reconnaître un chat quand il en a vu deux ou trois. Il en a créé le concept, ce que l'IA ne fait pas, d'une façon encore peu claire pour les chercheurs. Notons donc que l'IA produit des résultats, exacts, mais à travers un processus qui est totalement différent de l'intelligence humaine. Reconnaître des chats est d'un intérêt modéré, mais des cancers, presque infailliblement, ou conduire un véhicule en sécurité serait plus utile. Ou simplement, à la mode de Google, nous proposer des produits, voire des décisions plus intimes qui nous conviennent bien n'est pas à négliger. Et, demain peut-être, un choix d'études que l'on réussisse, ou un conjoint idéal, ou un Président qui convienne à la France, ou la culpabilité d'un prévenu, ou la guerre qu'il faut faire, etc. ? Tout ceci décidé par la machine. Cela pose question, n'est-ce pas ?
L'IA a des conséquences humaines et sociales
La Chine, où l'auteur a procédé à de nombreux interviews, a fait le choix de les accepter et de se lancer dans une course folle à la prééminence mondiale dans la technique de l'IA. Confucius aurait en effet apprécié une philosophie de la décision qui optimise l'intérêt public jusque dans nos décisions privées. La démocratie n'apparaît pas non plus comme un système optimal aux yeux de ce pays. Ce n'est pas notre cas et notre culture politique n'admet pas qu'une machine fasse par exemple la justice à notre place au prix d'un flicage de masse, de reconnaissance faciale et de suivi permanents. L'auteur pose alors la question des conséquences à terme de cette soumission à l'IA. Conservatisme structurel, paresse, voire infantilisation, induits par des décisions imposées et toujours optimales sur leur objet, mais négligeant tout le reste, impréparation à l'inattendu (l'essence même de nos vies), perte de responsabilité des citoyens, fragilité d'un système "parfait" mais qui peut s'enrayer d'autant plus facilement qu'il est complexe, thème récurrent des ouvrages de SF.
J'ajouterai une remarque personnelle. Ce n'est sans doute pas si surprenant que les cultures asiatiques, fascinées aujourd'hui par l'IA, privilégiant le conservatisme d'un collectif bien huilé à l'individualisme désordonné, n'aient jamais contribué aux découvertes scientifiques, dont elles savent, par contre, tirer un magnifique parti technique.
J'ajouterai une remarque personnelle. Ce n'est sans doute pas si surprenant que les cultures asiatiques, fascinées aujourd'hui par l'IA, privilégiant le conservatisme d'un collectif bien huilé à l'individualisme désordonné, n'aient jamais contribué aux découvertes scientifiques, dont elles savent, par contre, tirer un magnifique parti technique.
L'auteur tente ici de dégager les conditions d'une issue à ce dilemme.
- L'apport incontestable de l'IA doit pouvoir être préservé comme outil de choix, de décision, là où il performe. Le champ est immense et il est d'ailleurs lamentable que ni l'Europe ni les nations qui la composent n'aient pris les mesures utiles pour ne pas devenir les colonisés de la Chinamérique.
- L'apport incontestable de l'IA doit pouvoir être préservé comme outil de choix, de décision, là où il performe. Le champ est immense et il est d'ailleurs lamentable que ni l'Europe ni les nations qui la composent n'aient pris les mesures utiles pour ne pas devenir les colonisés de la Chinamérique.
- Il n'existe pas de risque quantifiable qu'une "Super IA" fasse de nous ses esclaves. Il ne faut pas que l'IA devienne le refuge de nos fantasmes.
- L'IA ne fera disparaître que les métiers fermés sur eux-mêmes, sans interaction avec l'extérieur... s'il en existe !
- Le pillage des données, qui sont la matière première de l'IA doit cesser. Le RGPD est la première marche d'un grand escalier.
- L'IA peut et doit évoluer pour intégrer mieux qu'elle ne le fait les éléments constitutifs de nos personnalités (notre histoire, notre expérience, notre éducation, nos talents, etc., ingrédients de notre représentation du monde) dans ses algorithmes quand il s'agit de les utiliser pour des décisions qui engagent notre responsabilité. Un exemple : une voiture autonome doit respecter les valeurs et les croyances du conducteur, face aux situations que la conduite peut engendrer... quitte à ce que la solution soit sous-optimale. Rien n'est plus irritant, par exemple, que ce GPS qui veut vous conduire chez vous par la rue Dupont quand vous avez l'habitude de le faire par la rue Durand !
- Ainsi les choix, en particulier politiques, préserveront et respecteront la diversité et la liberté personnelle, constitutive des démocraties. Cette responsabilité ainsi préservée de chacun sera, face aux imprévus de l'histoire, la garantie d'une capacité de réaction et d'invention.
- Le pillage des données, qui sont la matière première de l'IA doit cesser. Le RGPD est la première marche d'un grand escalier.
- L'IA peut et doit évoluer pour intégrer mieux qu'elle ne le fait les éléments constitutifs de nos personnalités (notre histoire, notre expérience, notre éducation, nos talents, etc., ingrédients de notre représentation du monde) dans ses algorithmes quand il s'agit de les utiliser pour des décisions qui engagent notre responsabilité. Un exemple : une voiture autonome doit respecter les valeurs et les croyances du conducteur, face aux situations que la conduite peut engendrer... quitte à ce que la solution soit sous-optimale. Rien n'est plus irritant, par exemple, que ce GPS qui veut vous conduire chez vous par la rue Dupont quand vous avez l'habitude de le faire par la rue Durand !
- Ainsi les choix, en particulier politiques, préserveront et respecteront la diversité et la liberté personnelle, constitutive des démocraties. Cette responsabilité ainsi préservée de chacun sera, face aux imprévus de l'histoire, la garantie d'une capacité de réaction et d'invention.
Voici donc un livre qui ouvre à la fois l'esprit sur un sujet important, à priori ésotérique, qui nous aide à en comprendre les enjeux et qui propose une voie pour y répondre. Et qui, au cours du propos, aborde cent autres points liés de près ou de loin à l'effet de la technique sur l'homme et sa société. Il rapporte, en particulier, les opinions et les convictions d'individus qui, aujourd'hui, font bouger le monde dans ces domaines. La "fin de l'individu" n'est sans doute pas pour demain. Une remarquable réussite !
L'Observatoire (2019), 400 pages