Sortir les intelligences artificielles de l’ombre
TRIBUNE – Les intelligences artificielles risquent de rendre invisibles les technologies. Cela s’ajoute au fait que celles-ci sont déjà des boîtes noires : nous savons les utiliser, mais ignorons comment elles fonctionnent. Une nouvelle hétéronomie pourrait naître de cette technicisation du monde, met en garde Julien de Sanctis. Pour ce spécialiste des nouvelles technologies, il faut améliorer notre compréhension des artefacts avec lesquels nous interagissons pour accroître nos capacités d’auto-détermination face à leur pouvoir structurant.
Diplômé de l’ESSEC et de l’Université Paris Panthéon-Sorbonne, Julien De Sanctis est doctorant à l’UTC en Philosophie et Ethique appliquée à la robotique interactive. Il effectue sa thèse en CIFRE avec Spoon, une jeune start-up créée fin 2015. Chroniqueur pour iPhilo et La Pause Philo, il travaille avec l’agence Thaé qui promeut la philosophie pratique auprès d’acteurs privés comme les entreprises.
Chaque jour, dans les coulisses de notre existence, des nuées d’intelligences artificielles (IA) s’activent pour faciliter, analyser ou encore contrôler notre quotidien. Le principal défaut de ces IA, eu égard à une conception humaniste des technologies, est leur manque, souvent absolu, d’interactivité. Comment se positionner et se définir comme sujet face à quelque chose d’imperceptible et d’impalpable ? Travailleuses de l’ombre, les IA ne sont-elles pas également les émissaires d’une hétéronomie technologiquement instituée ? Sans la possibilité, même minime, d’interagir avec elles, elles deviennent totalitaires en ce qu’elles confisquent les conditions minimales d’émergence de toute relation subjectivante envers elles. Il semble donc nécessaire de doter ces artefacts de capacités interactionnelles. Toutefois, comme nous allons le voir, l’interaction en soi n’est pas suffisante pour faire émerger ce que j’appelle une encapacitation technique.
Structures de pouvoir et sculptures éthiques…
Dans sa thèse de doctorat intitulée The design of our own lives. Technical mediation and subjectivation after Foucault, Steven Dorrestijn développe une interprétation originale du travail de Michel Foucault sur le pouvoir en l’appliquant aux techniques. A l’instar de ce que Barthes a pu dire sur le langage dans son discours d’intronisation au Collège de France, le philosophe hollandais explique que les artefacts, quels qu’ils soient, sont et resteront des structures de pouvoir. Il entend par là qu’ils imposent des usages mais aussi des façons d’agir, d’interpréter et de s’organiser dans le monde. Selon Dorrestijn, il est vain de vouloir échapper à ce pouvoir. L’éthique n’est pas à chercher du côté de l’émancipation, mais plutôt dans la capacité de sculpter notre propre rapport aux artefacts. Une citation d’Olivier Nannipieri est intéressante à cet égard :
«L’homme est un entre-deux : son humanité réside dans la résistance au déterminisme – sous toutes ses formes : lois de la nature, influences sociales, etc. Mais cette résistance se manifeste rarement par un rejet absolu et définitif, elle est plus subtile. Elle consiste généralement en un détournement. A y regarder de manière superficielle, on croit que l’homme est docile : il obéit aux prescriptions, il adopte presque instantanément toute innovation technique, même la plus inutile. Et pourtant, parfois, sa manière de résister consiste non pas à refuser l’objet qu’on lui présente, mais à transformer sa relation à l’objet [1]».
Dans cette perspective, l’idée d’une éthique basée sur la sculpture de nos relations aux techniques n’est pas qu’une simple métaphore. Plus qu’une image, le verbe sculpter témoigne primo de la volonté d’information [2] de nos rapports aux objets et secundo du caractère esthétique d’une telle activité. L’idée de la «belle relation» est très présente dans la pensée grecque antique. Celle-ci se caractérise par un rapport équilibré où le sujet ne domine ni n’est dominé par l’objet (ou le sujet) avec lequel il entre en relation. J’avais donné un exemple concret de cette sculpture dans un article dédié à mon rapport aux jeux vidéo.
Encapacitation technique
- «Rendre la technologie invisible»
On l’aura compris, dire que l’on n’échappe pas au pouvoir en général ne signifie aucunement qu’il faille se résoudre à subir tous les pouvoirs en particulier. On peut agir pour changer le mode de pouvoir qu’exercent les artefacts. Il est en revanche illusoire de penser parvenir à dissiper le pouvoir lui-même. Le plus grand danger est celui du totalitarisme technologique, c’est-à-dire un pouvoir n’autorisant absolument aucune interaction avec lui. Des dérives peuvent d’ailleurs se cacher dans des intentions parfaitement louables. Rand Hindi, dirigeant de la jeune société « snips » dont le slogan est «Using voice to make technology disappear», explique vouloir rendre la technologie invisible grâce à l’interaction par interface naturelle. Son entreprise propose une technologie open-source d’assistance vocale qui, contrairement à Google Home ou Amazon Alexa, n’envoie aucune donnée dans le cloud. La promesse de « snips » se concentre sur le respect des vie privée et anonymie de ses utilisateurs car, contrairement à ce que l’on croit -ou, plutôt, veut bien nous faire croire- cela est non seulement techniquement possible mais aussi commercialement viable. En substance, la question forte que pose Rand Hindi est la suivante : puisque les technologies permettant de garantir la vie privée des utilisateurs existent, pourquoi toutes les entreprises ne les utilisent-elles pas ?
Si le discours de « snips » dépasse le simple effet d’annonce, alors son initiative doit être saluée et encouragée ! J’insiste sur ce point : il est très rassurant de voir que de jeunes entrepreneurs s’emparent de ces valeurs et cherchent à le transcrire dans des actions concrètes. Il est également salutaire qu’une place croissante soit donné aux discours alternatifs à ceux des GAFA. Il faut toutefois se garder de résumer l’éthique des techniques numériques à la question, certes très pressante, des données personnelles. Les artefacts destinés à remodeler les interactions humain-machine sur le mode naturel posent, selon moi, un autre problème de taille : celui d’une potentielle aliénation par simplification. Je m’explique. La technicisation croissante de nos sociétés occidentales repose en grande partie sur une culture des usages et non du fonctionnement des techniques. Autrement dit, les artefacts sont de véritable boites noires : nous savons massivement les utiliser, mais nous ne connaissons que rarement les principes qui les animent. Dans notre modèle dominant de conception technique, le commun des mortels est perçu sous le seul angle de l’usager (et du client) et non du technicien potentiel. Cette vision n’offre que peu de place à l’encapacitation (empowerment) technique des utilisateurs qui se retrouvent trop souvent à subir l’innovation, quand bien même ils s’empareraient fermement des usages possibles des artefacts.
- Encapaciter techniquement : le rôle du design et de l’école
Il est ici nécessaire d’expliciter ce que j’entends par encapacitation technique, notion venant de l’anglais empowerment, difficile à traduire élégamment en Français. Encapaciter techniquement consiste à donner aux utilisateurs les moyens de comprendre les artefacts avec lesquels ils interagissent pour accroître leurs capacités d’auto-détermination et de contrôle face à leur pouvoir structurant. A cet égard, la prolifération des IA dans l’imperceptible se révèle problématique en ce qu’elle fait rempart à l’encapacitation. En effet, comment comprendre et contrôler une technologie dont on ignore jusqu’à la présence ? Il me semble impératif de doter les IA d’avatars (virtuels ou physiques selon les cas) permettant de les phénoménaliser. Puisque l’exemple de snips a été donné, on pourra rétorquer que les assistants vocaux ne sont pas imperceptibles. Ils ont un «corps» et «parlent». C’est vrai, mais la seule interaction par langage naturel (ILN) avec un produit physiquement identifié ne saurait conduire à une réelle encapacitation. Au contraire, elles peuvent favoriser la mise à distance de la culture du fonctionnement en renforçant l’impression de «magie» technique (déjà bien entretenue par la communication des fabricants). Pour générer de l’encapacitation, les artefacts d’ILN comme les IA en général, doivent offrir la possibilité à leurs utilisateurs d’explorer et de contrôler l’envers du décor. L’ILN prend ici tout son sens car on peut envisager, à terme, la possibilité de programmer soi-même une IA sans prérequis technique. L’idée est également de pouvoir lui demander de s’auto-expliciter. Si une IA fait appel à un algorithme de reconnaissance faciale, elle devra être en mesure 1) de le signaler et 2) d’expliquer comme il fonctionne sur demande. C’est là un exemple quant à la façon dont le design pourrait contribuer à l’encapacitation technique. Mais cela suppose une réelle volonté de ne pas entretenir l’obscurantisme technologique.
Notons enfin que la responsabilité des fabricants est énorme, mais qu’il serait actuellement illusoire de tout attendre d’eux en la matière. L’encapacitation technique est aussi affaire d’éducation, de formation et de régulation. Ici, je me concentrerai sur les deux premières. A cet égard, il est grand temps de réfléchir au rôle de la technologie à l’école autrement qu’en parlant de l’introduction des tablettes dans les salles de classe. A l’heure où notre quotidien est plus que jamais -et ne cessera d’être plus que jamais- régenté par des logiques artefactuelles, il est impératif de réaliser que la technique est bien plus qu’une question économique : c’est un enjeu politique et social ! Veut-on former des techno-citoyens, c’est-à-dire des personnes armées pour comprendre et agir dans le monde que les artefacts contribuent à construire ? Ou préfère-t-on encourager grégarité et servitude semi-volontaire ? Les mots sont forts, un peu par provocation, mais également un peu par réalisme et inquiétude. L’encapacitation technique est un thème dont l’école doit s’emparer. Il est intéressant d’imaginer que les cours de technologies commencent au collège, comme à l’heure actuelle, et se prolongent au lycée, sans forcément soumettre la «matière» aux systèmes de contrôle et de validation habituels. Ces cours pourraient se scinder en deux, avec des moments spécifiquement dédiés au technologos (histoire, philosophie, économie, actualité des techniques etc.) et d’autres centrés sur la technopraxis, c’est-à-dire la pratique des techniques (acquisition de compétences techniques de base en code, UX/UI, logiciels graphique/vidéo, maintenance et sécurité informatique etc.).
Entre les menaces de l’hétéronomie et les chimères de l’autonomie
Ces deux propositions me semblent pertinentes pour lutter contre l’hétéronomie dont les artefacts peuvent être porteurs. Je rappelle, dans cette remarque conclusive, que l’objectif n’est pas de viser l’autonomie pure et parfaite, qui est une notion aussi chimérique que son homologue économique en matière concurrentielle. L’encapacitation technique vise plutôt à équilibrer les rapports de pouvoir entre l’humain et les technologies qu’ils mobilisent quotidiennement pour 1) se positionner de façon éclairée face à elles et 2) ne pas servir uniquement des intérêts qui lui sont totalement extérieur.
[1] NANNIPIERI Olivier, Du réel au virtuel. Les paradoxes de la présence, L’Harmattan, coll. Ouverture Philosophique, 2017, p.49-50.
[2] Au sens premier, l’information désigne l’action de donner ou de recevoir une forme.
Cet article a été originellement publié sur son blog « Le Mouton numérique »
Diplômé en Gestion (ESSEC Business School) et en Philosophie (Université Paris Panthéon-Sorbonne), Julien De Sanctis est doctorant à l’UTC en Philosophie et Ethique appliquée à la robotique interactive. Il effectue sa thèse en CIFRE avec Spoon, une jeune start-up créée fin 2015. Julien est également chroniqueur pour iPhilo et le blog de vulgarisation philosophique La Pause Philo. Parallèlement à ces activités académiques et d’écriture, Julien travaille avec l’agence Thaé qui promeut la philosophie pratique auprès d’acteurs privés comme les entreprises, notamment via l’organisation d’ateliers philosophiques ou l’accompagnement des comités stratégiques.
Commentaires
J’ai lu. Presque jusqu’à la fin. Avec beaucoup de difficultés, tellement les mots ne me parlent pas.
Les mots ici ne me donnent même pas envie de parler la même langue, et me font me demander… si je parle la même langue que l’auteur.
Et je suis passée sur les bancs de l’université, qui plus est.
Depuis le temps, on doit savoir ici que je suis pessimiste sur ce sujet.
L’influence de l’informatique sur nos vies me fait l’effet d’une méga bombe atomique, sauf que nous ne nous rendons pas compte que nous subissons l’effet d’une bombe atomique, et nous croyons maîtriser, ET POUVOIR MAITRISER les effets de cette bombe atomique.
Si vous avez besoin de vous rendre compte de l’ampleur du désastre, descendez une rue un jour, et regardez dans les vitrines (forcément transparentes…) des boites, boutiques, entreprises, administrations que vous rencontrez. Vous verrez le nombre astronomique de personnes avec leurs yeux baissés sur un écran.
C’est triste, toutes ces personnes dont les yeux sont braqués sur un écran…ARTIFICIEL, forcément artificiel, pour travailler ET pour jouer. Un écran entre nous et notre monde, et extérieur même à notre conscience. Une.. double aliénation, en quelque sorte, comme si l’aliénation de la conscience ne nous suffisait pas…
Appauvrissant comme univers, je dis.
Oui, une bombe atomique…
par Debra - le 29 juillet, 2018
Pourquoi des hommes n’auraient pas le désir de parler à des machines, de se soumettre à leur manière d’être au monde, de devenir machine à leur tour, de se programmer comme on le fait d’une machine ..etc …
Le monde de la connaissance issu du monde occidental offre des possibilités pour des hommes aventureux ou givrés ou mutants ….car il s’agit d’un monde où l’être des choses est modifiable dans une certaine mesure.
Le problème est toujours le même : pourquoi ces hommes si particuliers et quelque peu primaires imposeraient aux autres hommes et êtres vivants sur la terre leur mode de vie de machine, leur langage machine …etc ?
Il faut trouver un moyen de confiner les occidentaux et leurs modes de vie particuliers sur un territoire de telle sorte que nous autres, hommes non désireux de devenir des machines, puissions vivre à notre guise sur un territoire non « contaminé » !
Ce que je reproche à ces « illuminés » c’est de parler au nom de l’humanité comme s’ils décidaient du destin de « notre » univers grâce à « leur » technique. Problème politique donc.
par Gérard - le 29 juillet, 2018
Article tres intéressant – effectivement nous nous servons des ordi à outrance, ils nous rendent service, ils nous captivent, mais nous ne connaissons pas l’envers du décor, leur tuyauterie, leur machinerie. Tout est électronique aujourd’hui, même les voitures au grand dam de certains qui ne peuvent plus fourrer le nez sous le capot. C’est sur, on veut nous ôter le peu d’automonie que nous avons encore. C’est un piège économique mais qui s’avére aussi politique et social. L’auteur préconise que nous interagissions avec les machines avant que celles-ci soient définitivement opaques pour tout le monde et ingérables par le fait. Alors soulevons les capots puisqu’il y en a encore ! Apprenons aux enfants les techniques de bases de fabrication de ces instruments pour qu’ils puissent les maîtriser dans leur monde futur.
par Vallet nathalie - le 30 juillet, 2018
Merci pour cette pertinente analyse. Je fais partie de la génération qui savait procéder elle-même à la vidange de sa voiture, au changement des bougies, voire des plaquettes de frein. On ne se sentait pas désarmés devant cette petite merveille de la technique : une voiture. Aujourd’hui, combien s’aventurent à ouvrir un ordinateur ou un smartphone ? Nous nous sentons à la merci de la technologie, traqués par les algorithmes, et le 1984 d’Orwell ne nous en paraît que plus génial. Vous avez mis dans le mille : une nouvelle hétéronomie pourrait bien s’emparer de nous. Bravo, vraiment, pour votre lucidité.
par Philippe Le Corroller - le 3 août, 2018
Bonjour,
Apprentissage du digital et du numérique dés l’âge de la moyenne section et mise à niveau permanente jusqu’à l’âge de la retraite; et après…
Cette contribution me rappelle mon enfance. Quand je découvrais le calcul et plus tard les mathématiques,matières que j’exécrais. Pas un des maître ne m’eut expliqué l’utilité concrète des exercices imposés.
Comment ça marche et pourquoi est-il nécessaire de savoir solutionner des problèmes. Le besoin de domestiquer et de procéder à une gymnastique cérébrale.
Lutter contre, l’élitisme scientifique-nouvel aspect de la lutte des classe sociales-les teneurs des intelligences artificielles,couper l’invisibilité des fils,rester connecté.
Voter des gardes-fous pour garantir à tous une éthique de progrès assimilable.
par philo'ofser - le 18 août, 2018
[…] aussi : Sortir les intelligences artificielles de l’ombre (Julien de […]
par iPhilo » Anonymisation des données personnelles : l’arbre qui cache la forêt - le 13 décembre, 2018
Laissez un commentaire