iPhilo » Levinas et les robots

Levinas et les robots

8/02/2019 | par Julien De Sanctis | dans Science & Techno | 3 commentaires

Download PDF

ANALYSE : L’auteur de Totalité et infini aurait certainement considéré que les robots, bien que développés de plus en plus à l’image de l’homme, n’ont pas de «visage», remarque Julien de Sanctis, philosophe des techniques. Mais est-ce aussi simple ?


Diplômé de l’ESSEC et de l’Université Panthéon-Sorbonne, Julien De Sanctis est doctorant à l’UTC en philosophie des techniques. Il effectue sa thèse en CIFRE avec la startup de robotique sociale Spoon. Chroniqueur pour iPhilo et La Pause Philo, il travaille avec l’agence Thaé de philosophie en entreprise. Son site personnel : Prometheus Shame


La robotique sociale, également appelée robotique interactive, est un jeune champ de recherche (et de développement) dont l’objectif général est de produire des artefacts capables d’interagir socialement avec l’être humain. Ces interactions peuvent servir une fonction spécifique telle l’accession à des services numériques divers, ou être utilisées pour leurs vertus potentiellement socialisantes dans différents dispositifs thérapeutiques (accompagnement de l’autisme ou du grand âge). Du point de vue scientifique, on vante également les mérites «réflexifs» de la sociobotique en ce qu’elle représente l’occasion d’étudier, par contraste et confrontation expérimentale, la socialité humaine.

Au-delà, force est de constater qu’il n’existe pas, à cette heure, d’étude poussée du concept quelque peu fuyant de «robot social». En quoi un robot peut-il être qualifié de social ? Quelles représentations du social, conscientes ou non, orientent la conception des sociobots ? Ce sont là des questions que je prends en charge dans ma recherche doctorale, tant elles paraissent nécessaires à la compréhension de ce qu’est la robotique sociale. Mais l’enquête ne saurait s’arrêter à la dimension sociotechnique du domaine. En effet, les roboticiens produisent déjà des entités dont nous pouvons faire l’expérience et dont nous pouvons d’ores-et-déjà dire quelque-chose.

Lire aussi : Sommes-nous déjà devenus des cybrgs ? (Julien de Sanctis)

Le primat actuel de l’expérience sur la théorie – il existe des robots sociaux, mais pas de théorie du robot social – pousse à analyser la sociobotique en termes herméneutiques comme activité productrice d’altérités nouvelles. Car c’est bien de cela dont il s’agit : la robotique sociale accouche d’entités que nous pouvons qualifier spontanément d’autres, mais que l’appréhension phénoménologique pure, non raffinée par une description a posteriori, ne nous permet pas de singulariser. Une grande partie des efforts techniques en robotique sociale convergent vers la modélisation de comportements et, plus largement, de signaux phénoménologiques incitant à anthropomorphiser les sociobots. Est-ce à dire que ces autres nous apparaissent sur le mode de l’altérité humaine ?

Dans cet article, je m’intéresserais à cette question en convoquant le concept de visage développé par Levinas. Selon lui, la rencontre avec l’autre (humain) s’effectue dans la «visageité» qui est un mode éthique d’apparition d’autrui. Malgré les tropismes anthropomorphes de la robotique sociale, on ne saurait intégrer ses créations à la «visagéité» telle que la définit le philosophe, à moins de trahir le concept initial en se cantonnant à une analyse phénoménologique trop superficielle. La «visagéité» reste toutefois une analyse très intéressante pour penser l’altérité des robots et, surtout, ses effets sur l’humain.

Entre vulnérabilité et responsabilité

Levinas est un penseur incontournable pour qui s’intéresse à la question de l’altérité. On lui doit notamment de profondes analyses de la rencontre avec l’Autre et de ses implications éthiques dans ce qu’il nomme le visage. Le concept lévinassien de visage désigne une expérience méta-esthétique qui ne doit pas être confondue avec celle, quotidienne, du visage comme expression animée de la face. Au contraire, le visage d’autrui est ce qu’on expérimente, ce qu’on ressent, ce qui s’impose à nous indépendamment de la perception de son visage physique. Dans un entretien conduit par Philippe Nemo en 1984, Levinas déclare :

«Je me demande si l’on peut parler d’un regard tourné vers le visage, car le regard est connaissance, perception. Je pense plutôt que l’accès au visage est d’emblée éthique. C’est lorsque vous voyez un nez, un front, un menton, et que vous pouvez les décrire, que vous vous tournez vers autrui comme vers un objet. La meilleure façon de rencontrer autrui, c’est de ne même pas regarder la couleur de ses yeux.»

Comme j’ai pu l’expliquer ailleurs, Levinas soutient que la philosophie n’est jamais parvenue à penser correctement l’altérité. Les grands penseurs se sont évertués à faire d’autrui l’objet d’une connaissance.  Or, «toute connaissance revient à un retour identificatoire à soi [1]», c’est pourquoi tenter de connaître l’Autre, de comprendre ce qu’il est nous éloigne nécessairement de l’altérité authentique. La connaissance d’autrui n’est autre que l’expression du retour au Même, car elle ramène vers moi quelque chose qui m’échappe. C’est pourtant bien là le propre de l’altérité : (s’)échapper. Le connaissable d’autrui est la part de Même qu’il offre en partage. Sa véritable altérité, ce qui le rend authentiquement autre est insaisissable, incompréhensible, absolument a-théorique, et il faut l’accepter. Le contact avec cet autrui invisible et indicible se fait dans la rencontre avec son Visage, mais un visage sans traits, sans contenu, un visage pure-présence qui déborde toute notion de forme. Le visage d’autrui n’est pas son visage en tant qu’il est un être singulier prénommé Yann, Camille ou Sylvain, mais uniquement en tant qu’il est autre que moi. C’est la trace de l’habitant de l’être, celle qui me fait deviner que derrière la chair, derrière l’expressivité de cette personne qui apparaît à mes sens, se cache un sujet. «Le visage, c’est l’irruption de l’autre dans mon existence (…), c’est l’exigence d’Autrui qui expulse le Moi de son tranquille repos [2]».

La rencontre avec le visage de l’autre est un événement métaphysique. Elle est foncièrement troublante car elle nous arrache à la quiétude du Même. Autrui communique avec moi sans avoir à me parler. Le Visage s’exprime même quand le visage est muet. Cette communication s’offre comme une révélation : elle raconte la misère, la nudité, la vulnérabilité foncière d’Autrui qui m’implore tout en exigeant de moi que je le soutienne, que je sois responsable de lui. La rencontre avec l’Autre n’a donc rien d’épistémologique, elle est d’emblée éthique. Pour Levinas, le Visage est toujours ambigu car la misère qu’il révèle invite au meurtre d’Autrui tout en l’interdisant. Rencontrer authentiquement Autrui, c’est donc faire face à une vulnérabilité qui me responsabilise en ce qu’elle me place immédiatement en situation de choix originaire : pour être, je me dois de répondre de cet Autre qui me fonde et m’implore. Nul doute que Levinas aurait vivement condamné les drones et ce qu’on appelle aujourd’hui les robots tueurs ou SALA (Systèmes d’Armes Létaux Autonomes) pour la déresponsabilisation réifiante dont ces technologies nous rendent coupables envers Autrui. Le meurtre interfacé a quelque chose du péché absolu car il s’accompli dans un contexte de totale de dé-visagéité de l’Autre, de négation de sa visagéité qui justement fait de lui un Autre. Tuer par l’intermédiaire d’un drone ou d’un robot, c’est refuser l’altérité d’Autrui et décliner l’exhortation éthique fondatrice de mon rapport à lui comme à moi-même.

Conscience et visage

Ceci étant dit, on peut se demander si l’altérité robotique que nous souhaitons explorer rentre dans la sphère lévinassienne du visage. A première vue, cela semble impossible car, n’étant pas mortel et, plus précisément, pas tuable, un robot apparaît comme ontologiquement étranger à la vulnérabilité. Est-ce à dire, à l’inverse, que tout être mortel est capable de visagéité ? Les animaux, les arbres, les végétaux en général ou même des bactéries sont-ils des autres de ce point de vue ? Autrement dit, la vulnérabilité se définit-elle, dans l’absolu, par l’inéluctabilité de la mort doublée de sa possibilité permanente ou n’est-elle liée qu’à la conscience – ou, a minima, la sentience – de la mortalité ? Si la vulnérabilité se résume à la mortalité, alors chaque entité mortelle peut exprimer un visage. Mais si l’on définit la vulnérabilité à l’aune de la conscience plus ou moins claire qu’un être a de sa mortalité, alors le champ de la visagéité se réduit considérablement.

Dans la visagéité, Levinas lie de façon consubstantielle vulnérabilité et responsabilité. Malgré l’évidence, notons que, dans la description qu’il en donne, le visage émerge au sein d’une relation, ou plutôt d’une rencontre, entre des victimes et des tueurs potentiels. La vulnérabilité procède du choc virtuellement imminent entre mortalité et assassinat, entre possibilité et actualité du meurtre : l’autre est toujours vulnérable en tant qu’il est face à quelqu’un. Il est donc difficile de penser la visagéité indépendamment d’une conscience capable de vouloir, de choisir de tuer et ainsi d’être responsable de ce choix. Le visage se manifeste pour celui qui a le pouvoir de tuer autrui. Voilà pourquoi, selon Levinas, la visagéité est une exhortation à la responsabilité individuelle universelle, c’est-à-dire identique pour chaque homme. En bref, vulnérabilité et responsabilité sont prises dans la valse de leur corrélation, empêchant la visagéité d’être élargie à l’ensemble des vivants. Parler de la visagéité du zèbre face à la lionne n’aurait aucun sens car celle-ci ne peut accueillir la vulnérabilité du premier, elle n’en a pas le choix. Mais qu’en est-il de l’humain face à un animal sentient comme le chien, la baleine ou encore la vache ?

Visagéité simulée

Levinas n’a jamais tranché la question de la visagéité animale – le risque aurait peut-être été d’instaurer une forme d’égalité, dommageable à ses yeux, entre l’humain et l’animal ? – mais il est certain qu’il aurait rejeté celle des robots. Pour lui, l’analyse confirmerait l’intuition initiale en la complétant : la rencontre avec un robot est étrangère au visage puisqu’elle ne révèle aucune vulnérabilité ni responsabilité corrélative. L’expérience de l’autre robotique ne m’expose pas à l’appel d’autrui, à ce vertige qui me place sans arrêt dans la position du choix éthique originaire. Je peux prendre soin d’un robot, je peux même projeter sur lui des sentiments d’affections tels que l’attachement, mais je ne peux pas le tuer : je ne peux que le détruire. Je ne peux donc pas être responsable de sa «mort» autrement que par une construction sociale, culturelle, religieuse ou psychologique (ce qui n’ôte rien à l’importance, notamment anthropologique, de ces constructions). La chose est foncièrement différente face à autrui : je peux commettre l’irréparable, l’irréversible, je peux le nier en tant qu’autre en m’arrogeant le droit de lui ôter la vie, en opposant à sa volonté de vivre ma volonté de le tuer. En somme, autrui peut être l’objet du mal conçu comme négation, perverse ou non, de son altérité infinie.

3D visual of a humanoid robot pointing/touching the screen

Cette expérience méta-esthétique de l’altérité comme éthique originaire n’est pas présente dans la rencontre avec le robot. Mais en est-on réellement sûr ? Depuis longtemps, roboticiens et designers au sens large s’appuient sur notre tendance naturelle à l’anthropomorphisme pour enrichir nos échanges avec les robots, aussi rudimentaires soient-ils. Longtemps associé à une rémanence de la psychologie enfantine, l’anthropomorphisme est aujourd’hui considéré comme une dimension fondamentale de l’esprit humain et représente une opportunité de développement. L’attribution d’intentionnalité et de comportements proches des nôtres aux robots est en effet l’une des composantes de leur bonne intégration à la société. Elle permet notamment de palier l’immaturité technique des artefacts en laissant la psychologie humaine se construire une représentation du robot comme interlocuteur au moins partiellement viable et favorise ainsi l’émergence d’un sentiment de proximité avec la machine. Ce sentiment peut s’épanouir dans un éventail d’émotions propices au développement de diverses formes d’attachements envers l’artefact.

Lire aussi : Art robotique, un oxymore ? (Charlie Renard)

Ces dernières années, de nombreux articles, académiques ou non, ont rendu compte des effets étonnants voire inquiétants que les robots peuvent avoir sur nos comportements [3]. L’une des études les plus importantes est menée par l’anthropologue et psychologue américaine Sherry Turkle. Son travail porte notamment sur la perception que les enfants et les personnes âgées ont des personnages numériques comme les tamagotchis ou des robots interactifs tels que les Furbies, les My Real Baby du fabricant de jouets Hasbro, ou encore Kismet, conçu par la chercheuse du MIT Cynthia Breazeal. Dans son livre Alone Together au sous-titre éloquent «Why We Expect More from Technology and Less from Each Other» [4], Turkle ne cache pas son inquiétude quant aux raisons et conséquences de la confusion ontologique entre ces artefacts et l’humain. Selon elle, le design n’est pas la seule cause de notre attachement aux machines : le sentiment de solitude est également un puissant moteur de projections d’affects sur des entités dénuées d’émotions. La chercheuse résume ses constats d’une phrase concise et percutante : «Ce que nous demandons aux robots est le pendant de ce dont nous manquons cruellement». Selon elle, la robotique interactive représente un tournant majeur de l’interaction humain-machine :

«Ces objets relationnels n’attendent pas que les enfants leur ‘donnent vie’, comme une poupée de chiffon ou un ours en peluche. Au contraire, ils se présentent comme déjà dotés de vie, déjà prêts pour nouer une relation. Ils promettent un engagement réciproque car, contrairement aux poupées traditionnelles, ils ne sont pas passifs. Ils formulent des exigences. Ils se présentent comme ayant leurs propres besoins et leur propre vie intérieure. Ils nous apprennent les gestes d’amour qui leur sont nécessaires pour s’épanouir. Pendant des décennies, nos ordinateurs nous ont demandé de penser avec eux : aujourd’hui, les ordinateurs et les robots, considérés comme sociaux, affectifs et relationnels, nous demandent d’éprouver des émotions pour eux et avec eux».

En d’autres termes, le tournant de la robotique sociale est celui du passage d’un rapport purement projectif aux artefacts à un rapport relationnel. Dans ce nouveau rapport, les robots sont investis d’une dignité ontologique supérieure à celle de leurs prédécesseurs et à celle des objets non relationnels. Pour de nombreux enfants participants à l’étude, les robots sont «assez vivants [5]» pour être traités comme des vivants ; et ce phénomène touche aussi les adultes. Turkle cite l’exemple d’une expérience développée par l’artiste américaine Freedom Baird consistant à maintenir un Furby la tête en bas et à observer combien de temps les sujets testés parviennent à le maintenir dans cette position. Rapidement, la créature artificielle se met à gémir et, quand l’expérience se prolonge, à dire «Moi peur». «Quand ils commencent le test de la tête à l’envers, les adultes sont certains de deux choses : d’une part, que le Furby n’est qu’une machine, d’autre part, qu’ils ne sont pas sadiques. Pourtant, quand le test prend fin et qu’ils laissent derrière eux un Furby gémissant, ils font l’expérience d’un nouveau rapport à l’éthique». Et l’anthropologue de continuer : «Nous sommes arrivés au stade où nous considérons les objets numériques à la fois comme les créatures vivantes et comme des machines. Des plans très différents (celui de la voix, de l’animal de compagnie, de la machine, de l’ami) se rejoignent pour créer une situation dans laquelle le fait de savoir que le Furby est une machine ne change rien au sentiment qu’on peut la faire souffrir». Sur ce point, le témoignage d’une des participantes est particulièrement éloquent :

«[C’est très déplaisant], pas parce que je pense que le Furby a vraiment peur, mais parce que je refuse d’entendre de tels gémissements et de ne pas modifier mon comportement. J’ai l’impression que cette expérience pourrait profondément m’affecter si je la poursuivais […] Ce n’est pas comme ça que je me comporte dans la vie […] Et à ce moment-là, le Furby en vient à représenter la façon dont je traite toutes les créatures vivantes».

Ces mots sont riches de sens. Ce n’est pas l’artefact lui-même qui importe ici, mais sa force symbolique, sa capacité à nous projeter dans un rapport à l’altérité et, ainsi, à interroger nos actes, même si nous savons qu’il s’agit d’une machine. Nous avons beau savoir que le Furby n’est pas vivant au sens biologique du terme, qu’il n’est pas sentient et qu’il ne peut donc pas éprouver d’expérience subjective telles que la souffrance ou la détresse, nous nous comportons bien souvent comme si c’était le cas. Tout se passe alors comme si les robots pouvaient invoquer, en nous, le sentiment de la responsabilité. Si l’on en croit le témoignage précédent, cette responsabilité n’est pas vraiment celle de l’humain envers le robot, mais de l’humain envers l’idée de vulnérabilité. L’artefact n’est, dans cette histoire, qu’une sorte de catalyseur phénoménologique, un révélateur d’émotions et d’idées qui, en réalité, le transcendent. Ainsi l’un des grands pouvoirs de la robotique contemporaine est de parvenir à stimuler notre sens de l’éthique, du devoir même, alors que nous sommes conscients d’avoir affaire à une catégorie d’entités ordinairement exclues de ces sphères [5]. L’une des grandes questions éthiques soulevée par la sociobotique est celle des usages à venir de ce pouvoir.

L’altérité est ailleurs

Concluons franchement : le robot n’a pas de visage, du moins pas au sens strict développé par Levinas. La visagéité qu’il décrit est celle de l’homme envers l’homme en tant qu’homme. Toutefois, nous venons de voir que les sociobots peuvent provoquer un sentiment proche de l’appel éthique, de cette responsabilité originaire révélée dans le visage. Qu’on se rassure toutefois : bien qu’il semble de plus en plus pressant de réviser nos catégories ontologiques dominantes, je n’invite pas à la confusion entre humain (ou animal) et robot. Et j’insiste : tuer – ou faire souffrir – un homme (ou un animal) reste un acte infiniment plus grave que détruire un robot. L’embarras philosophique provoqué par les questions classiques, mais non moins épineuses, de la distinction entre l’humain et la machine, entre le vivant et le non-vivant, nous conduit bien souvent sur le terrain de l’authenticité au sens de correspondance entre fond et forme.

Prenons un exemple : lorsque le Furby dit «Moi peur», a-t-il réellement, authentiquement peur ? La réponse la plus intuitive (et peut être la plus culturelle ?) à cette question est non car, étant dénué de sentience, le Furby ne peut que simuler la peur et non la ressentir effectivement. Les sociobots sont techniquement capables de simuler toutes sortes d’émotions et d’états intérieurs, mais incapables de les ressentir. C’est le propre de la simulation au sens ici présenté : rester dans l’apparence, dans la superficie du phénomène esthétique. Bien entendu, l’humain est lui aussi un très bon simulateur, mais ses simulations sont intentionnées, c’est-à-dire qu’elles correspondent à une intention, qu’elles ont un but. Les simulations humaines sont dissimulatrices, ce sont des dis-simulations. Le robot, lui, simule avant tout pour s’intégrer au tissu social en donnant l’impression qu’il est un interlocuteur viable. Pour cette raison, on ne peut considérer que maintenir un Furby et un être sentient la tête en bas sont des actes équivalents.

Lire aussi : Günther Anders : l’obsolescence de l’homme (Didier Durmarque)

Ceci étant dit, le mode d’existence simulationniste des sociobots ne délégitime pas le rôle singulier qu’ils peuvent jouer dans la vaste sphère de l’altérité, ici analysée à l’aune de l’éthique. Je pense que la question la plus pressante n’est pas tant de savoir quelles sont les différences ontologiques précises qui les séparent du genre humain, mais plutôt d’analyser l’effet qu’ils ont sur nous. Comme en témoigne l’expérience du Furby, les robots sociaux ont une force symbolique matérialisée, encorporée renvoyant à l’idée de responsabilité face à l’altérité. C’est donc dans une forme de visagéité générique que ces artefacts nous entrainent : nous ne sommes pas responsables envers eux, mais envers la vulnérabilité et, à travers elle, envers la responsabilité elle-même. Ainsi perçu, le sociobot apparaît plus que comme un vecteur de réflexivité éthique accrue pour l’humain.

Dans cet article, je n’ai pas cherché à caractériser directement l’altérité spécifique du robot social, mais à questionner son lien avec une partie de l’analyse que Levinas a de l’altérité humaine. Ce faisant, nous avons vu que la rencontre avec le sociobot en tant qu’entité possédant de nombreux attributs allophaniques peut convoquer en nous un sens de l’éthique qui ne s’attache pas tant aux artefacts qu’à l’éthique elle-même. Ce phénomène est peut-être l’une des portes d’entrées possibles dans l’analyse de l’altérité propre aux robots : le symbolisme.

[1] SALMON Maria, «La trace dans le visage de l’autre», Sens-Dessous, 2012/1, n° 10.
[2] Ibid, p.107.
[3] Citons, par exemple, le cas très discuté en psychologie de certains soldats américains prêts à risquer leur vie pour «sauver» leur robot démineur qu’ils considèrent comme un frère d’armes.
[4] Traduit en français : Seuls ensemble. De plus en plus de technologies, de moins ne moins de relations humaines (éd. L’Echappée, 2015).
[5] Précisons que cette exclusion est propre au monde occidental et que les rapports humains au monde et aux objets sont bien différents selon les cultures comme en atteste l’anthropologie depuis bien longtemps.

 

Julien De Sanctis

Diplômé en Gestion (ESSEC Business School) et en Philosophie (Université Paris Panthéon-Sorbonne), Julien De Sanctis est doctorant à l’UTC en Philosophie et Ethique appliquée à la robotique interactive. Il effectue sa thèse en CIFRE avec Spoon, une jeune start-up créée fin 2015. Julien est également chroniqueur pour iPhilo et le blog de vulgarisation philosophique La Pause Philo. Parallèlement à ces activités académiques et d’écriture, Julien travaille avec l’agence Thaé qui promeut la philosophie pratique auprès d’acteurs privés comme les entreprises, notamment via l’organisation d’ateliers philosophiques ou l’accompagnement des comités stratégiques.

 

Inscrivez-vous à la newsletter iPhilo !

Recevez le premier journal en ligne gratuit écrit par des philosophes dans votre boîte mail !

 

Commentaires

En fait, « le passage d’un rapport purement projectif aux artefacts à un rapport relationnel » est toujours présent. Dès le système expert « Eliza » de Weizenbaum, l’interlocuteur avait ce type de relation, bien que Weizenbaum lui-même ne l’ait pas compris (comme je l’avais montré: http://www.exergue.com/h/2016-06/tt/philosophie-ia.html).
Il est probable que ne pas le reconnaître relève simplement du préjugé ou de la pétition de principe (comme je l’avais aussi montré pour Searle). Ce qui est aussi constitutif des représentations humaines.

par Jacques Bolo - le 8 février, 2019


Hier soir, j’étais plongée avec des amis dans la traduction du « Marchand de Venise », en passant, une oeuvre extraordinairement actuelle pour méditer sur l’économie, ce qui se vend, ce qui ne se vend pas. « Le Marchand de Venise » n’a pas pris une ride depuis 1600 et quelques, quand il a été écrit.
Et nous étions dans III,iv,12, où Portia, héritière fortunée, expose son désir de sauver Antonio, cher ami de son époux bien aimé, parce qu’il est le cher ami de son époux bien aimé… Et elle parle de leur amitié ainsi : « entre compagnons qui se fréquentent et passent le temps ensemble, dont les âmes portent un égal joug d’amour »…
Nous avons traduit par « passer » le temps le verbe anglais « waste »…. En me référant à l’Oxford English Dictionary sur les multiples colonnes qui exposent ce verbe, on a du pain sur la planche pour faire de la philo (en rapport avec notre sujet ; je ne l’oublie pas….). Une traduction trop rapide donnerait « gaspiller » le temps pour « waste », (traduction bien orientée dans un certain sens) mais…. se plonger dans le dictionnaire permet de sentir que la question est bien plus compliquée, et concerne comment son temps est occupé (et non pas forcément comment soi, on OCCUPE son temps…) quand l’attention et la volonté ne sont pas fixées sur l’obtention ? d’un but (ou une fin) précis.
Là, bien sûr, nous entrevoyons la question de l’utilité, et de l’instrument, et de notre rapport avec ce dont nous nous servons (qui peut… ou pas… être ce que nous fabriquons avec nos deux mains, en lien avec notre intelligence).
Derrière l’utilité, l’instrument, et l’outil, il se profile le problème de l’us/l’usage.
Et le mot anglais, étant polysémique, permet de sentir que ce dont on se sert, ce dont on a l’usage finit par s’user, et décliner. (Bon, on sait que ce dont on ne se sert pas finit par « s’user » et « décliner » aussi… et même, de manière paradoxale, ce dont on ne se sert pas peut décliner plus rapidement de manque d’usage ! incroyable, mais vrai.)
Cette longue parenthèse pour faire remarquer notre ambivalence collective envers le… service… sous toutes ses formes, d’ailleurs, ce qui sert, celui qui sert.. ce qui/celui qui devient notre instrument pour travailler en passant notre temps en direction d’un but. C’est un grand trou noir, de méditer autour de cela.
Nous sentons confusément, je crois, que les outils que nous fabriquons avec nos mains et nos têtes, articulées ensemble, nous façonnent autant que nous les façonnons, et qu’ils ne sont pas… plus innocents que nous-mêmes, et certainement pas plus neutres.
Ce qui me préoccupe n’est pas tant l' »humanisation » de la machine que la réduction de l’Homme charnel, à sensations, vivant, et soumis à la mort (du vivant…) à une machine. Peut-être.. la délocalisation de notre conscience élargie vers un support extérieur que nous imaginons pouvoir voir, et contrôler ? Là, il y a de la perte, à mes yeux. Une perte tragique.
Se souvenir que… souvent nous ne savons pas ce que nous faisons quand nous le faisons.. c’est une condition de la créature de ne pas pouvoir savoir comment ce que nous faisons se déploie dans le temps avec ses conséquences qui sont plus ou moins imprévisibles.

par Debra - le 9 février, 2019


[…] aussi : Levinas et les robots (Julien de […]

par iPhilo » La Blockchain, une philosophie crypto-anarchiste - le 10 mars, 2019



Laissez un commentaire