Par son ampleur, sa portĂ©e, sa cĂ©lĂ©ritĂ©, la transformation numĂ©rique bouleverse jusquâĂ notre rapport au monde et Ă notre humanitĂ©. Une « robolution » est en cours, portĂ©e par la convergence des avancĂ©es de la robotique et de la transformation numĂ©rique. Janus Ă la face engageante de lâhomme « augmentĂ© » comme Ă celle grimaçante de lâhomme asservi, voire remplacĂ©, cette « robolution » pose le dĂ©fi clef du rapport de subordination entre lâhomme et le robot. Cet article explore avec rigueur et met en perspective les diffĂ©rents aspects interdĂ©pendants de ce dĂ©fi, quâils soient technique, juridique, politique, Ă©thique, existentiel mĂȘme. A lâinstar de la bioĂ©thique, il plaide pour le dĂ©veloppement dâune cyber-Ă©thique, surplomb de lĂ©gitimitĂ© indispensable aux choix futurs, politiques et juridiques.
——————————————————————————————————————————————-
Les opinions exprimĂ©es dans cet article nâengagent pas le CSFRS.
Les rĂ©fĂ©rences originales de ce texte sont: Marc Watin-Augouard, « L’Homo cyberneticus », Revue de la Gendarmerie Nationale, octobre 2017.
Ce texte, ainsi que dâautres publications, peuvent ĂȘtre visionnĂ©s sur le site du CREOGN
——————————————————————————————————————————————
L’Homo Cyberneticus
Introduction
La transformation numĂ©rique, par lâeffet cumulatif des nouvelles technologies, bouleverse nos modes de vie, nos rapports Ă la santĂ©, au travail, Ă la crĂ©ation, Ă la formation, Ă lâinformation, etc. Elle bouleverse surtout le rapport de lâhomme au monde et avec lui-mĂȘme. Lâhomme « augmenté » sera-t-il « diminué » face Ă des robots qui pourraient le dominer ? Que restera-t-il de son identitĂ©, de son autonomie, de son intimitĂ© dans un environnement oĂč tout ce quâil pensera, dira, fera, utilisera sera captĂ©, mesurĂ©, Ă©valuĂ© et, le cas Ă©chĂ©ant, automatiquement sanctionnĂ©Â ? Avec la « robolution », l’homme sera-t-il servi ou asservi ? Du « robot-homme » à « l’homme-robot », existe-t-il une barriĂšre infranchissable ? Plus que jamais vont se trouver posĂ©es des questions dâĂ©thique, de dĂ©ontologie. La rĂ©ponse qui leur sera apportĂ©e sera dĂ©terminante pour lâavenir de lâindividu et de la sociĂ©tĂ©.
Lâhomme augmentĂ©
LâHomo cyberneticus, pour les plus optimistes, sera un « homme augmenté ». Ainsi, le cyberespace pourrait donner des ailes au courant transhumaniste, dont la doctrine est clairement explicitĂ©e, en 1999, dans la DĂ©claration de lâAssociation transhumaniste mondiale : « 1/ Les transhumanistes prĂŽnent le droit moral, pour ceux que le dĂ©sirent, de se servir de la technologie pour accroĂźtre leurs capacitĂ©s physiques, mentales ou reproductives et dâĂȘtre davantage maĂźtres de leur propre vie. Nous souhaitons nous Ă©panouir en transcendant nos limites biologiques actuelles. 2/ Nous prĂŽnons une large libertĂ© de choix quant aux possibilitĂ©s dâamĂ©liorations individuelles. Celles-ci comprennent les techniques afin dâamĂ©liorer la mĂ©moire, la concentration et lâĂ©nergie mentale, les thĂ©rapies permettant dâaugmenter la durĂ©e de vie ou dâinfluencer la reproduction, la cryoconservation et beaucoup dâautres techniques de modification et dâaugmentation de lâespĂšce humaine ».
Une utopie ? Sans doute pas, si lâon se rĂ©fĂšre au rapport de Mihail Rocco et de William Bainbridge sur les Technologies convergentes pour lâamĂ©lioration de la performance humaine publiĂ©[1], en 2002, par la National Science Foundation (NSF) de Washington et le DĂ©partement du Commerce amĂ©ricain. Ces technologies, regroupĂ©es sous lâacronyme NBIC, sont les nanotechnologies, les biotechnologies, lâinformatique et les sciences cognitives, dont lâintelligence artificielle et les sciences du cerveau[2]. Pour la NSF, « Une thĂ©orie computationnelle de lâesprit peut nous permettre de dĂ©velopper de nouveaux outils pour guĂ©rir ou maĂźtriser les effets des maladies mentales. Elle sera certainement Ă mĂȘme de nous fournir une apprĂ©ciation plus profonde de ce que nous sommes et sur la place que nous occupons dans lâunivers. Comprendre lâesprit et le cerveau nous permettra de crĂ©er une nouvelle espĂšce de machines intelligentes, capable de produire une richesse Ă©conomique sur une Ă©chelle jusquâalors inimaginable. LâingĂ©nierie de lâesprit est donc beaucoup plus que la poursuite dâune curiositĂ© scientifique, beaucoup plus quâun monumental dĂ©fi technologique. Câest lâoccasion dâĂ©radiquer la pauvretĂ© et dâouvrir un Ăąge dâor pour lâhumanitĂ© tout entiĂšre ».
La recherche de lâhomme « augmenté » nâest plus de la science-fiction, ni le fruit des Ă©lucubrations dâoriginaux, mais un axe de rĂ©flexion et dâaction pour les services et organismes les plus sĂ©rieux.
Google a bien compris cette opportunitĂ©. Lâentreprise de Mountain View, que certains prennent encore pour un simple moteur de recherche, a bien dâautres ambitions qui sâaffichent dans lâacquisition ou la crĂ©ation dâentreprises NBIC, le parrainage de la Singularity University, qui forme des spĂ©cialistes NBIC, et la crĂ©ation en 2013 de Calico, start-up qui a pour objectif dâaugmenter la durĂ©e de la vie de vingt ans dâici Ă 2035⊠Google, que le visionnaire Ray Kurzweil[3] a rejoint, en 2012, pour travailler sur lâapprentissage automatisĂ© et le traitement du langage, annonce pour 2060 lâavĂšnement dâune intelligence supĂ©rieure Ă lâintelligence humaine.
Le projet Avatar 2045 du milliardaire russe Itskov Dmitri donne une idĂ©e de lâambition pharaonique qui guide les transhumanistes rassemblĂ©s lors du CongrĂšs International « Global Future 2045 », en juin 2013, Ă New York. Le calendrier est explicite :
Entre 2015 et 2020, rĂ©alisation dâune copie robotique du corps humain contrĂŽlĂ©e Ă distance par une interaction cerveau-ordinateur ;
Entre 2020 et 2025, crĂ©ation dâun avatar dans lequel un cerveau humain pourra ĂȘtre crĂ©Ă©Â : un cerveau biologique dans un corps artificiel ;
Entre 2030 et 2035, crĂ©ation dâun avatar avec un cerveau artificiel dans lequel pourra ĂȘtre transplantĂ©e la personnalitĂ© dâun ĂȘtre humain Ă la fin de sa vie ;
Entre 2040 et 2045, crĂ©ation dâun avatar hologrammeâŠ
Si lâaugmentation par lâinformatique et la techno-mĂ©decine demeure dans le champ de lâhumain, dĂšs lors quâil sâagit de rĂ©parer des organes dĂ©faillants ou de faciliter la mobilitĂ© (exosquelette), les Ă©volutions escomptĂ©es sont dâun tout autre ordre[4]. Elles auront pour consĂ©quence, si lâon nây prend garde, un changement radical de lâhumanitĂ©. Comme le souligne le philosophe Jean-Michel Besnier, « on est en train de prĂ©parer une humanitĂ© Ă deux vitesses. La fracture ne sera plus entre le nord et le sud, mais au sein mĂȘme des sociĂ©tĂ©s »[5]. Qui va-t-on augmenter ? A quel coĂ»t ? Selon quel choix ? « Ătre ou ne pas ĂȘtre augmentĂ©, voilĂ la question ! ». Tout cela doit ĂȘtre pris au sĂ©rieux. Le premier salon transhumaniste TransVision 2014 sâest tenu en France du 20 au 22 novembre 2014. Didier Renard, premier diplĂŽmĂ© français de la Singularity University, dĂ©clare : « BientĂŽt vous pourrez sauvegarder votre mĂ©moire cĂ©rĂ©brale sur un support Ă©lectronique. Ce jour-lĂ , vous aurez envie dâun cloud souverain, un coffre-fort inviolable de votre identitĂ© gĂ©rĂ© par des organisations qui auront le sens de lâĂtat avant dâavoir celui des affaires. Nous nâavons pas les ressources financiĂšres et humaines pour proposer un projet de sociĂ©tĂ© alternatif, cela dĂ©passe clairement notre mission. Mais nous avons lâambition dâĂȘtre ce refuge quand cela sera nĂ©cessaire. Dâici lĂ , lâĂtat devra avoir dĂ©fini lâacceptable, lâĂ©thique et le responsable, le tout dans un cadre lĂ©gislatif et juridique imposĂ© Ă tous, y compris, et bon grĂ© mal grĂ©, aux libertariens et autres transhumanistes qui veulent nous imposer leur propre vision du progrĂšs et de lâhumanité »[6].
La « robolution » : lâhomme servi ou asservi ? Du « robot-homme » à « l’homme-robot »
Avec la transformation numĂ©rique, la robotique connaĂźt une impulsion sans prĂ©cĂ©dent. Mais le robot sera-t-il un auxiliaire de lâhomme, lâĂ©gal de lâhomme ou supĂ©rieur Ă lâhomme ? Tel est lâenjeu majeur de la « robolution » que nous allons vivre.
Les robots en quĂȘte dâautonomie
La robotique est dĂ©jĂ entrĂ©e en application, notamment dans lâindustrie. La France bĂ©nĂ©ficie dâailleurs dâune capacitĂ© dâinnovation reconnue dans le monde qui a motivĂ© la crĂ©ation, en mars 2014, du fonds dâinvestissement capital-risque « Robolution Capital » pour favoriser le dĂ©veloppement dâune filiĂšre.
Comme le souligne Bruno Bonnell, initiateur du fonds, tous les secteurs vont ĂȘtre touchĂ©s par cette forme dâintelligence apportĂ©e aux machines. Le robot classique a permis de libĂ©rer le travail des tĂąches les plus rĂ©pĂ©titives et dâamĂ©liorer la qualitĂ© du produit fini. Le robot du futur aura une tout autre performance. Sâeffectuera en effet, le passage de la gĂ©nĂ©ration des robots Automates programmĂ©s industriels (API) Ă celle des robots dotĂ©s dâune intelligence artificielle, capables dâapprendre eux-mĂȘmes grĂące Ă un processus dâapprentissage automatique et dâaccomplir des tĂąches que ne peuvent autoriser les traitements algorithmiques classiques. Câest ce que lâon appelle le machine learning qui sâappuie notamment sur le traitement de mĂ©gadonnĂ©es. Le deep learning (apprentissage en profondeur) est une forme encore plus Ă©laborĂ©e de machine learning qui veut agir comme le cerveau humain avec un systĂšme de type neuronal. Le programme informatique se perfectionne sans intervention de lâhomme par un apprentissage non supervisĂ©[7]. Selon Yann Le Cun[8], « La technologie du deep learning apprend Ă reprĂ©senter le monde. C’est-Ă -dire comment la machine va reprĂ©senter la parole ou lâimage ? ».
On peut attendre de ces robots « intelligents » des progrĂšs considĂ©rables dans le domaine de lâassistance aux personnes, de la sĂ©curitĂ©, de la surveillance, tant du point de vue qualitatif que du point de vue quantitatif.
Par exemple, DubaĂŻ envisage de mettre en Ćuvre des patrouilles de robots policiers autonomes dans les centres commerciaux et dâautres lieux lors de lâExposition universelle de 2020⊠En juillet 2016, Ă Dallas, pour neutraliser lâauteur du meurtre de cinq policiers retranchĂ© dans un parking, la police amĂ©ricaine a fait usage dâun robot tĂ©lĂ©commandĂ© Ă©quipĂ© dâun explosif[9]. Il sâagit vraisemblablement dâun robot dĂ©jĂ utilisĂ© par lâarmĂ©e amĂ©ricaine en Irak. Certes, en lâoccurrence, il sâagit dâun engin dĂ©pendant de lâaction humaine, puisque tĂ©lĂ©commandĂ©, mais on peut imaginer demain des robots entrant en action proprio motu. Cette utilisation offensive dâun robot renvoie au rapport, publiĂ© le 9 mars 2015[10], par lâONG Human Right Watch et lâuniversitĂ© dâHarvard[11], qui demande Ă lâONU de se saisir de la question des robots « tueurs » pour dĂ©finir la responsabilitĂ© juridique : lâĂtat, le fabricant, une tierce personne ? Le Centre de recherche des Ă©coles de CoĂ«tquidan (CREC) approfondit la rĂ©flexion sur la robotique du champ de bataille, notamment avec le Combat Studies Institute de lâUS Army.
Vers un statut juridique du robot ?
Le robot va-t-il remettre en cause tous les principes sur lesquels reposent aujourdâhui les rĂšgles de responsabilitĂ© civile ou pĂ©nale et crĂ©er des dĂ©sĂ©quilibres, notamment financiers ? En mai 2016, Mady Delvaux[12] a dĂ©posĂ© un rapport, Ă destination de la Commission europĂ©enne, relatif Ă un projet de directive sur les rĂšgles de droit civil de la robotique. Parce que « le dĂ©veloppement de la robotique et de lâintelligence artificielle pourrait avoir pour consĂ©quence lâaccomplissement par des robots dâune grande partie des tĂąches autrefois dĂ©volues aux ĂȘtres humains », elle prĂ©conise, en particulier, de leur faire payer des cotisations sociales Ă la place des humains dont ils auront pris lâemploi et de crĂ©er un revenu universel de base pour tous ceux qui nâauront plus accĂšs au marchĂ© de lâemploi. La dĂ©putĂ©e europĂ©enne considĂšre que « grĂące aux impressionnants progrĂšs de la technique au cours des dix derniĂšres annĂ©es, non seulement les robots contemporains sont capables de mener Ă bien des tĂąches qui relevaient autrefois exclusivement de la compĂ©tence humaine, mais encore que la mise au point de fonctionnalitĂ©s autonomes et cognitives (comme la capacitĂ© de tirer des leçons de lâexpĂ©rience ou de prendre des leçons indĂ©pendantes) rapprochent davantage ces robots du statut dâacteurs interagissant avec leur environnement et pouvant le modifier de maniĂšre significative ; que dans un tel contexte , la question de la responsabilitĂ© juridique en cas dâaction dommageable dâun robot devient cruciale ». Faut-il un droit « des robots » ou un droit « pour les robots » ? En appelant « à trancher la question fondamentale de lâoctroi ou non dâune personnalitĂ© juridique aux robots », Mady Delvaux donne une rĂ©sonance Ă la position dâAlain Bensoussan, avocat spĂ©cialisĂ© dans les nouvelles technologies, qui, le premier, a rĂ©clamĂ© cette personnalitĂ© juridique pour les robots, Ă lâinstar de celle attribuĂ©e aux personnes morales[13]. Aujourdâhui « objets de droits »[14], ils doivent, selon lui, devenir « sujets de droit » ou, au moins, relever dâun droit spĂ©cifique[15], car les robots, contrairement aux automates, possĂšdent une forme dâintelligence, de capacitĂ© de comprĂ©hension, voire de perception des sentiments[16]. Ils peuvent, de ce fait, acquĂ©rir une autonomie qui leur permet de prendre des dĂ©cisions Ă caractĂšre juridique, par action ou abstention et donc ĂȘtre Ă lâorigine dâun prĂ©judice quâil faudra couvrir[17]. Lorsque lâintelligence artificielle gĂ©nĂ©rera une nouvelle intelligence artificielle sans intervention humaine, les robots franchiront le seuil de singularitĂ© technologique. MaĂźtre Bensoussan souligne que les robots peuvent ĂȘtre des « concentrateurs dâintimité »[18], capables de capter, traiter, Ă©changer des donnĂ©es Ă caractĂšre personnel et notamment mĂ©dicales des personnes quâils assistent. Le robot devrait, selon lui, avoir un nom et mĂȘme un genre, avec un numĂ©ro dâimmatriculation[19]. Cette personnalitĂ© robotique est contestĂ©e par dâautres juristes qui considĂšrent que les rĂšgles de droit existantes sont suffisantes et quâune telle disposition aurait pour effet de dĂ©responsabiliser leurs propriĂ©taires[20].
La premiĂšre approche nous semble plus conforme Ă une rĂ©alitĂ© qui se dessine et qui ne relĂšve pas de lâutopie ! La rĂ©flexion relative au droit civil peut ĂȘtre Ă©largie Ă la responsabilitĂ© pĂ©nale. La multiplication de machines dans lâespace public, notamment avec des liaisons sans fil, peut engendrer le risque dâune prise de contrĂŽle malveillante ou dâun accident : qui sera responsable pĂ©nalement ? Le concepteur, le fabricant, celui qui lâa acquise, celui qui lâutilise, ou le robot ? Lors dâune exposition « The Darknet : From Memes to Onionland » qui sâest tenue Ă Zurich du 5 au 11 janvier 2015, deux artistes suisses du Mediengruppe Bitnik ont prĂ©sentĂ© un robot automatisĂ© « Random Darknet Shopper » qui fait des achats sur le Darknet, sur le site AlphaBay, Ă travers le rĂ©seau TOR, avec un budget de 100 dollars en bitcoins par semaine. Certaines de ces acquisitions, livrĂ©es et exposĂ©es au Kunst Halle St.Gallen, soulĂšvent Ă©videmment des problĂšmes de droit : un sac Louis Vuitton ou un polo Lacoste contrefait, 10 pilules dâecstasy, des cigarettes de contrebande, un faux passeport hongrois, etc. Qui est responsable pĂ©nalement ? Les artistes qui ont mis le robot en situation dâaccomplir un acte illicite ? Aujourdâhui, sans aucun doute, mĂȘme si la justice leur a finalement rendu leur robot confisquĂ©, mais quâen sera-t-il demain si le robot acquiert une vĂ©ritable autonomie, grĂące Ă lâintelligence artificielle qui lui donnera une capacitĂ© de discernement, Ă©lĂ©ment clef de la responsabilitĂ© pĂ©nale ? De mĂȘme quâil existe une responsabilitĂ© pĂ©nale des personnes morales, on peut imaginer une responsabilitĂ© pĂ©nale des personnes Ă©lectroniques. Un robot devant des juges, au pĂ©nal comme au civil, est-ce une vue de lâesprit ou une rĂ©alitĂ© dans les dix prochaines annĂ©es[21] ?
Lâhomme remplacĂ©Â ?
La « robolution » va crĂ©er la symbiose entre lâhomme et la machine, grĂące Ă des interfaces (Brain Computer Interfaces). Le dialogue homme/machine pourrait sâaccompagner du transfert de lâintelligence humaine vers cette derniĂšre. Le tĂ©lĂ©chargement de lâesprit (Mind Uploading) vise Ă transfĂ©rer le contenu dâun cerveau humain sur un ordinateur, sa dĂ©matĂ©rialisation dans le cloud et sa rĂ©implantation dans un robot. Tel est lâobjectif du projet Blue Brain lancĂ© en 2005 par lâĂcole Polytechnique de Lausanne.
Mais, les capacitĂ©s nâĂ©tant pas limitĂ©es (semble-t-il), la machine pourrait devenir plus intelligente que lâhomme. Ces robots seront-ils âhumainsâ, capables dâavoir des Ă©motions, de percevoir celles des personnes, dâexprimer des sentiments ?
Pour Ray Kurzweil, les robots seront proches des humains en 2029âŠSelon lui, ils seront « capables dâintelligence Ă©motionnelle, dâĂȘtre drĂŽles, de comprendre des blagues, dâĂȘtre sexy, aimants et de comprendre lâĂ©motion humaine »[22]. Le 27 juin 2015, deux robots japonais, Frois et Roborin, ont Ă©tĂ© « mariĂ©s » selon le rite traditionnel avec comme tĂ©moin Pepper, un autre robot. Softbank, le fabricant japonais de Pepper, conçu par la sociĂ©tĂ© française Aldebaran Robotics, stipule dans le manuel dâinstruction quâil est interdit dâavoir des comportements sexuels et indĂ©cents avec son robot⊠Mais l’entreprise canadienne Abyss Creation a annoncĂ© qu’elle allait mettre sur le marchĂ© un « robot sexuel » en 2017[23].
Asimov, le prophĂšte
ProphĂšte, Asimov, auteur amĂ©ricain dâorigine russe, lâest sans doute, car les lois quâil Ă©nonce semblent Ă©crites pour le XXIe siĂšcle. Elles viennent en rĂ©action Ă lâimage du robot tueur vĂ©hiculĂ©e par la science-fiction des annĂ©es trente. Pour lutter contre le complexe de Frankenstein, il publie, en 1940, un roman, Robbie, qui a pour hĂ©ros un robot sympathique et noble qui sâoccupe dâun enfant. Asimov Ă©crit des nouvelles pour le magazine Astounding Science Fiction, dirigĂ© par John Campbell. De leur dialogue va naĂźtre la question des relations entre lâhomme et le robot au travers de la formulation de trois lois, exposĂ©es dans la nouvelle Runaround (1942), et qui doivent « ĂȘtre intĂ©grĂ©es au plus bas niveau du cerveau positronique ». En 1948, dans Les HumanoĂŻdes, Jack Williamson, applique les trois lois aux robots quâil met en scĂšne. PrĂšs dâun demi-siĂšcle plus tard, Asimov ajoute la « zĂ©roiĂšme loi », par lâintermĂ©diaire du robot Daneel Olivaw[24] : « Un robot ne peut porter atteinte Ă lâhumanitĂ©, ni, restant passif, permettre quâun ĂȘtre humain soit exposĂ© au danger ». En 2014, le chercheur en robotique Alan Winfield a expĂ©rimentĂ© la premiĂšre loi dâAsimov en plaçant un robot devant un trou pour empĂȘcher dâautres robots de tomber dedans. LâexpĂ©rience montre que le robot est confrontĂ© Ă des difficultĂ©s de choix dĂšs que le nombre de robots Ă protĂ©ger augmente.
LES TROIS LOIS DâISAAC ASIMOV (ROMANCIER)
-Un robot ne peut porter atteinte Ă un ĂȘtre humain, ni, restant passif, permettre quâun ĂȘtre humain soit exposĂ© au danger ;
– Un robot doit obĂ©ir aux ordres que lui donne un ĂȘtre humain, sauf si de tels ordres entrent en conflit avec la premiĂšre loi ;
– Un robot doit protĂ©ger son existence tant que cette protection nâentre pas en conflit avec la premiĂšre ou la deuxiĂšme loi.
Vers une cyberéthique ?
Lâhomme « augmenté » sera-t-il, en vĂ©ritĂ©, un homme diminuĂ©, asservi ? Au-delĂ du droit, la « Robolution » soulĂšve des questions existentielles qui relĂšvent de lâidentitĂ© de lâhomme, de son unicitĂ©, de sa capacitĂ© Ă dĂ©cider de maniĂšre autonome. Comme lâaffirme Gilles Babinet[25], « les critiques Ă lâĂ©gard de Kurzveil ou de la logique libertarienne et utilitariste en vogue outre Atlantique nâauront de pertinence que si nous parvenons Ă ĂȘtre capables de leur opposer un modĂšle qui ne soit pas, dâune façon ou dâune autre, un refus manichĂ©en de la modernité ». Pour Stephen Hawking, astrophysicien britannique, enseignant Ă Cambridge, lâintelligence artificielle menace le genre humain : « Les formes primitives dâintelligence artificielle que nous avons dĂ©jĂ se sont montrĂ©es trĂšs utiles. Mais je pense que le dĂ©veloppement dâune intelligence artificielle complĂšte pourrait mettre fin Ă la race humaine. [âŠ] Une fois que les hommes auraient dĂ©veloppĂ© lâintelligence artificielle, celle-ci dĂ©collerait seule et se redĂ©finirait de plus en plus vite. Les humains, limitĂ©s par une lente Ă©volution biologique, ne pourraient pas rivaliser et seraient dĂ©passĂ©s »[26]. Lors de la confĂ©rence Zietgeist 2015, Ă Londres, il ajoute « nous devons absolument nous assurer que les objectifs des ordinateurs sont les mĂȘmes que les nĂŽtres ».
On ne peut, de toute Ă©vidence arrĂȘter le progrĂšs, mais il existe dĂ©jĂ des situations contemporaines pour lesquelles le droit pĂ©nal met un coup dâarrĂȘt aux applications scientifiques les plus folles. Entre ce que lâon sait faire et ce que lâon a le droit de faire, il peut exister un Ă©cart, celui Ă©tabli par la loi et, tout particuliĂšrement dans le cas qui nous intĂ©resse, par le respect de principes gĂ©nĂ©raux qui transcendent les choix et leur confĂšrent une lĂ©gitimitĂ©. Depuis la loi du 6 aoĂ»t 2004, le code pĂ©nal contient des dispositions relatives Ă la bioĂ©thique mĂ©dicale. Il interdit, par exemple, le clonage dâĂȘtres humains ou certaines recherches sur lâembryon[27]. Il y aura sans doute dans quelques annĂ©es un chapitre du code pĂ©nal consacrĂ© Ă la « cyberĂ©thique ». Ce chapitre pourrait notamment comprendre les infractions Ă la loi informatique et libertĂ© de 1978 qui sont dĂ©jĂ des rĂšgles dâĂ©thique. Dans sa dĂ©claration du 25 novembre 2014 (art.3), le G29 souligne que la technologie est un moyen qui doit demeurer au service de lâhomme : « Le fait quâun traitement de donnĂ©es soit techniquement faisable, quâil puisse parfois rĂ©vĂ©ler des informations utiles au renseignement ou permettre le dĂ©veloppement de nouveaux services n’implique pas quâil soit de ce fait acceptable sur les plans social et Ă©thique, ni quâil soit raisonnable ou conforme Ă la loi » (article 3 de la dĂ©claration). La cyberĂ©thique rejoindra la bioĂ©thique car des recherches sont Ă©galement entreprises par des israĂ©liens et des amĂ©ricains pour dĂ©velopper un ordinateur biologique, fabriquĂ© Ă partir de matĂ©riel humain, de lâADN et de lâARN. Le « transcriptor », nom donnĂ© au transistor biologique, permet de crĂ©er un ordinateur dans une cellule vivante. Selon Drew Endy, responsable de la recherche, « les ordinateurs biologiques peuvent ĂȘtre utilisĂ©s pour Ă©tudier ou reprogrammer les systĂšmes vivants, surveiller lâenvironnement et amĂ©liorer les thĂ©rapies cellulaires »[28]. Mais il ne suffit pas de crĂ©er le droit, il faut aussi le faire appliquer, tĂąche beaucoup plus complexe dans le monde immatĂ©riel que dans le monde rĂ©el. Paraphrasant Malraux on pourrait affirmer que « Le XXIe siĂšcle sera celui de la cyberĂ©thique ou ne sera pas ! ».
References