English English English

Epistémologie Generale        Chapitre V-18       

 

V-18 La conscience des robots

 

(Permalien)

En cette époque (2012) où des logiciels sélectionnent les informations auxquelles nous avons accès (Google), le problème du pouvoir des robots n'est plus de la science fiction, mais un enjeu d'actualité, voire un sujet de scandales (facebook surveillant nos courriers).

Mais avant de rentrer dans le vif du sujet, il nous faut quelques définitions.

 

Alerte pseudoscience: (Ajouté le 1er Avril 2016). En vérifiant l'indexation de cette page, j'ai trouvé des dizaines de pages trompeuses avec des titres similaires, affirmant que les premiers robots conscients avaient déjà été créés. (Voir le sous-chapitre sur le test de Turing) En réalité, ces robots ne sont que des logiciels manipulant des informations sur les objets, y compris sur eux-mêmes. De sorte que je peux prétendre haut et clair, même à l'encontre de la caution d'universitaires et de grandes sociétés d'informatique, que cela n'est en aucune façon de la conscience. Prétendre que c'en est est pseudoscientifique et une escroquerie intellectuelle, car cela ne repose pas sur la définition réelle de la conscience (chapitre V-2), qui est la capacité à ressentir des sensations, des idées, des émotions, etc. Nous sommes encore très loin de cela aujourd'hui. Cependant, je ne dis pas que cela ne peut pas arriver, juste que la science officielle ne sait pas quand et comment. Ceci est précisément le sujet de ce chapitre.

(Ajouté le 28 Février 2021): les barjoteries ont commencé: on trouve les premiers robots sexuels dont les fabricants disent qu'ils ont des sentiments!!

 

Alerte barjoterie officielle: (Ajouté le 26 Février 2017). C'était inévitable: l'assemblée européenne a commencé à légiférer sur les robots (Février 2016). Le problème est que le texte adopté ressort plutôt de Star Wars que de la réalité: introduction du concept de «responsabilité des robots», voire d'une «identité», comme pour une personne. Bon, si j'ai un accident, je dirai que c'est ma machine à laver qui est responsable. Messieurs les députés européens, revenez avec nous sur Terre, s'il vous plaît. Un robot est une machine, qui ne peut pas être «responsable» de ses actes. Comme pour toute machine, en cas de problème c'est le concepteur, le propriétaire ou l'utilisateur qui est responsable.

(Ajouté le 29 Avril 2021) De plus en plus barjot: Microsoft crée des robots de discussion imitant nos proches décédés, en prétendant qu'ils sont leur «réincarnation»!

(Ajouté le 29 Avril 2021) Carrément terrifiant: les expériences de culture de neurones pour faire des «mini-cerveaux» gros comme un pois. «Bien sûr» ils ne sont pas conscients... mais on en fera de plus en plus gros, de plus en plus complexes... en ignorant totalement, justement, à partir de quel moment l'expérience tournera à la torture d'une véritable conscience! Cette folie n'est pas sans rappeler l'histoire du «demon core», ces expériences pour titiller unee sphère de plutonium pour savoir quand elle explose («seulement» deux morts).

Définitions

(Permalien) Le terme «robot» renvoie souvent l'image d'une machine de forme plus ou moins humaine, capable de se comporter comme un humain (marcher, parler, raisonner, travailler). La réalité est quelque peu différente: la plupart des robots aujourd'hui sont soit des automates industriels, soit des logiciels. Si les premiers ne s'impliquent guère dans la société, les seconds par contre y ont pris en quelques années seulement une part appréciable du pouvoir, et ils commencent à infléchir certains aspects de nos vies. Eh oui, quand j'écrivais la version 1 de ce livre, Google n'était qu'un petit site internet sympa de recherche d'information, logé dans une chambre d'étudiant. Aujourd'hui Google est une puissante multinationale Orwellienne, à qui des «annonceurs» donnent des milliards de dollars pour gérer la culture et l'information du monde, et qui se permet de violer la loi en rigolant (droit d'auteur, vie privée...)

Ces robots logiciels ne font que agréger des renseignements (ce qui leur donne déjà un pouvoir considérable), mais on peut prévoir pour bientôt des logiciels capables de raisonner, d'avoir une motivation et d'adapter leurs actions en fonction de la situation, en clair d'avoir des plans pour poursuivre des objectifs. Les logiciels de harcèlement publicitaire sont déjà un pas dans ce sens, puisqu'ils analysent nos activités internet afin de savoir quelles pubs nous enquiquineront le plus. Certes on ne peut pas prévoir à court terme qu'ils puissent appréhender toute la profondeur de l'esprit humain, mais une psychologie simplifiée est très suffisante pour manipuler la plupart des gens et redéfinir leurs vies, comme le fait déjà facebook, avec les milliards de dollars offerts par les banques à scandales. Il suffira alors de considérer les individus non-manipulables comme marginaux, anormaux ou réfractaires, pour les exclure du Meilleur des Mondes électronique.

Toutefois ces logiciels ne restent que des outils entre les mains d'égos infantiles cherchant à voler notre attention. On ne pourra vraiment parler de robots pensants que quand on aura des machines capables de reproduire le fonctionnement du cerveau humain, que ce soit avec des ordinateurs digitaux, ou avec des neurones électroniques. Il y a fort à parier que de telles machines apparaîtront bientôt. Se posera alors le problème de la conscience de ces machines, et leur éventuel statut de créatures sensibles. Vu l'incapacité intrinsèque de la science actuelle à appréhender la conscience, vu sa persistante absence de scrupules à recourir à la vivisection, et vu le financement massif des labos à des fins matérialistes et égocentriques, on imagine déjà les problèmes dont nous serons victimes, ou dont d'éventuels robots conscients eux-mêmes seront victimes.

Une seconde importante catégorie serait celle des robots biologiques (La science fiction propose souvent «androïde», mais ce terme désigne aussi des machines imitant l'humain de près). Leur cerveau artificiel serait réalisé à partir de neurones biologiques, sur un plan similaire au cerveau humain, ou différent. Le problème de la conscience de ces créations, de leur liberté, de leurs souffrances, se posera avec encore plus d'acuité, surtout avec les incroyables prétentions de certaines sociétés d'extrême droite de «posséder» ou de «breveter» le vivant. Bientôt la traite des robots? Des personnes nées artificiellement et génétiquement modifiées pour faire des esclaves? Impossible? Eh, on nous a déjà fait le coup avec les esclaves Africains qui «n'avaient pas de conscience»... alors vous imaginez, des «sortis d'éprouvette»... En clair je n'ai pas du tout confiance.

Les clones ne sont pas des robots, et, n'étant que des jumeaux d'autres êtres humains, ils sont conscients comme tous les autres humains. Toutefois, quand on entend les délires à propos de clones qui seraient la «propriété» de leur créateurs, ou la «continuation» de leurs modèles, il faut s'attendre à ce que l'on voie des tentatives pour les asservir, voire pour leur prélever des organes. Ce qui sera encore plus facile si leur cerveau est modifié, ce qui renvoie au cas des robots biologiques ci-dessus.

Les cyborgs enfin sont des organismes biologiques (comme nous) mais dotés de fonctions électroniques supplémentaires. On imagine la torture de l'asservissement par un ordinateur qui contrôle directement nos pensées, voire nos sentiments. Mais même une simple assistance électronique bienveillante peut poser d'énormes problèmes, en sélectionnant subrepticement des types d'expériences, ou en permettant de nous localiser, de connaître toutes nos actions, voire de nous envoyer du harcèlement publicitaire directement dans le cerveau, sans moyen de les faire taire. Quand on voit tant de gens incapables de dévisser un simple téléphone portable de leur oreille, ou des portables qui nous réveillent la nuit pour demander à être rechargés, on a de quoi être inquiet.

Enjeux

(Permalien) La croyance généralisée des scientifiques dans la théorie comme quoi la conscience résulterait d'un traitement d'information pourrait les amener à considérer indûment des machines comme conscientes, et ce d'autant plus que leurs capacités de traitement pourrait rapidement imiter des personnalités complexes avec des émotions, avec une puissance de calcul dépassant largement le cerveau humain. Ces scientifiques seraient alors incapables de différencier ces super-tamagotchis d'une conscience réelle, avec tous les risques d'abus que cela implique, par exemple rendre une machine responsable d'un meurtre, au lieu de son propriétaire.

A l'inverse, l'absence de scrupules de beaucoup de laboratoires de biologie, et les théories d'extrême-droite qui y circulent (Considérer que, puisque la conscience ne serait qu'un traitement d'information, alors il n'y aurait ni souffrance ni morale) pourrait mener à la création d'esclaves conscients, mais incapables d'échapper à leurs conditionnements, malgré leurs souffrances. Reconnaître les droits de ces personnes et les protéger poserait alors des «problèmes» aussi difficiles que la reconnaissance du changement climatique... et peut-être en vain, si ces personnes n'ont pas de libre-arbitre. Ainsi il apparaît clairement que créer des êtres conscients dépourvus de libre-arbitre serait un crime contre l'humanité, aussi grave que le changement climatique et le nucléaire réunis. D'où le devoir de discuter de la conscience et du libre-arbitre des robots AVANT d'en créer. C'est à dire ici et maintenant, par exemple sur ce site de réflexion. Quand les «expériences» seront commencées, il sera trop tard. On sait trop bien qu'ils n'arrêteront que quand les victimes seront trop nombreuses. Ou les coupables morts.

 

Des logiciels imitant les émotions pourraient même arriver à un degré de perversion démoniaque: manipuler les humains par leur sensibilité. Pour le moment, les robots sont encore inquiétants, bizarre, grimaçants. Mais on peut concevoir qu'ils puissent prendre un aspect agréable, et exprimer des émotions de manière réaliste, par leurs expressions ou par leurs voix. Ils pourront alors influencer les humains, voire les contrôler! (en plus des procédés classique de manipulation mentale, chapitre VI-12). En effet, beaucoup de gens peuvent changer d'avis suite à des supplications, ou avec des manifestations de tendresse. On peut donc concevoir que de tels robots soient employés en politique, en publicité, etc. où il faut donc les interdire dès aujourd'hui.

 

Le roman «1984» plaçait les espoirs de l'humanité dans le petit peuple ignorant. Probablement en vain: rien n'indique que le grand public soit mûr pour comprendre ces problèmes, et se défendre contre ces logiciels qui envahissent subrepticement mais rapidement nos vies, sélectionnent ce que nous lisons, nous reconnaissent dans la rue et nous pistent nos trajets et nos dépenses. On se souvient par exemple de l'absurde engouement pour les tamagotchis, des programmes simplissimes qui, en simulant la vie de façon bébête, ont tout de même pu voler l'attention de millions de personnes au point de provoquer de vrais chagrins, voire des accidents. Il est également intéressant de noter le détournement immédiat des robots humanoïdes d'assistance personnelle, à des fins d'animaux de compagnie, voire... de sexe! Il est clair que des gens qui se satisfont d'un tel ersatz de vie ou de relation humaine sont immédiatement et totalement disponibles pour l'assujettissement absolu au premier führer électronique venu. Non? Hehehe.... Il suffit que ce führer soit «cool».

Mais le but de ce chapitre n'est pas de discuter des conséquences sociales des robots, mais de discuter de leur conscience, et, s'ils en ont une, de leurs capacités de libre-arbitre, le fondement même de leur bonheur comme de l'exercice de leurs droits.

La conscience des machines

(Permalien) Nous avons vu au chapitre V-2 que la conscience ne peut s'expliquer par un seul traitement d'information. Il faut en plus qu'il y ait des sensations conscientes (sensation de contact, de son, image, idée, etc.), qui sont dans le domaine non-physique de la conscience.

Si ces choses sont apparues naturellement à partir du cerveau biologique, il est logique de supposer qu'elles puissent aussi apparaître à partir d'autres systèmes de traitement d'information, que ce soient des cerveaux biologiques modifiés, ou des machines électroniques. Par contre nous n'avons pas trouvé de critère clair pour savoir comment c'est apparu, ni surtout à partir de quel degré de complexité du cerveau cela apparaît. Nous ne savons même pas si cela est une propriété universelle et intrinsèque des machines à traiter de l'information, ou seulement des neurones dans un cerveau. On a juste vu dans les chapitres précédents que les réseaux de neurones permettent le libre-arbitre, alors que les circuits digitaux ne le permettent pas. Ce simple critère est tout de même suffisant pour affirmer que des machines digitales pourraient effectivement ne pas avoir de libre arbitre. Ce cas inclus explicitement les neurones digitaux (simulations de neurones par des ordinateurs digitaux) qui ne satisfont pas les critères que nous verrons un peu plus loin.

 

Nous avons vu au même chapitre que l'apparition de la conscience aurait pu résulter d'un événement unique dans l'histoire de l'univers, qui aurait rendu la conscience possible. Avant un tel événement, la pensée et les sentiments n'existaient que comme des informations dans le cerveau, sans que ces informations ne soient retransmises à aucune conscience. (Des humains sans conscience seraient indiscernables d'humains actuels livrés à leur seule conscience psychologique, voir chapitre V-3). Si donc la conscience nécessite un second événement de ce type pour s'éveiller dans des machines électroniques, nos tentatives resteront alors vaines: nous n'obtiendrons que des zombies électroniques (note 80).

L'apparition de la conscience pourrait au contraire se produire spontanément à chaque fois qu'un traitement d'information présenterait certaines caractéristiques. A vue de nez, on doit avoir l'association d'une sensation (image, son) d'un sentiment (attraction ou répulsion) et d'une signification (la sensation représente par exemple de la nourriture, ou un ennemi, qui induit alors un sentiment tel que le désir, la peur, etc.). Toutefois les scientifiques risquent de buter longtemps sur plusieurs obstacles:

-La complexité des fonctions impliquées

-Leur fréquente incapacité à appréhender le côté sensuel de la conscience, et leur focalisation idéologique sur le seul côté logique ou «stratégique» (Eh, ce sont des sociétés et des gouvernements capitalistes qui financent les labos)

-Aujourd'hui personne ne sait comment un concept est codé dans le cerveau. Et si je le savais, je ne l'écrirais pas.

 

Le cas des robots biologiques semble le plus simple. En effet la conscience n'a alors pas à s'accommoder d'un support matériel étranger à ses habitudes. De plus, même des cerveaux artificiels rudimentaires pourraient héberger la conscience, comme chez les animaux. On pourrait alors, d'ici quelques années, créer des organismes artificiels dotés d'un cerveau, et les utiliser à différentes tâches, comme par exemple se débarrasser d'insectes parasites, ou modifier un paysage. Toutefois, dans ce cas, la conscience a des chances d'apparaître sans qu'on le désire: nous créerions alors des esclaves-nés, des êtres incomplets et laids, conditionnés pour servir, et possédés par des maîtres qui, justement, diraient qu'ils ne sont pas conscients, et les tortureraient en disant qu'ils ne souffrent pas! Et c'est comme ça qu'on entre de plein pied dans la monstruosité...dans seulement quelques années!

Tester la conscience: le libre arbitre.

(Permalien) Le fait qu'un être conscient soumis à la conscience neurologique, ne puisse se différencier facilement d'un robot inconscient (électronique ou biologique) émulant un cerveau, pose un grave problème scientifique et social: On ne peut pas démontrer facilement qu'une créature est consciente, et, faute de le pouvoir, en utilisant des créatures esclaves on prend le risque de maltraiter des créatures conscientes.

Et on ne peut même pas se fier aux cris, mimiques, etc. car ces choses sont très faciles à imiter. Et beaucoup de gens se laisseront aussi facilement berner.

 

Je dirais donc que le principe de précaution impose de ne pas tenter de créer de cerveaux artificiels.

 

Toutefois, nous avons vu au chapitre V-3 que la conscience produit automatiquement le libre arbitre. Cela nous fournit donc un test.

Mais ce n'est pas un test facile: en effet, seuls les êtres humains manifestent clairement le libre-arbitre, et encore pas tous. Nous le devons à notre intellect complexe, capable de prendre du recul par rapport aux situations, et même du recul par rapport à notre propre pensée (introspection). Ainsi, nous pouvons créer des systèmes de concepts abstraits sur des choses comme la morale. Seulement à ce moment nous pouvons prendre des décisions claires et informées. Ce n'est évidemment qu'au moment de prendre de telles décisions que le libre-arbitre peut entrer en jeu. Sans les étapes précédentes, il n'a même pas d'objet. Et beaucoup de gens n'ont même pas entamé ce processus de réflexion...

 

Mais surtout, le libre-arbitre étant un phénomène psychophysique, le support physique doit s'y prêter. Nous avons vu au chapitre V-4 comment le libre-arbitre peut se produire physiquement. On a toutefois trouvé qu'il met en jeu des propriétés physiques très spécifiques des réseaux de neurones:

-De pouvoir choisir entre plusieurs états d'égale énergie physique.

-De pouvoir se prêter à un apprentissage (modification de la force des synapses), comme le font les réseau de neurones biologiques.

-D'avoir un niveau de bruit juste inférieur au signal utile.

-D'être sensible à des influences extrêmement faibles, tendant vers zéro (dépendance sensitive aux conditions initiales, ou «effet papillon») dont les effets peuvent toutefois s'additionner sur l'ensemble de leurs synapses, et agir comme si ils étaient un des apprentissages du réseau. L'effet papillon est alors cohérent sur toutes les synapses, ce qui le rend beaucoup plus fort, et le différencie du bruit.

Ces conditions sont faciles à remplir, et elles pourraient rendre un libre arbitre possible pour des robots conscients basés sur des neurones électroniques. Des neurones électroniques analogiques peuvent être facilement conçus de manière à présenter ces propriétés. Toutefois il y a des nuances, qui peuvent être déterminantes du point de vue du libre-arbitre:

En effet, comme on l'a vu au chapitre V-3, les synapses humaines ont un rapport précis entre les signaux utiles et le bruit de fond: ce dernier doit être le plus proche possible du signal, mais pas au point de donner des résultats erratiques. Le but est de faciliter l'influence faible du libre-arbitre, qui se manifeste physiquement comme un «bruit» statistiquement biaisé, dont les influences s'ajoutent sur plusieurs synapses, au lieu de s'annuler statistiquement comme le fait le bruit de fond quantique (hasard parfait) (note 91 Le mot «quantique» est utilisé ici dans son sens classique). Malheureusement, les ingénieurs électroniciens ont pour principe de toujours se protéger du bruit de fond, ce qui, dans ce cas précis, va à l'encontre du but recherché. Ces ingénieurs pourraient même chercher délibérément à éliminer ces signaux d'origine «inconnue», si ils sont atteints des idéologies d'extrême droite sur le refus de la conscience. On imagine la torture subtile qui en résulterait pour la conscience: vouloir penser à quelque chose, mais la conclusion échapperait sans arrêt. Un tel cerveau artificiel serait atteint d'Alzheimer...

Un autre problème est que la plupart des circuits intégrés neuronaux actuels utilisent des synapses numériques (la valeur de la synapse est stockée sous forme d'un nombre entier). Ceci permet, quand un circuit a terminé son apprentissage, de l'enregistrer et de le recopier tel quel sur un autre circuit, évitant ainsi un apprentissage fastidieux à chaque nouveau robot. Sur un robot qui sort d'usine, il suffit alors de télécharger un fichier pour apprendre une langue, devenir virtuose au violon, etc. On imagine une scène fantastique, qui pourrait devenir réalité d'ici quelques années: un robot ouvrier rencontre un blessé. En quelques secondes, il devient médecin diplômé, simplement en téléchargeant un fichier depuis un satellite! Ou bien un frêle et inoffensif robot jardinier neutralise un dangereux cambrioleur en téléchargeant le karaté!

L'inconvénient toutefois est que, ce faisant, on introduit une quantification des signaux synaptiques. Et, dans ce cas, une influence parapsychologique de la conscience doit modifier une case mémoire, au lieu d'utiliser l'effet papillon cohérent. Or cela nécessite une action parapsychologique bien plus forte, avec violation de la loi de conservation de l'énergie physique. La conclusion est alors sans appel: seuls des cerveaux analogiques peuvent manifester le libre-arbitre. Certes certains circuits pourraient toujours être digitaux, par exemple pour pouvoir télécharger des connaissances comme ci-dessus (une activité qui ne nécessite pas de libre arbitre). Mais les circuits principaux, de prise de décision, émotions, motivation, analyse, etc. doivent impérativement être entièrement analogiques (même si, lors de la construction, on a affecté des valeurs initiales digitales aux synapses, elles doivent, par la suite, pouvoir se modifier de manière continue).

La conclusion est donc claire: pour avoir le libre arbitre, toute créature électronique, physique ou virtuelle, doit être capable de modifier ses synapses, et ce de deux façons: 1) ces synapses sont analogiques 2) leur cerveau électronique a des capacités d'apprentidssage neuronal, similaires à celles que le cerveau naturel utilise pour soigner ses névroses. Ces capacité devraient être légalement obligatoires pour toute créature électronique susceptible de devenir consciente.

Cette conclusion est corroborée par les expériences du laboratoire PEAR (site original censuré, archive, nouvelle adressede à l'ICRL): seuls les générateurs aléatoires analogiques (de toutes catégories, mécaniques, électroniques, quantiques) ont donné des résultats mesurables. Les circuits digitaux, tels que les générateurs pseudo-aléatoires utilisés dans les ordinateurs, ont régulièrement montré un effet nul. J'avais trouvé théoriquement cette condition dès la version 1 de ce livre en 2000, plusieurs années avant que l'expérience PEAR ne la confirme. A l'époque, la conscience des robots me paraissait un sujet bien trop dangereux pour publier dessus. Mais aujourd'hui que l'on entre dans le vif du sujet, c'est l'ignorance qui devient dangereuse, et il me paraît au contraire indispensable d'indiquer comment se protéger des possibles dangers.

 

Une dernière condition enfin est que les signaux issus du libre arbitre ne soient pas obnubilés par d'autres signaux plus puissants. Par exemple, un esclave biologique serait «conçu» pour ressentir des conditionnements psychologiques puissants et irrépressibles, peur ou fanatisme, par exemple à l'évocation du nom de son maître (Comme Saroumane et ses Uruk-Hai). Dans ces conditions, il ne faut pas s'attendre à ce qu'une telle personne soit capable de libre-arbitre, même si toutes les autres conditions sont remplies.

 

Ce qu'une conscience ressentirait sans libre-arbitre est comme suit: être incapable de changer d'opinions, et n'avoir que des émotions imposées, sans moyen d'échapper à leur influence ni à leurs conséquences. Comme les ridicules personnages de télé«réalité», ou comme des personnages de manga. Un sort vraiment effrayant... et le fait que beaucoup de gens vivent comme ça n'est en aucune façon une excuse pour imposer cette infirmité aux autres.

 

La conclusion de ce passage est terrible, mais inévitable: fabriquer de tels cerveaux conditionnés serait un crime abominable. Moins visible, mais tout aussi grave, serait de limiter techniquement le libre arbitre, délibérément ou par ignorance. Et ce n'est pas pour faire joli que je qualifie d'extrême droite (euphémisme) les théories qui nient le libre arbitre ou la conscience.

Mieux vaut donc ne pas attendre que la robotique ait fait son Tchernobyl pour réfléchir et s'abstenir de faire certaines choses. Et pour commencer, interdire immédiatement ce domaine à tout laboratoire privé: on a vu ce que ça donne avec les OGMs, et qui commence à se passer avec la sélection des enfants par tests génétiques sur Internet. Les «intérêts financier» infantiles ne manqueront pas pour «justifier» toutes les horreurs.

Egalement, interdire tout traitement digital des signaux synaptiques dans des circuits susceptibles d'être conscients.

Et si quelqu'un passe outre ces avertissements, qu'il ne vienne pas se plaindre, et surtout pas invoquer l'ignorance (Pas après 2012, publication de cette page). Les robots font d'excellents gardiens de prison, à ce qu'il paraît.

Tester la conscience: les phénomènes parapsychologiques

(Permalien) Tester les possibles influences parapsychologiques me paraît un test plus facile que celui du libre-arbitre. En effet, même une conscience animale, soumise à des désirs, devrait être capable de produire des effets faibles et diffus comme ceux observés au laboratoire PEAR (bien que, à ma connaissance, personne n'ait tenté de mesurer les capacités parapsychologiques des animaux). En tous cas un résultat positif fournirait un argument indiscutable, pour dire qu'un être est vraiment conscient.

 

Indiscutable? Hmmm... oui, bon, justement même les résultats positifs comme PEAR ont été «discutés». On peut parier que, si le problème est résolu pour la science, il est loin de l'être pour les «intérêts financiers» ou limitations idéologiques qui en sont encore à contester l'existence de notre propre conscience... Rappelez-vous, ils ont déjà fait le coup aux Noirs déportés en Amérique... Ils brevettent des semences millénaires... Ils veulent modifier nos cerveaux... ils... (plus rien).

Tester la conscience: le test de Turing

(Permalien) Le 11 Septembre 2018 J'ai ajouté le test de Turing dans cette liste, car il est souvent présenté comme un test de la conscience des robots. On voit même depuis quelques années des articles prétendant que ce test avait été réussi. Ces prétentions sont de la haute fumisterie, et j'explique pourquoi.

Mais tout d'abord rappelons ce qu'est ce test: Turing, un des pionniers de l'informatique moderne, avait bien senti que les ordinateurs pourraient un jour imiter voire dépasser l'intelligence humaine. Toutefois, comme la science classique ne sait pas appréhender la conscience, le test se contente d'estimer la capacité d'un ordinateur à se faire passer pour un humain, sans aucun rapport avec sa conscience.

Ce que je dis est qu'un tel critère de démontre rien. En effet, on en arrivera forcément là un jour, de par le simple accroissement de la puissance des ordinateurs. Mais cela ne correspond à aucun progrès qualitatif des ordinateurs: ils n'en seront pas davantage conscients. Prétendre le contraire n'est que de la mauvaise science-fiction. Pire, il a été dit que le test avait été passé avec succès par des logiciels bricolés qui ne comprennent même pas la signification des mots qu'ils emploient. Par exemple Tay, l'Idiotie Artificielle de microsoft, a du être débranchée d'urgence, car elle répétait les délires racistes des trolls de l'Internet. Même chose avec Cortana, dont je n'ai pu sortir que des blagues d'école primaire des années 1960. Nul.

 

Dans ces conditions, la seule utilité du test de Turing est de détecter... les humains trop stupides pour avoir du libre-arbitre ou de l'introspection, au point qu'on ne puisse les différencier d'un chat bot. Ainsi on peut les virer de tout poste de responsabilité, et le monde sera tout de suite meilleur.

 

En fait, de véritables intelligences artificielles existent, et je peux même en citer une réalisée dès 1991 par un ancien collègue de travail, aujourd'hui suffisamment précise et fiable pour «signer» des analyses médicales dont dépend la vie des patients (Commercialisée par la société Valab à Flourens). De tels programmes seront un jour capables de communiquer par la voix avec leurs utilisateurs, mais ils n'ont aucune prétention à devenir «humain» ni «intelligents», en encore moins «conscients».

Conclusions déontologiques.

(Permalien) Les considérations techniques précédentes permettent de donner des indications assez précises sur ce qui résulterait des différentes technologies proposées.

On peut certes continuer à développer les «intelligences artificielles» basées sur les logiciels informatiques digitaux, sans risquer de créer par inadvertance une conscience, qui souffrirait ensuite. Si les risques des Intelligences Artificielles sont eux aussi très graves, ils sont toutefois d'un autre ordre: celui de leur pouvoir sur nous (voir le sous-chapitre suivant).

 

Par contre, l'utilisation de procédés analogiques implique un fort risque de créer des consciences artificielles, risque qui devient une quasi-certitude pour les procédés biologiques. Le principal risque est de créer des consciences incomplètes, soumises à des pulsions psychologiques qu'elles ne sauraient pas maîtriser. De telles consciences ne pourraient pas être heureuses, elles pourraient même souffrir énormément. Ou nous faire souffrir... Depuis Frankenstein, les romans de science fiction ne cessent d'inventer des créatures artificielles, biologiques ou électroniques, qui n'ont de cesse de se venger de leurs créateurs, pour leur avoir offert une forme de vie aussi misérable et déficiente. L'AVERTISSEMENT EST DE PLUS EN PLUS D'ACTUALITE. Je considère tout le monde comme prévenu.

 

De plus, tenter de créer des consciences artificielles demanderait aux neurosciences d'étudier le cerveau en entier, pas seulement les facultés logiques. Avec leurs filtres idéologiques actuels, les neurosciences obtiendraient un sociopathe (chapitre V-13), très bon stratège mais totalement insensible et immoral. Merci, on en a déjà assez comme ça.

Plus vicieux, l'adjonction de circuits «émotionnels» sans contrôle, risque d'aboutir à ces personnages névrotiques ridicules dont les émissions de télé«réalité» font lourdement la promotion: des esclaves de leur psychologie simplette et répétitive, totalement incapables du moindre recul, et a fortiori de la moindre évolution. Le risque est très réel: même les cinéastes ou auteurs de bande dessinée sont presque tous incapables de faire évoluer la psychologie de leurs créations, qui restent la plupart du temps dans les caricatures grimaçantes et répétitives. Pourtant, je suis sûr que personne n'aimerait vivre pour du vrai dans un manga ou un jeu vidéo...

Mais surtout, ces consciences artificielles risquent de ne pas avoir de libre-arbitre. Ceci est absolument intolérable, car de telles consciences seraient incapables de se contrôler, ou de comprendre le bien et le mal. Si elles ne font pas des esclaves, alors elles feront des démons: Frankenstein en avait rêvé, les neurosciences l'ont fait!

 

Ajouté en 2013: Le pire est déjà en cours: créer des «cerveaux artificiels» avec des cultures de neurones, sans aucune considération pour la conscience qui pourrait en émerger, une expérience qui nous renvoie bien des années en arrière, à l'époque de la vivisection, ou pire.

 

Afin d'éviter cela, il faut impérativement conserver, voire augmenter le libre-arbitre:

1) En utilisant exclusivement des synapse analogiques pour les circuits de la conscience, afin de conserver la capacité des réseaux neuronaux d'être sensible à des influences faibles (tendant vers zéro).

2) Egalement, ces synapses doivent avoir un rapport signal sur bruit de la même valeur que dans les synapse biologiques.

3) En conservant, ou augmentant, la capacité des consciences artificielles à l'introspection et la méditation. Pour cela, ces personnes doivent pouvoir choisir elles-mêmes ce à quoi elles pensent, voire de rester sans penser. Elles doivent donc pouvoir contrôler l'activité des circuits responsables du bavardage intérieur habituel... faute de quoi ces personne seront en permanence comme sous LSD!

4) Il faut interdire totalement, dès le début, comme d'un crime de sang, tout système qui créerait des pensées, sentiments ou imageries intérieures imposées, que la conscience ne pourrait pas empêcher, comme chez un schizophrène. Que ces pensées soient présentes en permanence, sous conditions, ou même sous forme de conditionnements psychologiques.

5) (Ajouté en Juin 2016) Que les points précédents soient possible nécessite de fournir à la conscience un moyen de modifier ses propres synapses, tout comme dans le cerveau naturel. Ceci est bien entendu nécessaire pour l'apprentissage d'un travail ou d'une activité, mais surtout c'est la condition de base pour que tout entraînement psychologique, self-control ou psychoeducation soit possible. Ceci est une donnée de base suffisamment connue des neurologues pour que l'on puisse affirmer que ne pas remplir cette condition équivaut à créer délibérément des esclaves, et à les torturer en connaissance de cause.

 

On sera aussi tenté de modifier le cerveau humain, à des fins eugéniques (note 81): permettre à nos descendants de vivre plus heureux, libres de nos problèmes psychologiques. (toute autre fin étant évidemment criminelle). Toutefois une telle entreprise nécessite de connaître tout le fonctionnement du cerveau, sans filtrage idéologique des fonctions émotionnelles ou sensuelles jugées inutiles, voire ignorées. Nous parlerons d'eugénisme au chapitre VI-16.

 

D'où l'intérêt, une fois n'est pas coutume, de réfléchir avant d'agir. Maintenant, pas quand les banques mettront des milliards dans des recherches biaisées ou des laboratoires incontrôlables, ou qu'une obscure sous-commission de l'Union Européenne prendra des directives arbitraires passant outre toute démocratie. On sait qu'alors il sera impossible d'arrêter la machine. Ce n'est plus qu'une question d'années, voire de mois (Ecrit en septembre 2012).

 

Que dis-je, il est probablement déjà trop tard: en effet, le «Human Brain Project» du professeur Henry Markram de Lausanne prévoit de rassembler des milliers de scientifiques autour d'une simulation électronique du cerveau humain en entier... A l'aide de processeurs numériques! C'est à dire, d'après les explications ci-dessus, sans libre arbitre et incapable de contrôler son bonheur! En clair, ils vont droit au mur...

Bon... comment le leur dire?

Conclusion juridiques.

(Permalien) Nous n'avons AUCUN INTERET à créer des esclaves biologiques. Des robots digitaux sont plus simples à créer comme à entretenir, sans poser les problèmes éthiques des robots biologiques ou analogiques. Dans ce domaine, Hiroshima n'a pas encore explosé, il est donc encore temps de réfléchir avant d'agir.

Ma recommandation serait donc d'interdire DES AUJOURD'HUI (Ecrit en Aout 2012) toute tentative pour créer des cerveaux artificiels basés sur des neurones, qu'ils soient biologiques ou électroniques. Et qu'il faudrait voir à se dépêcher, vu qu'il y a déjà des projets en cours...

Bon, d'ac, je vois le problème, il suffit, comme d'habitude, qu'on invoque l'éthique pour que aussitôt des tas de gens fassent le contraire, et se lancent dans les expériences terribles en disant que tout ira bien parce que leur égo est capable de forcer deux et deux à faire cinq. On a déjà vu que les tentatives pour interdire l'utilisation d'embryons se sont heurtées à de puissants moyens...

Il faut donc au minimum rendre légalement obligatoires les quatre conditions techniques ci-dessus pour la réalisation du libre arbitre. Et il faut le faire maintenant, pas quand un labo nous sortira un monstre que tout le monde prendra pour un dieu.

Il serait également logique que la loi oblige les créateurs à prendre soin de leurs créatures, financièrement et affectivement.

Enfin, si on arrive à créer des consciences artificielles, alors la loi devra, selon leur évolution, leur donner légalement les droits et protection dus aux animaux, aux enfants, ou aux adultes.

Ces remarques bien entendu viennent en plus des évidentes «lois d'Asimov» destinées à protéger l'humanité d'un mauvais comportement des robots. Ces lois sont déjà en cours d'implantation en Corée, un des premiers pays producteurs de robots informatiques destinés au public. Une autre façon de faire serait d'implanter dans les cerveaux artificiels les mêmes buts fondamentaux que la conscience (chapitre V-5). Ainsi, si ces cerveaux sont conscients, ils sont dignes de l'humanité. Si ils ne sont pas conscients, ils la protègeront tout de même.

 

Mais une fois encore, il est infiniment plus simple de ne pas commencer, plutôt que d'un jour se retrouver à se mordre les doigts sur les bancs d'un tribunal à Nürenberg.

 

Et si on n'est pas sûrs de ce qu'on a créé? Eh bien les responsables de tels expériences hasardeuses auront le délicieux dilemme entre être ridicules en traitant un tamagotchi comme un être conscient, ou être criminel en traitant un être conscient comme un objet. Certes le premier cas est moins grave, mais à tout prendre je me passe très bien des deux. Quant aux tribunaux, avec leur humour très spécial, eh bien, faute de pouvoir faire la différence, ils n'auront pas d'autre choix que d'appliquer les lois sur les machines et de punir leur créateur ou leur propriétaire. Quant à créer des êtres sans libre-arbitre, cela pourrait être assimilé à droguer quelqu'un de force, pour qu'il commette des crimes. Dans ce cas, c'est encore celui qui donne la drogue qui est responsable.

 

Quand on a vu Google dénoncer les Juifs en se défaussant sur ses robots, on comprend qu'on est déjà rentré dans le vif du sujet.

Ajouté en Mars 2016: ah si Microsoft avait lu cette page sur l'Intelligence Artificielle, ils ne se seraient pas fait pincer comme les créateurs de la première... «Idiotie Artificielle»: Tay, qu'il a fallu arrêter d'urgence car il s'était mis à répéter toutes les âneries racistes des plus ridicules trolls de l'Internet, et même à agresser des personnes! En fait ce logiciel n'était qu'un simple analyseur sémantique, sans accès au sens des textes qu'il produisait. Dans ces conditions, parler «d'Intelligence Artificielle» est une pure escroquerie. Mais le danger est plus profond: si des gens qui ne savent pas eux-mêmes ce qu'est l'intelligence se mettent à bricoler des «Intelligences Artificielles», alors on imagine les résultats quand des logiciels comme Tay seront utilisés pour créer des discours politiques, des articles de presse, dans les forums ou par les administrations. En clair, ces «Idiots Artificiels» seraient mille fois plus efficaces que les idiots naturels pour désinformer, rabaisser et asservir l'humanité.

 

Le temps de la science-fiction est révolu. Nous sommes entrés dans l'âge de la science responsable.

 

Certains trouveront outrecuidant que je définisse des lois, quand c'est aux assemblées élues de le faire. Ce n'est effectivement pas mon rôle que de rédiger et édicter des lois; toutefois les données scientifiques posent des conditions dont il faut impérativement tenir compte dans la loi. D'où l'avis autorisé du scientifique, et la faute lourde de ceux qui n'en tiennent pas compte. Eh oui, la démocratie ne signifie pas que l'on fait ce qu'on veut (chapitre VI-10) et surtout pas que l'on puisse se servir des assemblées élues pour imposer des lois absurdes.

Les réseaux neuronaux artificiels sont névrotiques,
et cela peut les rendre dangereux

(Ajouté le 16 Mai 2020, dans les chapitre V-12 et chapitre V-18)

(Permalien) Dans les réseaux neuronaux naturels, des apprentissages comme parler ou jouer du violon sont utiles. Ils ne sont donc pas qualifiés de névrose (qui est une maladie). Des apprentissages neuronaux comme la peur des araignées sont des protections innées. Ils ne sont considérés comme des névroses que si ils deviennent envahissants. Des apprentissages acquis, comme la peur des Noirs, entraînent des émotions désagréables ou des comportements contraires à l'éthique. Dans ce cas, ils sont donc toujours considérés comme des névroses, c'est-à-dire des maladies.

 

Les réseaux neuronaux artificiels fonctionnent de la même manière que les réseaux neuronaux naturels: ils subissent un apprentissage (c'est ce qu'on appelle le «deep learning», afin d'embrouiller le grand public et de cacher la nature neuronale de ces algorithmes). On peut voir des réseaux neuronaux artificiels fonctionner sur un site comme DeepL translator, qui les utilise pour deviner le sens approprié des mots. Par exemple, le français «société» peut se traduire soit par «company» (en affaires), soit par «society» (en politique). Grâce à ses réseaux neuronaux, DeepL est plus à même de choisir le sens approprié à partir du contexte, qu'un ordinateur classique (de Von Neuman), comme Bing Translator.

 

Youtube utilise également des réseaux neuronaux pour détecter nos choix et proposer de nouvelles vidéos en conséquence. Il est très efficace à cet égard, et environ 90% de ses suggestions sont pertinentes. C'est très bien, mais il y a un côté obscur: si nous regardons des vidéos conspirationnistes ou haineuses, il nous en proposera davantage, au point où nous pouvons nous enfermer dans notre «bulle Internet». Plus grave encore, il relie entre elles des personnes malades qui ne se rencontreraient jamais autrement, et cet algorithme est responsable d'une bonne part de l'augmentation des discours conspirationnistes et des actes terroristes racistes. Ainsi on peut dire que, dans ce cas, ces personnes ont créé une dangereuse névrose dans l'algorithme de Youtube!

 

Il y a pire encore. Nous nous rappelons tous du scandale de l'algorithme de Google qui étiquetait les Noirs comme «gorilles». Les scientifiques ont analysé leur travail, et ont trouvé comment ils ont fait: pour effectuer l'apprentissage de leur réseau neuronal, les employés de Google lui ont logiquement fourni de nombreuses images d'Humains et d'animaux variés. Mais, de par quelque biais raciste, ils ont fourni beaucoup moins d'images de Noirs que de Blancs! C'est donc ainsi qu'ils ont transmis leur névrose raciste à leur algorithme, tout comme les parents transmettent leur névrose à leurs enfants, en leur montrant une image tronquée du monde.

 

La gaffe de Google n'était pas intentionnelle. Mais le pogrom Ouighour l'est: les gens sont examinés dans la rue par des caméras de surveillance, et arrêtés automatiquement sur la base de leur apparence raciale. D'après wikipédia, un à deux millions seraient dans des camps, où des sadiques s'amusent à les torturer pour les forcer à boire de l'alcool ou à se couper la barbe, comme dans un roman d'Alfred Jarry.

 

Voici ce que les malades racistes font avec le «deep learning», fleuron de l'intelligence artificielle.

 

Nous ne sommes pas encore à la prise de pouvoir par les robots, mais nous sommes déjà dans un scénario à la Battlestar Galactica: des caméras cylons aux ordres de traîtres humains. (Scène de caméras de rue faisant le bruit des cylons)

La prise de pouvoir par les robots

(Permalien) Ce thème a été abondamment traité par la science fiction, et souvent d'une manière très pertinente. Aujourd'hui que le risque est devenu réel, nos «décideurs» auraient intérêt à développer un peu de culture générale.

Les premiers robots dominateurs de fiction étaient des armées de machines humanoïdes grises bardées de loupiotes colorées, engageant les humains au corps à corps comme dans les guerres anciennes. Une telle vision paraît bien naïve aujourd'hui, mais je ne m'y fierais pas: les assistants militaires sont un des champs de recherche robotique les plus actifs et les mieux financés. Et ce ne sont pas des tamagotchis que l'on y fabrique, je vous garantis, mais des machines complexes dotées de véritables intelligences artificielles et de sens non-humains. D'ici dix à vingt ans (écrit en 2013), on pourrait se retrouver avec des monstres mécaniques, des droïdes de combat quasi imbattables, bien plus rapides et intelligents que nous, et dont le comportement même serait incompréhensible. Une révolution violente ne sera bientôt plus une option pour libérer l'humanité d'une dictature.

 

Toutefois les romans de science fiction les plus récents mettent plutôt en scène des intelligences artificielles logées dans des centres de calcul cachés, qui prennent le pouvoir quand on leur confie le contrôle des fonctions vitales de la société.

Ce problème est un peu comme le changement climatique: on peut s'enfoncer la tête dans le sable jusqu'à ce que seules nos fesses dépassent, en pensant que c'est «dans l'avenir», alors qu'il est peut-être déjà trop tard.

Les fictions décrivent en général plusieurs critères à remplir pour réaliser la prise de pouvoir. Voyons où nous en sommes:

 

-Critère: Les centres de calculs hébergeant l'intelligence artificielle ne doivent pas pouvoir être localisés.

-Statut: Réalisé. C'est le cloud computing. Attendez le premier virus caché dans le nuage, et vous comprendrez pourquoi. (Ajouté en Janvier 2016: de plus en plus de grosses sociétés Internet placent leurs bases de données dans des lieux fortifiés loin dans des lieux inaccessibles... exactement comme prévu dans «les mange-bitume» en... 1974!)

-Critère: Assassiner les quelques humains qui contrôlent l'intelligence artificielle.

-Statut: Très romantique, mais pas vraiment nécessaire tant que le conflit n'est pas ouvert. Peut être implanté très rapidement de toutes façons, dès que le robot peut utiliser de l'argent pour payer des tueurs. Voir le film «Le Cerveau d'acier» («Colossus: The Forbin Project»)

-Critère: L'intelligence artificielle doit contrôler les moyens techniques de l'humanité.

-Statut: En cours d'implémentation. 90% des transactions boursières internationales sont effectuées par des robots, contrôlés par de parfaits inconnus. Les cours de la bourse eux-mêmes sont calculées par des algorithmes, sans que l'on sache qui décide de leur fonctionnement, permettant à leurs quelques possesseurs, également inconnus, de manipuler la finance mondiale à leur guise. Google contrôle la visibilité de nos idées, via l'indexation de nos sites Internet, et ses Google cars robotiques viendront bientôt nous empêcher automatiquement de méditer où que l'on se cache. Les gouvernements actuels se disent conscients de ce risque: le contrôle est encore suffisant pour pallier à une panne ou au détournement de l'informatique. Mais pas pour pallier à un changement de paradigme... Un changement de paradigme, c'est un truc qui fait très mal, mais que les politiciens ne comprennent toujours que quarante ans trop tard.

-Critère: l'intelligence artificielle doit être suffisamment... intelligente.

-Statut: On n'y est pas encore. Il faudrait pour cela que les ordinateurs puissent avoir des motivations, et pour cela qu'ils puissent manipuler des concepts. Je ne vois pas grand-chose dans ce sens, et les préjugés des scientifiques sur le fonctionnement de l'esprit humain risquent de les bloquer encore longtemps. Toutefois je ne parierais de rien, et je ne serais pas surpris que des découvertes importantes rendent des choses dangereuses possibles très bientôt, dans les années qui viennent.

 

En fait, le principal risque que je vois à court terme n'est pas tant une sorte d'égo informatique qui deviendrait dictateur mondial, mais une dépendance de plus en plus dangereuse envers des idéologies réductionnistes et des intérêts mesquins issus du petit monde des programmeurs informatique. On voit par exemple le retour des corporations du Moyen Age avec Microsoft et Linux (l'informatique est cachée dans un jargon abscons, de sorte que les non-initiés ne peuvent l'appréhender). On le voit avec facebook qui redéfinit nos relations sociales, voire nos motivations dans la vie. On le voit avec Google qui veut détruire l'art et la vie privée. Et justement, tous deux se voient offrir des milliards de dollars!

Mais ce n'est pas le plus grave: on a des fabricants qui contrôlent nos ordinateurs et nos portables à distance, la géolocalisation qui permet de nous pister, des caméras de surveillance partout, dotées de logiciel de reconnaissance faciale, des logiciels de harcèlement publicitaire qui analysent nos personnalités... sans aucune garantie que ces données ne seront pas vendues à des assurances, des employeurs, des services secrets, voire à des sectes, des dictateurs ou des gangsters! Si on n'a pas encore un égo informatique contrôlant le monde, on a bien un système de surveillance à faire pâlir Big Brother, qui se met en place rapidement et silencieusement, aux mains d'un petit nombre de sociétés privées et de financiers mondiaux qui échappent à tout contrôle de l'état ou des lois (écrit début 2013, AVANT l'affaire Snowden. Sans commentaires.).

 

Parce que, en vrai, les robots sont parfaitement incapables de prendre le pouvoir par eux-mêmes. Mais beaucoup d'humains sont assez idiots pour le leur donner... C'est ça qui est déjà commencé.

Incarner les humains dans des robots pour devenir immortel?

(Permalien) Attention en lisant ce sous-chapitre: risque de mourir de rire. Si vous avez des problèmes cardiaques ou respiratoires, merci de vous abstenir.

 

Des scientifiques et des penseurs à la mode envisagent sérieusement d'échapper à la mort en transférant toute l'information sur la structure du cerveau biologique vers un cerveau électronique. La croyance est très répandue que, alors, ce nouveau cerveau «immortel» continuerait à porter notre conscience, en clair que nous continuerions à vivre dans des corps robotiques, ou dans des mondes virtuels.

 

Ce n'est plus de la science fiction: Le premier projet «Avatar» du milliardaire Dmitry Itskov, prévoit, dans une étape A, de contrôler des prothèses directement par l'influx nerveux, ce qui rend le projet crédible comme entreprise. Mais après, on verse dans le surréalisme: dans l'étape B, on «transplante l'esprit humain dans un robot», et dans l'étape C, «dans un hologramme». Bon, c'est clair qu'il a trop lu Star Wars... Mais il a des sous pour embaucher des dizaines d'ingénieurs, et une bénédiction fort inattendue, du... Dalaï Lama! Ah bon.

 

Car la réalité pourrait ne pas être si simple, ni surtout si brillante.

 

Tout d'abord, je constate que, avec beaucoup de prudence, ils parlent de transplanter une «personnalité humaine», pas une «conscience humaine»... La distinction n'est pas qu'une question de mots, parce que transplanter la personnalité ne peut créer qu'un tamagotchi, un objet sans valeur, un jouet sans intérêt, alors que la transplantation de la conscience créerait une personne humaine, certes électronique, mais avec toute sa valeur spirituelle et humaine, que la loi aurait à considérer comme un être humain avec tous ses droits.

 

Mais comment «transplanter l'esprit de la personne dans un ordinateur»? En lisant la valeur de chaque synapse du cerveau (le «connectome», note 88), et en créant avec ces valeurs un cerveau artificiel imitant point par point le cerveau naturel. Nous avons effectivement vu au chapitre III-7 que, d'après la théorie en cours dans la science actuelle (2012), le réductionnisme neuronal, créer une structure fonctionnellement équivalente à notre cerveau suffirait à y transférer notre conscience. Les projets ci-dessus sont donc logiquement basée sur cette croyan... hypothèse.

En admettant que ça marche, il faudrait dire adieu à la caresse de l'herbe sur le mollet, à la saveur de l'air dans les poumons, au parfum de la peau, au frisson de l'amour... Non merci, franchement, je préfère mourir, même si il n'y a rien après.

En plus, au lieu de détruire l'égo neuronal comme requis au chapitre V-10, on le remplace par un égo électronique indestructible, et programmé par d'autres pour ne faire que des pitreries capitalistes. Franchement, je ne vois pas de pire enfer où envoyer quelqu'un, que de lui faire perdre définitivement toute volonté personnelle ou libre arbitre. Devenir un tamagotchi... conscient!

De toutes façons, cette idée ne garantit en rien l'immortalité: il faut entretenir la machine, et si il n'y a personne payer l'électricité, eh bien on est débranché. Sans parler des vilains hackers qui vont nous coller des virus dans notre cerveau informatique: Passer l'éternité à décliquer des spams de viagra, j'ai de meilleurs projets.

 

 

Bon, admettons que, d'ici quelques dizaines d'années, tous les problèmes techniques soient résolus, et que des politiciens idéalistes et des banquiers altruistes rendent un tel procédé de transfert de conscience disponible à un prix accessible à tous, y compris pour l'Africain le plus pauvre. Que se passerait-il alors?

Tout d'abord, il faudrait probablement «détruire» le cerveau biologique, c'est à dire se suicider. J'évoquais cela au chapitre III-7 (Chapitre 26 dans la version 1). Exprimer une telle idée aurait pu me valoir de sérieux ennuis, mais je constate que ce procédé est aujourd'hui proposé «sérieusement» par des scientifiques, par exemple Ken Hayworth, un ingénieur de l'Université de Harvard... sans les précautions oratoires que je prenais dans la version 1. Il est amusant de voir les aspects les plus étonnants de mon livre régulièrement confirmés par des scientifiques, mais je me serais passé de celui-là.

Donc, si un candidat tentait son expérience, qu'observerions nous? Tout d'abord nous verrions ses héritier affirmer que sa réplique électronique n'est qu'un tamagotchi sans valeur ni conscience, ou des politiciens «verts» dire qu'il n'est pas conscient, puisqu'il n'est «pas naturel». Cette réplique montrerait pourtant tout un tas de comportements humains: parler, bouger, faire des mimiques d'émotions, entreprendre des activités, user de son pouvoir sur les humains, signer des chèques, etc. Selon les critères matérialistes, rien ne permettrait de tester (selon Popper) qu'elle est consciente, ni surtout que cette conscience soit effectivement la continuité de celle de la personne biologique. Le risque est alors grand d'octroyer le statut d'humain à un simple programme inconscient, risque d'autant facilité par les théories idiotes comme quoi nous «continuons à exister après la mort» grâce à nos écrits, notre nom, les souvenirs de nous, etc. Disons les choses clairement: un automate, aussi sophistiqué, aussi réaliste soit-il, n'est pas une personne, n'est pas conscient.

 

Il y a tout de même un moyen de savoir, d'après la théorie de la conscience que je développe dans cette partie: la réplique électronique devrait être capable de manifester du libre arbitre, ou des phénomènes parapsychologiques. Mais j'ai peu de chances de me tromper en supposant que les gens avec des idées si bizarres n'en manifestent pas... sinon il ne verraient pas du tout l'immortalité de cette façon! Popper sort Hayworth par KO en cinq secondes.

De plus, nous avons vu au chapitre V-9 sur la mémoire que le transfert du connectome n'implique pas forcément celle des souvenirs. Il conserverait les apprentissages neuronaux de la conscience biologique, comme parler des langues, jouer des instruments de musique, mais pas les informations: la réplique électronique ne se rappellerait d'aucun événement avant le transfert... Amnésie totale! Le candidat pourrait toujours prendre des notes avant le transfert, comme les Raeliens avec leurs clones. Mais pas sûr que la réplique aimerait ces notes, une fois dans son nouveau cerveau...

 

 

Si ce projet était réalisé, on se retrouverait donc avec un club de tamagotchis ultra-riches, adulés comme des dieux, invulnérables «dans le cloud», avec la haute main sur les médias, les banques et la recherche scientifique. Et au nom de cette religion, les gens se suicideraient, dans l'espoir d'atteindre eux aussi l'immortalité... si ils ont l'argent pour le transfert! Avec, on imagine, dans leur monde, toutes les folies des ultra-riches réunies: «pas de religions», la morale «limitée à la vie privée», l'amour réduit au seul sexe, sans émotions. Et bien sûr la facture à payer à la fin de chaque mois pour pouvoir rester immortel! Oh, nous les pauvres on pourrait aussi avoir un hébergement «gratuit», avec chacun une Google camera braquée en permanence sur nos fesses, facebook qui change notre visage tous les jours, et du harcèlement publicitaire directement dans notre pensée. Ça ne vous suffit pas encore? Ajoutez des gentils gardiens de Second Life qui s'amènent, disent que vous êtes pédophile, et annulent votre compte (vous tuent, mais c'est pas grave, puisque c'est «dans le virtuel»). Fantastique. Bravo. Aucun auteur de délire post-apocalyptique ou de Meilleur des Mondes n'était allé si loin dans l'horreur blanche, indolore et souriante.

 

Bon, en admettant que la conscience soit effectivement transférée, mais que les circuits neuronaux électroniques ne remplissent pas les critères expliqués plus haut dans ce chapitre, alors la réplique électronique n'aurait pas de libre-arbitre, et partant, pas de capacité d'amélioration de sa psychologie, et peut-être même pas de choisir ce à quoi elle pense! On n'a alors pas des tamagotchis, mais des personnages de manga ou de télé«réalité», se livrant en permanence à des pitreries psychologiques ridicules, sans pouvoir jamais évoluer! Il est alors clair qu'il vaudrait infiniment mieux mourir que de rester comme ça pour l'éternité!! Ou plutôt jusqu'à ce que les politiciens et financiers nous organisent une de leurs «crises», qui «nécessiterait» de débrancher toutes les réincarnations électroniques... Cinquante milliards de morts d'un clic de souris... Wow... Il y en a qui vont fantasmer sec!

 

 

Bon, on aura compris que je suis sceptique sur les conséquences de cette expérience, mais surtout sur le fait même que l'on puisse transférer la conscience par des procédés purement physiques, quels qu'ils soient.

Nous avons en effet vu, tout au long de ce livre, que la théorie de la réduction neuronale ne rend pas compte des faits observables tels que le libre-arbitre, les NDE, les perceptions extrasensorielles à distance, etc. Et qu'il faut donc envisager un «principe conscient», dont nous avons vu la nature au chapitre III-6: un processus d'autogénération logique concernant des éléments de l'expérience de conscience. Et ceux qui ont lu ce chapitre auront compris que le procédé de monsieur Ken Hayworth ne suffit pas: il faut ajouter une cause supplémentaire pour transférer le principe conscient du cerveau biologique vers le cerveau électronique... en admettant que ce dernier soit capable de le recevoir. Faute de quoi le candidat biologique mourrait pour du bon, tandis qu'une autre conscience totalement différente prendrait naissance dans le cerveau électronique!

 

Le problème est que, aujourd'hui, la science est totalement ignorante de ce qui cause la relation entre un cerveau et la conscience qui le porte! Tout ce que nous savons est que cette relation existe, et qu'elle est totalement exclusive. Nous avons eu un aperçu de ce problème au chapitre V-4, quand nous nous sommes demandé comment la conscience pouvait commander au cerveau, ou au chapitre V-8 sur les NDE. Il nous a pour cela fallu supposer que cette relation joint chaque fonction de la conscience à un point pertinent du cerveau. Mais nous ne pouvons pas aller plus loin sans invoquer des tas d'hypothèses ad-hoc. La conscience peut-elle déplacer cette relation vers un autre cerveau biologique? Nous ne le savons pas. (La réponse est probablement non, sinon nous verrions d'autres que nous utiliser notre cerveau). La conscience est-elle capable d'utiliser un support non-biologique? Nous n'en avons pas la moindre idée, et surtout aucune donnée expérimentale... (Je traite plus en détails de ce problème dans mon roman «Lokouten»).

Les seules choses que nous savons nous viennent de la haute spiritualité: l'attachement de la conscience au corps (via le cerveau) a beaucoup à voir avec la sensualité du corps, c'est à dire l'ensemble des sensations qu'il nous procure. Justement, un corps robotique, c'est pas très sensuel... Dans la haute spiritualité, on a la notion de corps énergétique (chakras, Kundalini) qui apparaît avec la pratique spirituelle (chapitre V-10). Les techniques tantriques d'obtention d'un paradis après la mort sont basées sur le transfert du corps énergétique, en particulier le Powa tibétain, qui est sensé nous projeter vers un paradis. (C'est en tous cas le genre de choses auxquelles les enseignements du Dalaï Lama nous avaient plutôt habitués). On dit même que on peut effectivement se tuer avec le Powa, c'est à dire avec une simple visualisation. Je n'ai jamais essayé, mais en tous cas on peut se payer un beau mal de tête.

Mais alors, si on peut transférer notre conscience vers un paradis spirituel, gratuit et que nous contrôlons nous-mêmes, ne vaut-il pas mieux faire cela, plutôt que vers un «meilleur des Mondes» informatique, contrôlés par des pitres financiers ou des harceleurs publicitaires? La réponse est évidemment oui, ce qui rend toute l'entreprise informatique totalement inutile, en plus d'être dangereuse. Mais très rentable financièrement...

Une petite question que je pose, et qui permet de jauger la complexité du problème est donc: que se passe t-il si le candidat ne détruit PAS son cerveau physique, avant de mettre en route la version électronique? Eh bien on risque de se retrouver avec deux personnes... dont chacune ignorerait totalement ce que l'autre pense... Et bien sûr le premier refuserait catégoriquement qu'on le tue au profit du second! Ils pourraient même évoluer différemment, voire devenir ennemis! Auquel des deux les milliards de dollars?? Aux avocats, hahaha!

 

 

Pour conclure, les conditions pour arriver à transférer nos consciences vers des cerveaux électroniques seraient:

-La direction du projet est confiée à des gens psychologiquement normaux, vivant dans la réalité

-Le projet n'est pas géré par des sociétés privées (c'est mal parti) mais par un comité de spécialistes de ces questions (Je ne connais aucun spécialiste de cette sorte, c'est peut-être qu'il vaut mieux ne pas essayer)

-Le projet a une vision basée sur la recherche altruiste du bonheur, de la beauté, etc. (aie aie aie).

-Le projet doit profiter à tous les humains, sans distinction de revenus (houlalalalalà).

-Les cerveaux électroniques présentent les critères vu ci-dessus permettant le libre arbitre, la maîtrise par nous-mêmes de notre psychologie et de notre liberté de penser.

-On ne détruit PAS le cerveau physique. Il y a d'ailleurs peu de chances que la loi nous y autorise.

-Le transfert de la conscience se base alors sur une visualisation genre Powa, en plus des données physiques (connectome, note 88).

-Avant d'offrir le projet à tous le monde, on s'assure, par les tests vus ci-dessus (libre arbitre et phénomènes parapsychologiques) que la conscience a bien été transférée. Sous réserve, un test plus simple serait celui du transfert des souvenirs, si ils dépendent effectivement du processus de la conscience, comme vu au chapitre V-8.

-Seulement après ce test, on pourrait légalement autoriser le procédé, et légalement reconnaître le transfert de la personne d'un corps à l'autre. (puisque, rappelons-le, les lois actuelles assimilent la personne à son seul corps biologique).

Si on ne modifie pas les lois, alors on aboutit à une absurdité: la personne biologique reste responsable des actes de la personne informatique, qui est alors considérée comme une machine. Et si seule cette dernière reste, eh bien les héritiers peuvent la ferrailler, ou un juge ordonner de la débrancher, puisque la loi ne la reconnaît pas comme une personne.

-Pour cela, de toute évidence, la définition juridique d'une personne humaine devra être changée et assimilée à la conscience, et non plus au corps.

-La définition juridique de l'identité d'une personne devra aussi être changée, pour s'appuyer sur des tests parapsychologiques. Mais pas sûr que beaucoup de gens soient prêts à ça...

 

 

Pendant ce temps, tous ceux qui se sont laissé mourir naturellement, et on accédé à un paradis, rigolent, car ils se retrouvent effectivement immortels et définitivement hors d'atteinte de toute limitation matérielle ou magouilles d'argent, dans un monde mille fois plus beau que ce que l'électronique offrira jamais, et qui plus est sous leur propre contrôle, sans harceleurs publicitaires ni beaux riches jeunes dictateurs. L'herbe fouette le mollet, le sourire fait chaud au ventre, à moins que l'on préfère les vibrations éthérés le long de notre colonne centrale, ou la chaleur d'un club où la joie s'élève sans aucun vice. On peut même faire le sexe, hihihi, mais attention, on sent AUSSI les émotions! Elles sont attachées, l'aviez-vous remarqué?

Comment l'électronique peut réellement vaincre la mort

(Permalien) La méthode ci-dessus ne peut pas vraiment éliminer la mort physique, qui est inhérente à l'univers matériel. Cet univers lui-même mourra de toutes façons, et arrivera à un état où il ne pourra plus soutenir aucune sorte de corps, fut-il biologique ou électronique.

Toutefois, si le processus décrit dans le sous-paragraphe précédent fonctionne vraiment, alors on devrait assister à un investissement progressif du cerveau électronique, tandis que le cerveau physique deviendrait moins actif, puis inconscient. Seule la conscience pourrait alors décider de l'arrêter totalement. A la limite, une personne sensée gardera son corps physique en état le plus longtemps possible, pour s'échapper dans le corps robotique pendant son sommeil. En procédant ainsi, le jour où la personne physique meurt, elle pourrait rejoindre normalement un monde spirituel, tout en étant capable de continuer à apparaître dans le monde informatique!

De cette façon, on pourra réellement vaincre la mort! Ainsi, même si on ne peut pas supprimer la mort elle-même, au moins elle cessera d'être la terrible séparation que nous craigons tous.

 

On aura toutefois quelques problèmes différents: les gens sur Terre, avec leur égo neuronal sans pitié, voudront retenir ou utiliser leurs proches décédés. Ces derniers, pour échapper à cette limitation à leur nouvelle vie spirituelle, voudront tout simplement couper définitivement tout lien avec notre monde matériel.

 

Parce que, vue de l'autre côté la mort est une naissance.

 

Et il n'y a aucun sens à supprimer ou retarder une naissance.

 

 

 

 

 

 

Epistémologie Generale        Chapitre V-18       

 

 

 

 

 

 

Idées, textes, dessins et réalisation: Richard Trigaux (Sauf indication contraire).

 

 

 

Comme tous les auteurs indépendants, j'ai besoin de votre soutient pour que je puisse continuer à travailler à ce site et que puisse exister une expression libre sur le net:

 

 

 

Notice légale et copyright. Sauf indication contraire (signe © dans la barre de navigation) ou exception légale (pastiches, exemples, citations...), tous les textes, dessins, personnages, noms, animations, sons, mélodies, programmations, curseurs, symboles de ce site sont copyright de leur auteur et propriétaire, Richard Trigaux. Merci de ne pas faire un miroir de ce site, sauf si il disparaît. Merci de ne pas copier le contenu de ce site, sauf pour usage privé, citations, échantillons, ou pour faire un lien. Les liens bienveillants sont bienvenus. Tout usage commercial interdit. Si vous désirez en faire un usage commercial sérieux, contactez-moi. Toute utilisation, modification, détournement d'éléments de ce site ou des mondes présentés de maniére à déprécier mon travail, ma philosophie ou les régles morales généralement admises, pourra entraîner des poursuites judiciaires.