Sur Terre, les ancêtres des ordinateurs ont été mécaniques. Les calculateurs mécaniques auraient pu apparaître à l'époque du Christ, si les progrès scientifiques de cette époque avaient continué: la machine d'Anticythère calculait l'âge de la Lune avec un système d'engrenages et plusieurs cadrans. Mais cette capacité technologique a été perdue avec la mise à sac de Rhodes par les Romains. Alors il a fallu attendre Pascal, au 17eme siècle, pour inventer une seconde calculatrice mécanique, inspirée du boulier, et utilisant les compétences mécaniques de l'horlogerie. Au 18eme siècle les métiers à tisser de Vaucanson furent les premiers automates industriels, développés sur le principe des automates artistiques: des systèmes de carte perforées exécutant des séquences fixes de mouvements. Toutefois la première machine mécanique pouvant réellement prétendre au titre d'ancêtre de l'ordinateur fut, au 19eme siècle, celle de Babbage, qui prévoyait déjà des sauts conditionnels, mais que les mécaniciens de l'époque ne surent pas réaliser. Ainsi Lady Lovelace, la fille de Lord Byron, fut la première programmatrice, en 1850...
Toutefois les premières machines à traiter de l'information n'apparurent qu'en 1890, avec le recensement des USA, utilisant les premières tabulatrices et des cartes perforées, inventées par Herman Hollerith. Ces machines étaient programmées de manière unique, un peu comme nos tableurs actuels, pour faire des totaux à l'aide de compteurs à relais. Hollerith fonda en 1896 la Tabulating Machine Company, qui devait devenir plus tard IBM. Toute une industrie prospéra jusque vers les années 1960, autour des calculatrices mécaniques (caisses enregistreuses) et des tabulatrices, dont certaines étaient assez sophistiquées pour faire des requêtes simples de base de donnée, ou pouvaient recevoir plusieurs planches de connexion (programmes). Toutefois on était encore loin de la souplesse de véritables ordinateurs.
Ce ne fut que dans les années 1940 qu'apparurent, en Allemagne et en Angleterre, les premières machines que l'on pourrait qualifier d'ordinateurs, utilisant des tubes à vide (triodes) ou des relais électromécaniques. Tandis que Turing posait les bases de la science des logiciels et l'illustrait en cassant le code secret nazi «Enigma», Von Neuman décrivait ce qui serait le fonctionnement des ordinateurs terriens jusque dans les années 2030: Un compteur d'instruction, dont la valeur pointe vers une instruction dans une mémoire de programme. Quand l'instruction est exécutée, on incrémente le compteur pour passer à l'instruction suivante. Ceci permet d'exécuter ces instructions en séries, comme dans le système de Vaucanson. Chaque instruction manipule des données qu'elle lit ou écrit dans une mémoire de données. Mais certaines instructions, spécifiques aux ordinateurs, permettent en plus des sauts conditionnels dans le programme, en modifiant le compteur d'instruction en fonction d'un résultat. Ces sauts conditionnels donnent toute la souplesse et l'adaptabilité des logiciels modernes, comparé au déroulement rigide des automates de Vaucanson.
Ces ordinateurs seraient restés des machines gigantesques et chères, donc rares et confinées aux domaines militaires ou scientifiques, si deux inventions n'avaient permis de les miniaturiser: Le transistor, qui a remplacé l'encombrant tube à vide par un minuscule cristal, et le circuit intégré, qui permettait de fabriquer et de relier des dizaines de milliers de circuits élémentaires en une seule opération, remplaçant des tonnes de tubes à vide par une minuscule puce de silicium facile à produire en série. Les progrès successifs de la fabrication des circuits intégrés ont conduit à une incroyable diminution de la taille des ordinateurs, mais surtout de leur prix, ce qui permit à ces machines de pénétrer partout dans la société, jusque dans le monde des loisirs: ce sont des hippies de San Francisco, dans les années 1970, qui eurent les premiers l'idée d'acheter d'occasion une «petite» machine à des fins ludiques. Puis l'ordinateur envahit les entreprises (communication, comptabilité, rédaction de textes, bases de données, conception assistée) les administrations (comptabilité, bases de données) les usines (contrôles de processus, robotisation) les logements privés (jeux, vidéos, courrier, Internet) et même les véhicules (avion, métro, automobile).
Les progrès des circuits électroniques favorisant aussi l'essor des télécommunications, il apparut naturellement l'idée de connecter ces machines en un gigantesque réseau, depuis les débuts du réseau ARPA dans les années 1960 jusqu'au triomphe de l'Internet entre 1995 et 2000. Dans les années 2100, cet Internet avait encore beaucoup progressé, et son utilisateur pouvait trouver, rassemblés en une seule machine de la taille d'un carnet, toutes les fonctions liées à la télécommunication et au stockage de données (courrier, fichiers, livres, vidéos, musique, téléphone, radiodiffusion, télévision, concerts en direct, conférences, vente, banques...) et tous les médias susceptibles de se mettre sous forme électronique: livres, images, vidéos, sons, formes (grâce à des sortes d'imprimantes 3D capables de sculpter des objets en couleur) et même odeurs (grâce à des analyseurs et des synthétiseurs d'odeurs utilisant une synthèse à la demande de composés odorants). Si en 2000 la plupart des pages Internet ne comprenaient que des images fixes et des textes, cent ans plus tard beaucoup étaient en vidéo, ou des mondes virtuels.
Car la seconde révolution d'Internet, dans les années 2000, fut l'apparition de mondes virtuels utilisables par tout un chacun. Dès 2020, ils étaient devenus indispensables pour organiser réunions d'affaires ou conférences scientifiques. Les personnages virtuels pouvaient en effet se rencontrer à des milliers de kilomètres, et se parler comme si ils étaient réellement en face l'un de l'autre. Mais l'énorme impact empathique et poétique de l'immersion totale dans un monde autre, fut vite remarqué par les artistes et tous ceux qui rêvent d'une vie meilleure, paradisiaque, dans des décors de rêve. Ainsi les premières communautés virtuelles merveilleuses commencèrent à apparaître dès 2007, pour devenir nombreuses et variées dès 2015. Mais il faut dire que beaucoup d'utilisateurs préféraient investir le virtuel à des fins beaucoup plus prosaïques, comme assouvir leurs fantasmes sexuels, ou pour les jeux de combat en ligne. Quoi qu'il en soit, les visions et idéaux nés dans les mondes virtuels eurent un impact croissant sur la vie dite «réelle», dès 2020.
Toutefois l'utilisateur de ces mondes virtuels était encore assis devant un écran, poussant des boutons pour faire marcher ou bouger son personnage. Le moyen de vraiment bouger et agir dans un monde virtuel fut des exosquelettes (note 3) suffisamment bon marchés pour remplacer les simples consoles de jeu dans tous les foyers, permettant à tous les jeunes de 7 à 77 ans de se retrouver et de vivre leurs aventures dans une incroyable variété de mondes virtuels extrêmement sophistiqués, parfois plus complexes et vastes que le monde physique. Les premières «dream machines» ne comportaient qu'un bras, mais qui permettait déjà de manier un outil, une arme, ou de tâter un sein, que le logiciel corrigeait à une taille et forme idéale. Plus tard apparurent des machines à immersion totale. Un bon exos (prononcer exosse, l'abréviation à la mode) se présentait sous la forme d'une cabine (pliable) qui ne tenait guère plus de place qu'un bureau et son siège (il les remplaçait même souvent) et pouvait s'enfiler aussi facilement que des vêtements, grâce à une assistance électronique. Un rideau et un casque pour le son permettaient à l'utilisateur de s'isoler pratiquement de sa chambre et de se plonger dans des aventures incroyablement réalistes. Le rideau n'était pas indispensable, mais il garantissait l'intimité de l'utilisateur, en évitant de le voir gesticuler de manière bizarre. Certaines de ces machines, fort contestées mais avec quand même suffisamment d'adeptes, allaient jusqu'à reproduire les sensations de fatigue ou de douleur, afin de mieux rendre l'enjeu des situations. Des amateurs les réglaient au maximum de force, au point de recevoir des ecchymoses dans les bagarres. Il y eut bien sûr des engins pourvus de fonctions sexuelles, permettant de retrouver sans risque, via le réseau, des amants virtuels physiquement parfaits et dépourvus de maladies. Certains disaient que le développement des «cyberpénis» et des «cybervagins» avait mené les progrès de l'électronique et des télécommunications dans les années 2020. Et effet le sexe ou le combat à l'aide d'exosquelettes nécessitaient des communications Internet ultrarapides et garanties, ce que les liaisons satellites et le protocole http ne pouvaient réaliser.
Une telle interpénétration du virtuel et du physique n'allait pas sans poser parfois de sérieux problèmes, et certains adeptes manifestaient l'«autisme du joueur», se désinvestissant des relations avec leur entourage physique, ou perdant tout repère dans le monde physique. D'autres avaient de plus en plus de mal à admettre les limites et les interdits du monde physique, par rapport à certains mondes virtuels ou aucune morale n'avait cours. Le jeu électronique et la réalité virtuelle étaient devenus, pour certains, une véritable drogue, un nouveau paradis artificiel, au point qu'il avait fallu créer des lois interdisant ou encadrant certaines pratiques, notamment les jeux avec enjeu réel (le perdant devant par exemple de l'argent ou un service au gagnant).
Toutefois un réel et ahurissant délire informatique fut la croyance comme quoi notre «avatar» (notre apparence dans le monde virtuel) pouvait nous survivre après la mort. Certains payaient parfois fort cher pour s'«immortaliser» sur le réseau: des hébergeurs peu scrupuleux proposaient des intelligences artificielles, des «bots» capables de se comporter comme le défunt, de manifester ses goûts, ses opinions, son apparence, tout ce que les matérialistes considèrent comme étant «leur personnalité». Comme tout était réparti sur le «nuage» informatique, une fois lancés il était très difficile d'arrêter ces «fantômes électroniques» (boghosts, ou zombies). Ainsi beaucoup continuaient à hanter les lieux virtuels où ils avaient vécu, au point qu'il fallait les expulser. Bien entendu ces personnages virtuels n'avaient pas de conscience, et il était facile de le vérifier en les mettant dans une situation inattendue que leur modèle vivant n'avait pas imaginé. Mais une croyance folle en la survie sur le réseau s'était répandue, attisée par des livres enthousiastes, écrits par des «témoins», voire par des «scientifiques» allumés. Certains croyants s'organisèrent même en une pseudo-religion défendant «la continuité de la vie dans le monde virtuel, après la mort».
Les fantômes electroniques, eux, continuaient imperturbablement d'afficher le sourire béat et les manières égoïstes de leurs modèles, sans aucune autre évolution que celles que les concepteurs d'intelligence artificielle mettaient dans leurs logiciels. Il y eut des cas de veuf ou veuves harcelés par le fantôme électronique de leur époux défunt, et en tout cas une belle bagarre, basée sur le fait de savoir si un «avatar» était celui d'un humain réel ou d'une intelligence artificielle. Ces dernières, de plus en plus sophistiqués, arrivaient de plus en plus facilement à se faire passer pour des humains, et il y eut des cas de personnes escroquées par des fantômes, ou qui, via leur exosquelette sexuel, se retrouvaient à avoir des relations virtuelles avec des personnages décédés depuis des années. Il y eut, pour ces rapports sexuels à distance, des demandes en divorce pour adultère, tandis que des «philosophes» clamaient au contraire que ces relations sexuelles «dans le virtuel» ne mettaient pas en cause le contrat marital.
Toutes ces folies préoccupaient terriblement beaucoup de monde, et en faisaient bien rire beaucoup d'autres, qui ne considéraient le monde virtuel que comme un jeu, au mieux comme un moyen de communication. Le seul vrai problème des gens sensés utilisant Internet ou les mondes virtuels était de se débarrasser de tous ces «bots», fantômes ou créatures publicitaires, qui, si on n'y prenait garde, envahissaient tous les paysages virtuels avec leurs slogans ou leurs fantasmes sexuels. Certains se multipliaient même comme des virus, et il était extrêmement difficile de désinfecter le «nuage». Parmi les solutions, une des première fut de placer des «sphinx» à l'entrée des mondes virtuels: des logiciels posant aléatoirement des séries de questions telles que «laquelle de ces images est la plus belle» (parmi une série de dix montrant neuf Picasso et un Boticelli), questions dont les réponses étaient évidentes pour tout humain normal, mais extrêmement difficiles à trouver pour un logiciel. Ce procédé, quoique ennuyeux, était suffisamment efficace, sauf un détail: il arrivait de plus en plus souvent à des humains de se faire refuser aux tests anti-bots! Cela devint un sujet de plaisanterie et même une insulte. D'autres solutions plus musclées furent le développement de logiciels anti-bots, comparables aux anti-virus, toujours d'actualité, et chargés de désinfecter les machines elles-mêmes de toute présence indésirable.
Bien entendu les barjots puritains s'insurgeaient tous en choeur contre les cybermondes, et en particulier contre le cybersexe, qu'ils considéraient comme une perversion de l'amour humain, qu'ils voyaient réduit à de simples fonctions organiques sans plus aucun sentiment. Interdits dans certains pays, critiqués partout, leurs utilisateurs taxés de demeurés, les exosquelettes jouissaient pourtant d'un statut intouchable, car ils avaient été en finale la seule solution pour enrayer la surpopulation catastrophique du monde moderne, et surtout pour stopper les épidémies de maladies sexuellement transmissibles. En tout cas ils étaient parfaitement suffisants pour tous ceux pour qui l'amour se résume à éprouver des sensations physiques sans accorder de pensée au partenaire. Ceux-là ne s'embarrassèrent même plus de partenaires virtuels, toujours imprévisibles. Ils mirent vite au point des intelligences artificielles simulant le comportement humain, mais d'une manière parfaitement programmable et prévisible.
Face au «cybersexe», de nouveaux mouvements naturistes prônaient le «retour à la vraie vie», le contact avec le soleil, la nature, et surtout avec les autres. Mais il se trouvait aussi, de plus en plus, des gens qui, en toute discrétion, utilisaient les technologies les plus avancées à des fins sociales, poétiques ou spirituelles. Certains voyaient même dans les exosquelettes sexuels un moyen de vivre un amour pur et romantique, débarrassé de tous ces détails corporels répugnants qui tuent l'érotisme. La distance les libérait aussi de toutes les banalités et petits conflits quotidiens qui, au fil des années, érodent et usent les amours les plus intenses. De vastes communautés virtuelles se consacrèrent à créer des paradis cybernétiques, où, après une journée dans une «réalité» plutôt terne, les gens se retrouvaient au soleil sur la plage, dans des jardins fleuris ou des forêts, pour échanger de la volupté ou de la joie de vivre, ou explorer de verdoyantes contrées peuplées uniquement d'amis et de gens agréables. Rapidement des malades, des handicapés, ou des gens de races mal aimées, vinrent dans les communautés virtuelles, dont ils étaient souvent les membres les plus constructifs ou assidus. En effet ils étaient alors libres d'y marcher, d'y danser, d'y avoir une vie sociale normale, sans plus sentir sur eux le terrible regard d'exclusion qui habituellement cloue les handicapés sur place. Il se trouva même des gourous hindous, chinois ou tibétains, pour dire qu'une telle pratique était intéressante, et qu'elle pouvait même avoir une signification tantrique, si elle était accomplie avec une motivation sincère de recherche du bonheur et de la sagesse. Ah, le bon prana virtuel qu'on respirait dans certains mondes…
Dès 2010 apparut l'idée que l'apparence virtuelle d'une personne représentait bien plus fidèlement ce qu'elle était réellement, profondément, dans son cœur. Bien mieux en tous cas, que cet assemblage de chair qui forme nos corps physiques, que nous n'avons pas choisi, que nous ne pouvons pas modifier, qu'il faut perpétuellement entretenir, laver, soigner, remplir de matières onéreuses et vider de substances répugnantes, sans pouvoir en finale empêcher son vieillissement et délabrement. Ainsi de plus en plus de gens devenaient beaux, jeunes et aimables, et jouissaient du bonheur primal d'apparaître ainsi aux yeux des autres. Certains choisissaient des apparences fantastiques, mais rapidement les mondes virtuels connurent un engouement pour les belles créatures de forme humaine ou similaires, telles que les elfes ou les fées.
Aussi les gens se construisaient des maisons virtuelles, qui n'avaient jamais de toilettes, mais qui étaient toujours pleines de lumières, de beauté et de fleurs, dans des paysages idylliques ou étourdissants de créativité.
Même la mort d'un ami virtuel perdait étrangement tout caractère sinistre, même si elle restait évidemment une perte douloureuse comme l'auteur de ces lignes l'a vécu personnellement dès 2008. J'en garde l'image émouvante d'une magnifique jeune elfe toute de rose vêtue, comme un lutin dansant joyeusement et échangeant des plaisanteries, deux heures avant de mourir... Mourir dans le monde physique, précisons le bien, ce n'était pas un jeu, elle savait et nous savions tous qu'elle était au stade terminal d'un cancer du cerveau. Elle avait vingt ans...
Comme si l'incroyable miniaturisation des circuits intégrés des années 2000 n'avait pas suffi, les nanotechnologies avaient permis, à partir des années 2020, un bond encore plus incroyable dans la miniaturisation, en stockant de l'information à l'échelle des atomes. Le principe, simple et connu depuis les années 1990 sous le nom de microscope à effet tunnel, consistait à déposer, retirer ou déplacer des atomes par petits groupes, voire un par un, sur une surface, à l'aide d'une pointe très fine mue avec une extrême précision par des cristaux piézo-électriques. Il avait fallu bien des études et bien des années pour arriver à des circuits pouvant être utilisés en pratique, mais les gouvernements et les entreprises avaient un tel engouement pour cette utopie que l'on y était arrivé.
Toutefois les techniques d'impression en grande série utilisées pour les circuits intégrés n'étaient pas directement transposables aux circuits réalisés en nanotechnologies. La toute première solution nanotechnologique avait été le millipède programmable, inventé par IBM en 2003. Il combinait un grand nombre de pointes à effet tunnel se déplaçant simultanément sur la même surface, chacune prenant en charge une petite partie de cette surface. Ce système était initialement prévu pour remplacer les mémoires d'ordinateur, mais il n'a pas pris immédiatement, du fait de sa complexité et d'autres systèmes concurrents. Toutefois les progrès de ces appareils amenèrent petit à petit une notion nouvelle dans l'informatique: Le système d'écriture pouvait graver des données, mais aussi des circuits, comme cela se faisait déjà depuis 1990 avec les ASIC. Ainsi les premiers ordinateurs à utiliser ces technologies pouvaient charger des programmes, mais aussi des circuits logiques d'accélération de certaines fonctions répétitives. Les accélérateurs graphiques le faisaient déjà, mais dans un boîtier de circuit intégré séparé. Ici tout était rassemblé dans un seul boîtier, et l'on pouvait charger données, programmes et circuits en une seule opération. Mieux, tout cela était réalisé avec les même outils d'écriture, laissés en place de manière permanente.
Ce système arriva vite à bousculer l'architecture initiale de Von Neuman, car les deux étapes de fabrication jusqu'ici séparées (gravure du circuit et installation du logiciel) pouvaient être réalisées au même moment et avec le même appareil. En effet, plutôt que de faire aller lire une instruction en mémoire, il était souvent plus commode de graver sur place un circuit qui l'exécutait directement. Cette remise en cause de l'architecture de Von Neuman avait déjà été en vue, notamment avec les circuits neuronaux des années 1990, mais ces circuits étaient restés confinés dans des applications particulières. Rapidement la traditionnelle unité centrale des ordinateurs, même des ordinateurs individuels, n'assura plus qu'un rôle de coordination entre de nombreux circuits-logiciels dédiés chacun à une fonction particulière: une application, une entrée-sortie, etc. On pouvait acheter des circuits tout gravés avec les programmes et les données pour assurer leur fonction, ou les graver directement à l'aide de fichiers à télécharger, décrivant à la fois le logiciel et les circuits. Ainsi les notions jusque-là très séparées de circuit, de langage informatique et de logiciel éclatèrent complètement, et il apparut même des langages décrivant simultanément les circuits (comme dans les ASICs) et le logiciel qui allait tourner dedans (comme dans les ordinateurs des années 1990). Ces langages décrivaient des fonctions, dont l'utilisateur n'avait même plus à se préoccuper de savoir si elles étaient gravées ou programmées. On arriva même à des circuits matériels qui pouvaient être effacés et re-gravés, à des fins de corrections de bugs ou d'évolution, exactement comme avec un logiciel sur un disque dur.
Les disques durs des années 1990 commencèrent à décliner avec les mémoires flash, et de nombreuses autres technologies intégrées apparues depuis. On se heurta toutefois à une limite infranchissable: quand les circuits ou les cellules mémoires ne font plus que quelques atomes de large, leur fonctionnement devient aléatoire. La manipulation des atomes un par un repoussa un peu cette limite, mais sans vraiment la dépasser. La taille des atomes était la limite ultime de toute miniaturisation.
Mais le nombre de fils reliant les circuits intégrés augmentait sans cesse, au point de devenir le principal goulot d'étranglement, surtout qu'il fallait souvent revoir le format des liaisons. Une solution optique apparut, avec un simple guide de lumière en plastique reliant les différents circuits. De minuscules diodes laser émettaient des impulsions lumineuses, chacune sur une fréquence différente. Ainsi chaque circuit pouvait recevoir les informations qui le concernaient, simplement en adaptant sa fréquence de réception, sans se préoccuper du trajet intermédiaire. De toute façon les puces étaient devenues depuis longtemps si rapides qu'on les qualifiait de relativistes (de la Relativité Einsteinienne) car, de par la vitesse de propagation limitée des signaux, toute notion de simultanéité y avait disparu. Chaque élément devait alors gérer un flux d'information au fur et à mesure qu'il arrivait.
Les gros PC de bureau des années 1990 et 2000 auraient paru bien ridicules au début du 22eme siècle. Les plus gros ordinateurs individuels étaient tous des portables, de la taille, au plus, d'un clavier de PC de l'an 2000. Grâce au système de guides de lumière, chacun pouvait se constituer son ordinateur en ajoutant des petits modules de la taille d'une pièce de monnaie le long du guide, et on pouvait même faire communiquer des ordinateurs simplement en les mettant côte à côte, leurs guides se rejoignant. Ainsi l'ordinateur n'était plus une machine monolithique, mais un ensemble variable de fonctions que l'on pouvait ajouter, voire emprunter temporairement, sous tension, même pour quelques minutes.
Les écrans avaient également fait des progrès considérables. Au lieu d'émettre de la lumière, sur le modèle du tube cathodique, les écrans avaient maintenant l'apparence de feuilles de papier blanches, minces, rigides ou souples, et les images se formaient grâce à de minuscules gouttelettes de colorants qui se déplaçaient sous l'action de champs électriques. Les images pouvaient même rester visibles une fois l'écran débranché. Ces écrans étaient également tactiles, par un procédé très simple de balayage par un potentiel électrique à haute fréquence, que le doigt venait court-circuiter: plus besoin de souris, on pouvait simplement cliquer avec le doigt, ou diriger des outils virtuels.
Un tel système permettait aussi de réaliser des claviers à affichage variable, voire dynamique: différents jeux de lettres, menus, outils, etc. Ainsi écran et clavier pouvaient être combinés en une même entité, et on en trouvait de toutes les tailles. Certains étaient minuscules, comme le téléphone portable ou la carte-ordinateur (de la taille d'une carte de crédit, mais servant à de multiples autres fonctions, par exemple de clé ou de passeport). D'autres rappelaient les PC portables des années 2000, en plus fin. Comme ces derniers ils étaient pliables, avec un côté écran et un côté clavier. La partie clavier s'adaptait en temps réel au travail en cours, prenant tantôt l'apparence d'un alphabet, tantôt d'une barre d'icônes, laissant l'écran proprement dit entièrement libre pour l'affichage. A l'extrême de la miniaturisation, des écrans prenaient l'apparence de lunettes où l'image se projetait. Mais on vit aussi l'évolution inverse, des maxi-écrans occupant tout le dessus du bureau: le bureau logiciel des PC des années 1990 devenait un véritable bureau, où l'on pouvait pousser les documents au fond, prendre des notes dans un coin, cliquer et dessiner avec le doigt, et même mettre de la pagaille comme sur un vrai bureau.
Une autre révolution plus tranquille dans le domaine du logiciel fut l'apparition de logiciels gratuits, d'abord accueillis comme une curiosité pour informaticiens amateurs. Mais quand les principales fonctions d'un ordinateur purent être assurées par des logiciels gratuits, alors ces derniers prirent de plus en plus de place. Bien entendu, des amateurs dispersés ne pouvaient rivaliser en rapidité avec des équipes de développeurs professionnels, et les logiciels payants gardèrent longtemps une longueur d'avance sur les gratuits, notamment dans les domaines nouveaux ou les jeux. Cet écart de qualité mit longtemps à se combler, car il fallut que les amateurs apprennent, dans les années 2010 à 2030, à s'organiser, à travailler en équipe hiérarchisées, à se soumettre à des méthodes, des normes et des standards, et surtout à se mettre à l'écoute des besoins, à fournir des produits simples et compréhensibles par tous les utilisateurs, au lieu de vouloir chacun développer à sa façon ou imposer sa conception de l'utilisateur idéal. Malgré ces obstacles, l'écart entre les gratuits et les payants se réduisit petit à petit, au point que à la fin du 21eme siècle il était devenu difficile de rester un éditeur de logiciel, faute de pouvoir amortir son travail sur une durée suffisamment longue. Faire du logiciel payant n'était plus possible que pour les nouveautés, ou pour les domaines impliquant un fort contenu intellectuel ou artistique.
Un avantage pour les logiciels amateurs ou gratuits fut qu'il était de plus en plus facile d'écrire des applications complexes. Dans les années 1980, il fallait écrire les programmes lignes par lignes et manipuler les données octets par octets, avec des langages comme le basic, où les grands projets devenaient rapidement inextricables. Dans les années 1990, un langage structuré comme le C évitait certaines erreurs de programmation, mais d'autres restaient difficiles à détecter. Dans les années 2000 apparut la programmation objet, par exemple avec le langage Java, qui permettait d'écrire des fonctions entières en quelques mots, le compilateur se chargeant de créer les complexes manipulations qu'exigeaient ces fonctions. Plus tard furent introduits des assistants de programmation, qui géraient variables et fonctions comme une base de donnée et permettaient de créer facilement des fonctions complexes interagissant les unes avec les autres. Ces assistants géraient également les étapes du développement d'un projet, assurant automatiquement toutes les routines fastidieuses de coordination et de vérification. A l'époque du récit, on n'écrivait plus une seule ligne de code depuis longtemps; on manipulait des organigrammes à l'écran, même pas de ces organigrammes détaillés que l'on dessinait du temps du Fortran, mais des organigrammes synthétiques qui représentaient les fonctions de l'application et leurs interactions. Pour rajouter une seule fonction, il suffisait de rajouter quelques flèches et toutes les autres fonctions étaient automatiquement mises à jour, réécrites, coordonnées et compilées, même dans un cas aussi complexe que par exemple de rendre multi-utilisateur un programme initialement prévu pour un seul utilisateur, une chose qui en 2000 aurait nécessité de tout réécrire ligne par ligne. Ces environnements d'aide à la programmation étaient chers, mais ils permettaient à une personne seule de développer en quelques jours des applications qui en l'an 2000 auraient nécessité des équipes entières d'ingénieurs. Ces systèmes permettaient certes aux professionnels de développer plus vite leurs produits, et surtout de les améliorer et de les tenir à jour instantanément, même en confiant le travail à une personne qui ne connaissait pas le produit. Mais dans un environnement gratuit où n'importe quelle création précédente pouvait être reprise et améliorée sans souci du droit d'auteur, ces avantages étaient très supérieurs, et ils permettaient à de simples clubs d'amateurs de créer en quelques jours des applications aussi complexes que les professionnels, et avec la même qualité. Ceci apporta la victoire décisive du logiciel libre, car il n'était plus nécessaire que des amateurs non qualifiés ou des geeks égotiques apprennent les méthodes et acceptent la discipline nécessaire pour une qualité correcte.
Mais il ne sert à rien d'avoir de nombreuses versions du même logiciel. A la fin du 21eme siècle, des versions de base existaient depuis longtemps pour toutes les fonctions possibles d'un ordinateur, et les améliorations, gratuites ou payantes, ne portaient plus que sur des détails ou sur des fonctions entièrement nouvelles. Aussi la plupart des logiciels de base, traitement de texte, tableur, éditeurs, musique ou vidéo, tout était gratuit depuis longtemps.
A l'époque de la découverte de Dumria, beaucoup de gens pensaient encore que cette évolution de l'électronique terrienne avait suivi un chemin logique, le seul possible, en passant par exemple de la triode au transistor. Quelle erreur. Tout comme la vie dumrienne avait développé l'hominisation sur une base différente (reptile au lieu de mammifère), l'électronique et l'informatique dumrienne avaient évolués selon des voies totalement autres. Non seulement les techniques elles-mêmes, mais aussi l'usage et la finalité des machines.
Logiquement, les Dumriens, férus d'astronomie, développèrent dès l'antiquité les premiers calculateurs mécaniques pour cette science. Avant même l'âge du fer, des moulins à calcul, d'acajou ciré et de bronze, mus par des roues à aube dans des vallées de montagne, furent, il y a plus de six mille ans, les premières machines dumriennes à explorer l'Univers. Elles évoquent fortement les automates de Vaucanson ou le projet de Babbage. Certaines de ces machines ont été soigneusement conservées en état, malgré leurs dimensions. Mais la découverte de l'électricité fut, comme sur Terre, la véritable naissance de l'informatique, grâce aux relais électromécaniques et aux tubes à vide, deux techniques très différentes qui apparurent et évoluèrent en parallèle. Rapidement confrontés à la nécessité de miniaturiser leurs machines, les ingénieurs dumriens commencèrent à découper les électrodes de leurs triodes à l'emporte-pièce; puis ils regroupèrent des jeux de pièces en une seule plaque, de quelques centimètres de côté, comportant des dizaines de tubes à cathode froide, enserrées dans un boîtier unique extra plat. Enfin ils développèrent des techniques de gravures tout à fait analogues à celles qui furent utilisées sur Terre pour les circuits intégrés, mais ils les appliquèrent à la miniaturisation des triodes et des relais! Jamais un seul transistor au silicium n'a été fabriqué sur Dumria, même quand les télescopes quantiques permirent d'en trouver les plans sur d'autres planètes! Trop compliqué, pensèrent les ingénieurs dumriens, face aux indispensables étapes de purification et de tirage des cristaux, de diffusion d'impuretés, etc. Au contraire les dispositifs de base d'une triode à cathode froide ne comportaient que deux matériaux tout à fait banaux, un métal et un isolant, et ils pouvaient être miniaturisés et gravés en série exactement comme les transistors, et avec les mêmes avantages que pour ces derniers. Alors pourquoi développer une électronique à base de silicium? Seuls des transistors en plastique ont été fabriqués, pour les écrans.
Les techniciens dumriens déposaient un sel isolant spécial sur un substrat métallique, puis une fine couche de métal. Les connections et les électrodes étaient d'abord gravées dans cette mince couche métallique. Les cathodes froides à pointe étaient façonnées à partir d'un angle aigu, où un léger excédent de dissolution du métal formait une pointe extrêmement fine, dans le sens du grain cristallin. Puis une attaque chimique dissolvait de large trous dans le sel, laissant les électrodes isolées dans le vide, et maintenues seulement par des piliers du sel restant. Une électrode en pointe fine faisait une cathode froide, deux plots latéraux donnaient une grille, tandis qu'un carré face à la pointe servait d'anode. Leur composant de prédilection fut même une double triode, avec une seule cathode, deux plots de déflexion en guise de grille, et deux anodes côte à côte, permettant de faire des amplificateurs différentiels ou des circuits logiques à deux sorties inversées. Des circuits plus compliqués comportaient même de véritables canaux à électrons, permettant de manipuler et d'aiguiller des flux d'information complexes, ou d'assurer des fonctions sophistiquées avec très peu de composants. Curieusement, sur Terre, dans les années 1960, la société Tektronix avait développé des circuits logiques simples utilisant des tubes à gaz et à cathode froide, dont ils avaient équipé notamment des circuits de comptage de lignes sur des oscilloscopes destinés aux professionnels de la télévision. D'autres tentatives ont eu lieu pour rassembler et miniaturiser plusieurs triodes à cathode froide dans une seule enceinte. Si les transistors étaient arrivés plus tard, ces dispositifs auraient pu évoluer vers l'informatique, de la même façon que sur Dumria
D'autres ingénieurs dumriens développèrent, toujours avec les techniques de gravure des circuits intégrés, des relais électrostatiques extrêmement miniaturisés. Dans ces dispositifs, une électrode mobile est attirée ou repoussée par le champ électrique d'une électrode de commande, pour venir toucher ou non un contact de sortie. Les premiers modèles, de quelques centimètres de haut, dérivaient directement des électroscopes qui, sur Terre, avaient servi à étudier l'électricité statique, avant la découverte du courant électrique proprement dit. L'idée d'utiliser de tels dispositifs à des fins de calcul avait germé très tôt dans l'esprit des ingénieurs dumriens qui construisaient déjà des ordinateurs mécaniques depuis des millénaires. Il y eut quelques modèles construits, alimentés par des machines électrostatiques à haute tension. Bien qu'ils fussent peu pratiques et très susceptibles à la météo, ils gardèrent des adeptes, qui tentèrent de les miniaturiser de plus en plus, pour obtenir des dimensions et une tension d'alimentation raisonnables. Ils les emballèrent également sous vide pour s'affranchir des effets de la météo. En fait ce sont eux qui ont inventé les procédés de gravure et de découpage qui furent utilisés plus tard pour les triodes! Et, exactement comme avec les triodes intégrées, plus c'est petit, mieux ça marche, plus vite ça va, et moins ça consomme. Et comme les machines de gravure nécessaires aux deux techniques, triodes et relais, étaient exactement les mêmes, alors on gravait indifféremment des triodes à pointes ou des relais électrostatiques sur le même circuit.
Ainsi à l'époque de ce récit, les circuits électroniques dumriens égalaient les performances des meilleurs circuits intégrés à transistors, tant en vitesse qu'en intégration et même en consommation. Même les triodes à pointes, miniaturisés bien en dessous du micron, ne consommaient guère plus de courant que des transistors à effet de champ. Et pour obtenir d'elles un signal puissant, il suffisait d'en disposer un très grand nombre en parallèle, exactement comme on le fait avec les transistors MOSFET de puissance. Quant aux relais, ils étaient si rapides qu'on pouvait avec eux traiter le son et même la vidéo.
Par contre, les Dumriens, forts satisfaits de leurs techniques, et assez amateurs de belles grosses machines, ne développèrent que très lentement les nanotechnologies et l'électronique quantique, et ce fut là un des rares domaines où ils étaient nettement en retard par rapport à la Terre. Ils ne développèrent que peu les ordinateurs ou les téléphones portables, car, dirent-ils, quand on voyage on voyage, et on ne joue pas à deux jeux en même temps.
L'informatique Dumrienne resta aussi confinée au modèle de Von Neuman, car logiciels et circuits restaient foncièrement deux choses différentes, comme sur Terre à l'ère des transistors. Ils ne développèrent pas non plus les disques durs ou disquettes, se contentant de mémoires électrostatiques qui leur donnaient entièrement satisfaction, malgré là encore un volume assez important (du moins au début; à l'époque du contact avec la Terre elles étaient elles aussi très miniaturisées, et elles auraient avantageusement remplacé les encombrants disques durs des années 2000). Ces mémoires étaient basées sur la propriété qu'ont certains matériaux isolants de conserver les charges électriques. Les premières mémoires électrostatiques furent expérimentées avec les ordinateurs à relais électrostatiques: un relais restait ouvert ou fermé selon la charge emmagasinée sur son électrode de commande. Mais cette technique fut vite transférée aux triodes à pointes, car une charge négative accumulée sur la grille pouvait facilement les bloquer de manière permanente.
L'industrie du logiciel évolua elle aussi de manière très différente de la Terre, du fait de l'absence totale d'intérêt commercial pour précipiter les développeurs dans une direction unique. Point de grand systèmes qui «s'imposent» comme des religions, malgré leurs inconvénients; point de versions qui changent tous les six mois, point de bugs que l'éditeur ne corrige jamais malgré les plaintes réitérées des utilisateurs. L'informatique Dumrienne évolua d'abord comme une floraison de systèmes différents, où les fonctions de système d'opération, de langage et d'application étaient joyeusement mélangées. Mais la nécessité de communiquer et d'échanger des logiciels amena vite une forte tendance à la méthode et à la normalisation. Pour les Dumriens, normaliser n'était qu'un nouveau jeu, et les programmeurs se réunirent en comité de normalisation. Sans puissances commerciales pour imposer chacune son système, sans propriété intellectuelle pour empêcher les innovations de se répandre, sans compétition pour précipiter dans de mauvaises directions, ce fut une combinaison des meilleurs systèmes qui émergea finalement. En effet chacun pouvait reprendre librement un logiciel qui marchait bien, pour l'améliorer ou l'intégrer dans un ensemble plus vaste, au lieu que chaque développeur ait à recréer de toute pièce une nouvelle application imitant plus ou moins bien celle du concurrent. A partir de cette base simple, les informaticiens amateurs développèrent toute la variété et la subtilité des logiciels utiles que l'on peut imaginer.
Si les Dumriens voyaient leurs ordinateurs comme des machines utiles ou des moyens de communication, avec un sens du jeu comme le leur, ils se lancèrent aussi très vite dans des jeux informatiques, puis des jeux en ligne très sophistiqués, et bien sûr des mondes virtuels. Mais dès le début des réseaux informatiques, se développa un système de jeu entièrement original: un langage commun, permettant à qui le voulait de créer son univers, son jeu, ses personnages et ses règles. Le contraste était énorme avec les jeux terriens des années 2000, des logiciels entièrement fermés et monolithiques où aucune créativité n'était permise au joueur. Un volet de ce langage permettait de modéliser la carte du terrain, en plan ou en vue isométrique; un autre traduisait cette carte en paysage 3D, à l'aide d'objets standards ou spéciaux; un permettait de jouer l'action, l'autre encore de gérer les situations... Ces divers langages et les éditeurs correspondants étaient à l'origine des créations distinctes, mais ils furent harmonisés et fondus en un seul système, très complexe mais très versatile et facile à utiliser. Ainsi, contrairement aux jeux terriens, conçus de manière fermée afin de protéger l'intérêt commercial des auteurs, les jeux dumriens étaient toujours ouverts, permettant à chacun de modifier paysages et scénarios à sa convenance, de créer des mondes nouveaux selon son désir, voire de joindre ensemble des jeux complètement différents. Le langage commun, soigneusement mis à jour au fur et à mesure des progrès techniques, permit ainsi une incroyable floraison de jeux les plus divers, mais capables de tous communiquer entre eux comme un seul gigantesque méta-jeu, ou métaverse, qu'ils fussent d'exploration, de relations sociales ou de simulation physique.
Il n'y avait même pas de limite claire entre le rêve et la réalité, beaucoup utilisant le système du méta-jeu pour gérer leurs affaires réelles comme si elles étaient un jeu, ou au contraire se comportant concrètement comme si le jeu était la réalité, s'habillant ou construisant des maisons comme dans leur jeu...
Par contre on n'aurait trouvé nulle part sur Dumria de ces affreux «jeux de baston» ou de ces ignobles simulacres guerriers où l'on doit trucider en série des dizaines d'adversaires (sans jamais se faire trucider soi-même!) Comme on l'a vu, il s'agissait de jeux coopératifs, où l'on s'amusait par exemple à recréer la vie et l'évolution d'une société imaginaire... où certains mettaient beaucoup d'eux-mêmes, des mondes de rêve, des Mystères, des utopies... Les aspects les plus subtils de la psyché dumrienne arrivaient là à s'épancher sans limite. Les premiers Terriens admis à entrer dans le méta-jeu furent extrêmement surpris, découvrant un monde de rêves et de lumière qui répondait curieusement à leurs propres rêves, bien loin des idéologies sombres et cyniques qui sous-tendaient les jeux terriens des années 1990 et 2000...
Une autre différence très dumrienne était l'absence totale de limite entre «le jeu» et «le travail», et on pouvait trouver parmi les simulations des jeux d'enfants mêlés à des travaux de haut niveau scientifique, sans aucune hiérarchie entre les deux.
Bien sûr, les dumriens ne passaient pas tous le même temps dans le méta-jeu. Certains n'y allaient que si nécessaire, d'autres y consacraient la majorité de leur temps. Mais on ne voyait pas de ces geeks autistes perdant contact avec le monde physique, ni de ces coincés qui snobaient la vie virtuelle des autres.
Scénario, dessins, couleurs, réalisation: Richard Trigaux (Sauf indication contraire).
Modified in 2024
1) Sauf indication contraire, tous les textes, dessins, personnages, noms, animations, sons, mélodies, programmations, curseurs, symboles de ce site sont copyright de leur auteur et propriétaire, Richard Trigaux. Merci de ne pas en faire d'usage commercial, ni à de mauvaises fins.
2) Vous pouvez utiliser les expressions marquées d'un signe copyright ©, à conditions toutefois 2-1) d'indiquer que l'auteur est Richard Trigaux, 2-2) de faire un lien vers la définition, et 2-3) de ne pas en déformer le sens.
3) Si ce site disparaissait, vous serez alors libre d'en faire un miroir, de tout ou partie, aux conditions de: 3-1) indiquer Que Richard Trigaux est l'auteur, 3-2) seuls les ayant-droit peuvent faire les bénéfices garantis par la loi, mais je leur interdit de s'opposer à la publication 3-3) ne pas déformer ou dénigrer mon propos. Ce point vaut aussi pour les médias, Intelligences artificielles et systèmes de crowd-sourcing.
00035455
Official Seal of CopyrightDepot.com