L’ Afrique face à l’intelligence artificielle et au trans-humanisme

“C’est la vie; une vie n’est pas plus ancienne ou plus distinguée qu’une autre vie, de même qu’une autre vie n’est pas supérieure à une autre vie. »

Charte du Mandé, article 1 Déclaration des droits de l’homme, Royaume du Mali, 1236.

Selon le professeur de cybernétique, Kevin Warwick, « ​​de la même manière que dans le passé lointain les humains se séparaient de leurs parents chimpanzés, dans les temps à venir les augmentés se sépareront des humains simples qui ne représenteront plus, en comparaison, que les chimpanzés de l’avenir, voué à disparaître, ou à stagner dans les réserves que les posthumains accepteraient peut-être de leur ménager. Telle serait alors l’alternative : grandir ou finir dans un zoo.” . Cette affirmation, sans doute scandaleuse, est encore loin d’être juste une phrase, car vient d’un éminent professeur de l’Université de Coventry avec plusieurs prix scientifiques. À l’âge de 40 ans, il a reçu le prestigieux honneur d’un doctorat de l’Imperial College de Londres et de l’Académie tchèque des sciences. IET (Institution of Engineering and Technology) et la médaille Mountbatten. Il a également reçu la médaille Ellison-Cliffe de la Royal Society of Medicine. Kevin Warwick se targue d’être le premier cyborg (cyber organisme net) dans le monde. Il est en fait agrandi en ayant une puce RFID (identification par radiofréquence) implantée sous sa peau qui lui permet d’effectuer une variété de tâches, y compris l’ouverture de portes à distance. Question : Quel continent aura la plus forte concentration de « chimpanzés de Warwick » ? Nous y reviendrons.

La volonté de l’homme d’augmenter : un moteur de progrès ?

La volonté de grandir est inhérente à l’évolution de l’homme depuis qu’il a atteint le statut d’hominidé par la création de connaissances, et l’homme est l’animal par excellence dont l’imagination dépasse largement les capacités physiques et même mentales. L’action du professeur Warwick s’inscrit donc dans une nouvelle phase d’un processus qui a commencé en Afrique paléolithique, il y a plus de 3 millions d’années, lorsque l’ancêtre de l’homme a commencé à tailler la pierre pour fabriquer des outils. Une façon de lui donner un coup de main. Puis, il y a 10 mille 2 ans, avec la naissance de l’agriculture, l’homme a eu l’idée de s’agrandir en domestiquant ses parents animaux, plus puissants mais moins intelligents que lui, pour faire les travaux des champs.

Lire Aussi :  Starfield : report, exclu Xbox, romances, gameplay... Todd Howard donne des détails | Xbox One

En ce qui concerne la mémoire, dès le troisième millénaire avant notre ère, conscient de sa faillibilité, l’homme eut l’inspiration – tout simplement géniale pour l’époque – d’enregistrer sa pensée, par écrit, sur des supports auxiliaires. Par exemple sur des tablettes d’argile, du papyrus et même des os. Avec la création de l’écriture en Mésopotamie, en Égypte puis en Chine, l’humanité a pris un tournant décisif dans la production, la diffusion, la conservation et l’accumulation des savoirs. Cet outil d’expansion de la mémoire humaine, principal coffre-fort et transmetteur de connaissances jusqu’à l’avènement de l’audiovisuel et des TIC, a également permis l’émergence et le développement d’autres sciences. Par exemple, les mathématiques utilitaires (économie, géométrie élémentaire) sont apparues presque en même temps que l’écriture. En fait, l’évolution de l’homme est tellement marquée par l’écriture que l’apparition de cette dernière est retenue comme une frontière entre la préhistoire et l’histoire humaine.

L’homme n’était pas seulement concerné par le monde visible à l’œil nu. Des lentilles datant du troisième millénaire avant J.-C. ont été découvertes en Égypte, ce qui signifie sans doute que dès cette époque l’homme cherchait à s’agrandir, afin de découvrir d’autres univers trop lointains pour être visibles : le cosmos ; ou voisins mais invisibles, avec qui il se frotte ou se cache dans son organisme : infiniment petit. Nous sommes aujourd’hui au microscope électronique Titan Krios, installé en 2018 par l’Institut Pasteur de Paris et présenté comme le plus performant au monde. Il permet une observation à l’échelle de la dizaine de nanomètres. C’est une échelle atomique.

Lire Aussi :  L'espace Schengen intégrera la Croatie mais pas la Roumanie ni la Bulgarie - France

Le processus d’augmentation humaine s’est poursuivi jusqu’à la fin du XVIIIe siècle, lorsque la première révolution industrielle a provoqué la pro-singularité, venue d’Angleterre. Cette dernière est marquée par l’apparition de la machine à vapeur moderne, qui permet le passage de la production artisanale à la production industrielle. Une production de masse à une vitesse qui dépasse les capacités matérielles de l’homme, ce qui a eu de profondes conséquences socio-économiques. Un siècle plus tard survient la deuxième révolution industrielle, chassée de l’Allemagne et de la côte est des États-Unis, dont les principales caractéristiques sont l’exploitation du pétrole, la découverte de l’électricité, le développement de l’industrie automobile et l’apparition du télex et des téléphones sans fil. . L’homme franchit ainsi une nouvelle étape de son processus de croissance en se donnant les moyens, au moyen de l’automobile, de se déplacer à des vitesses que sa physiologie ne lui permet pas ; et, par téléphone, de s’entendre pendant leur absence physique.

Cependant, après la Seconde Guerre mondiale, l’espèce humaine, après avoir grandi pendant plus de trois mille millénaires sur les plans mécanique, mémoriel, optique et cinématique, a atteint un nouveau palier de ce processus d’externalisation des tâches que sa nature lui permet. penser, imaginer, sans avoir les capacités matérielles et mentales pour les mettre en œuvre. En 1948, le premier ordinateur voit le jour (la machine architecturale de Von Neumann) doté d’un algorithme lui permettant d’effectuer des opérations arithmétiques et logiques. Par conséquent, une nouvelle dimension du processus de croissance des êtres humains est apparue cette année : la croissance intellectuelle. C’était la première année de l’intelligence artificielle (IA), au premier sens du terme.

Lire Aussi :  La mise à jour Los Santos Drug Wars est disponible, liste complète du nouveau contenu – Rockstar Actu

Puis, à la fin des années 1970, l’accès à l’ordinateur s’est démocratisé tant dans le milieu des affaires que dans les ménages ; et ceci encore une fois grâce à la volonté naturelle de l’homme de s’accroître afin de réaliser les fruits de son imagination que sa nature ne lui permet pas de mettre en œuvre. En 1978, le déclic fut Dan Bricklin, un jeune informaticien américain qui s’inscrivit à un MBA à la Harvard Business School. Bricklin a remarqué le côté prohibitif du travail d’un de ses professeurs, qui a établi des tables de valeurs interdépendantes pour que dès qu’une valeur change, plusieurs autres changent. Il se charge alors de développer une application utilisable sur ordinateur pour automatiser ce type d’enchaînement d’opérations. En un temps record, le jeune Bricklin développe le logiciel Visicalc, le premier tableur de l’histoire de l’informatique, l’ancêtre du célèbre Excel. VisiCalc a été développé pour l’ordinateur Apple II – une machine qui hésitait à être commercialisée depuis 1977 – et a permis d’atteindre des vitesses de calcul inimaginables pour le cerveau humain, le couple VisiCalc-Apple II a connu un grand succès commercial à partir de 1979. Le C était le début de la démocratisation de l’utilisation des micro-ordinateurs ; et le point de départ d’une ébullition sans précédent dans la production d’algorithmes de toutes sortes, et l’essor des technologies de l’information et de la communication (TIC). Ces nouvelles avancées scientifiques et technologiques ont établi ce que l’on appelle communément la troisième révolution industrielle.

Pr Abdou SENE, expert en mathématiques appliquées



Source

Leave a Reply

Your email address will not be published.

Articles Liés

Back to top button