Singularité technologique : La question de la fin de l’humanité


La singularité technologique est une théorie selon laquelle à un moment donné, le progrès technologique et technique sera tellement rapide qu’il n’y aura plus de progrès à faire, autrement dit nous (ou quelque chose comme on le verra plus tard) aurions une compréhension absolue ou minimum du monde.

Même si cela ressemble plus à un scenario de science-fiction asimovien se déroulant à l’an 10 000, cette théorie est sérieusement étudiée par certains scientifiques qui osent parfois affirmer que la singularité se produira au 21ème siècle.

Le but de cet article est de faire découvrir le concept de la singularité et de poser les questions liées à cette théorie. Je ne considérerais donc pas les arguments réfutant la possibilité de cet évènement aussi valables qu’ils sont.


Singularité : Comment en arrive-t-on là ?


On s’accorde à le dire, le progrès technologique explose. Et on dit souvent que personne n’aurait pu prédire un an en arrière où on en serait aujourd’hui. Et s’il on trace une courbe du progrès technologique, on peut observer une évolution exponentielle. La plus célèbre de ces courbes exponentielles du progrès est la loi de Moore : Moore en observant les progrès faits en termes de processeur a prophétisé que le nombre de transistors doublerait tous les deux ans.

Bon, est-ce que cela veut dire que l’on pourra progresser à une vitesse suffisamment rapide pour arriver au bout ? Probablement pas. Tout comme la loi de Moore, notre capacité à progresser à une vitesse croissante s’essouffle.

Heureusement, nous sommes à l’aube d’une ère potentiellement incroyable : l’ère de l’intelligence artificielle. On peut se dire que rien ne nous empêchera de créer des ordinateurs plus intelligents que nous en ce qui concerne la recherche technologique. Encore mieux ! Et si on construisait des ordinateurs plus intelligents que nous pour concevoir des ordinateurs plus intelligents que nous ? On aura alors créé ce qu’on appelle une « super-intelligence artificielle », capable de se reconcevoir elle-même pour devenir plus intelligent.

L’idée est que cette intelligence va elle aussi devenir intelligente à une rapidité exponentielle. Et c’est là que l’on aurait atteint la compréhension du monde ultime.


Bon et on fout quoi maintenant ?


Il n’y a pour l’instant aucune théorie largement adoptée sur ce qui se passerait après un tel évènement. Et c’est là sûrement la question la plus intéressante : construirons-nous un paradis pour l’Homme ? Y aurait-il toujours une Humanité ? Ou serons-nous tous dans the Matrix ?

Toutes ces questions ramènent à une question fondamentale : Vers quoi nous dirigeons nous ? En d’autres termes : Quel est le sens de la vie ?

Mais il y a plus, puisqu’en général on pose la question au niveau individuel, et dans ce cas-là la réponse est assez fatalement dictée par rapport à un concept : la mort. Mais ici on pose la question non pas en tant qu’individu, pas en tant que société ni même en tant qu’Humanité. On pose la question pour la vie elle-même. Où va la vie ? Cette vie qui est caractérisée par sa constante évolution, est-ce qu’elle ne va pas disparaître si elle atteint le maximum ?


Bref c’est sur ces questions pseudo-philosophiques de comptoir que je vais conclure cet article. Sur une note personnelle je n’ai pas d’opinion concernant l’éventualité de la singularité, mais je trouve cette théorie extrêmement attirante, et c’est tout ce qui m’importe.


Gabriel
Concilie sa passion des mathématiques avec League Of Legends. Passionné de philosophie et écrit gracieusement pour le blog Point Carré

Articles populaires

Les sommes : la sommation par paquets

Mo et Mb, différences et conséquences

Les démonstrations par récurrence