Le plus célèbre astrophysicien du monde, Stephen Hawking, vient d'annoncer sur BBC 4 que la plus grande menace pour notre humanité est… elle-même. Les avancées technologiques notamment les robots dotés d'intelligence artificielle et, pêle-mêle, la possibilité d’une guerre nucléaire, le réchauffement climatique, les virus issus de nos manipulations génétiques, peuvent nous faire basculer dans le néant beaucoup plus tôt que prévu, dès les siècles prochains.... Seul espoir pour lui : disperser l'humanité, en premier lieu sur Mars, et fissa....
Alors que la durée de vie restante de notre planète devrait nous laisser de la marge (en théorie encore quelques milliards d'années), selon Stephen Hawking, l'espèce humaine est en danger car la catastrophe est imminente. Elle arrivera peut être dans quelques centaines d’années, un battement de cil à l'échelle de l'humanité et de l'univers! Alors que la société du futur pourrait être aseptisée, apaisée et domestiquée grâce aux technologies toujours plus avancées, ces dernières pourraient surtout nous dépasser puis nous détruire. Hawking affirme que nous serons responsables de notre propre extinction.
"Once humans develop artificial intelligence, it will take off on its own and redesign itself at an ever-increasing rate. Humans, who are limited by slow biological evolution, couldn't compete and would be superseded." (Source: The Independent)
"Une fois que les humains développeront une intelligence artificielle, elle prendra son envol et se remodèlera elle-même de plus en plus rapidement. Les humains, qui sont limités par des fonctions biologiques lentes, ne pourront rivaliser et seront dépassés".
Alors pour pallier ce problème quelque peu épineux, l'astrophysicien suggère d’aller coloniser d’autres planètes, et vite! Idéalement, il faudrait rester dans le système solaire et la première candidate est bien sûr Mars. Un processus de colonisation extra-terrestre qui prendrait environ un siècle. D'ici l'achèvement de cette colonisation, il y aurait donc des années très, très délicates selon Stephen Hawking même si tout n’est pas perdu, loin de là. Il a malgré tout foi en l’humanité et en son instinct de survie.
“Most of the threats we face come from the progress we’ve made in science and technology. We are not going to stop making progress, or reverse it, so we must recognize the dangers and control them. I’m an optimist, and I believe we can.” (Source: The Telegraph)
"La plupart des menaces qui nous guettent découle de nos progrès scientifiques et technologiques. Nous n’allons pas cesser de progresser, ou faire marche arrière, c’est pourquoi nous devons regarder en face les dangers qui arrivent et apprendre à les contrôler. Je suis optimiste, je pense que nous pouvons y arriver."
L'émiettement et la dispersion dans différentes planètes et colonies permettrait de faire survivre l'humanité, ses souvenirs et les restes de sa culture, même si le berceau de la Terre venait à disparaître.
Nous serions alors les premiers extra-terrestres, en attendant que ceux qui existent probablement ailleurs dans l'Univers nous donnent signe de vie comme le suggère le paradoxe de Fermi (lire cet article du CNRS, "le paradoxe de fermi et les extraterrestres invisibles").
Cette théorie, énoncée en 1950 par un physicien italien lauréat du Prix Nobel, pourrait se résumer ainsi « S’il y avait des civilisations extraterrestres, leurs représentants devraient être déjà chez nous. Où sont-ils donc ? »
L'une des explications du paradoxe de Fermi, selon certains chercheurs, serait que toute civilisation extraterrestre très avancée technologiquement (et donc dotée d'armes de destruction absolue, nucléaires ou autres) en viendrait inéluctablement à s'autodétruire avant d'atteindre d'autres mondes dans l'univers...
Pour tout comprendre, regardez cette vidéo éducative ludique et très complète sur la question (5 mn) en anglais sous titré en français:
D'où la crainte formulée par Steven Hawking: le suicide de notre espèce à coup d'armes technologiques incontrôlables.
La Grande-Bretagne se prépare déjà à créer une armée de robots guerriers pour protéger ses troupes au sol rapporte The Telegraph. Le drone Taranis, d'une valeur de 190 millions d'euros, vole plus vite que la vitesse du son et sélectionne ses cibles automatiquement. Il demande tout de même l'autorisation d'un humain avant d'attaquer, mais un pas a définitivement été franchi depuis 2013. Un sillon, là encore, déjà largement creusé par les oeuvres de science fiction, "Terminator" en tête...
Pour aller plus loin:
Les deux Reith Lectures (conférences) délivrées par Stephen Hawking dont la première est consacrée aux trous noirs et s'accompagne d'une visualisation graphique animée.
Inês Fressynet avec Loïc de La Mornais