Martin Rees est l’astronome royal de Grande-Bretagne, professeur à l’université de Cambridge, et l’un des principaux cosmologistes au monde. Dans un livre publié en 2003, intitulé Our Final Hour, il a donné à la civilisation une chance sur deux de survivre au 21e siècle, une estimation à laquelle il est parvenu après avoir passé en revue toutes les façons dont l’humanité pourrait se détruire.

Rees a suivi ce livre avec un autre sur les menaces existentielles, intitulé On the Future : Prospects for Humanity. Et le résultat de ce nouveau livre est clair : les choix que nous faisons aujourd’hui, et dans les deux prochaines décennies, détermineront probablement le sort de la vie sur terre.

La plus grande crainte de Rees est notre capacité technologique accrue, qui donne à quelques personnes seulement le pouvoir de faire plus de dégâts que jamais auparavant. Par exemple, une poignée de mauvais acteurs pourrait diffuser un code malveillant qui perturberait les réseaux informatiques du monde entier, ou des bioterroristes pourraient libérer un virus mortel qui deviendrait rapidement une pandémie mondiale, ou encore des physiciens trop zélés pourraient créer un trou noir en faisant s’entrechoquer des protons.

Et puis il y a la possibilité très réelle que les technologies de bio-ingénierie, comme l’édition de gènes, produisent des inégalités sans précédent dans la société qui pourraient transformer la vie telle que nous la connaissons. Il y a aussi le danger imminent de l’intelligence artificielle, qui, selon la personne à qui vous demandez, est soit une menace existentielle, soit une non préoccupation follement exagérée.

En dépit de tout cela, Rees se qualifie toujours de « techno-optimiste ». C’est-à-dire qu’il pense que nous pouvons exploiter la science et la technologie pour nous sauver et sauver la planète. La semaine dernière, je lui ai demandé pourquoi il garde espoir face à toutes ces menaces et pourquoi il pense que les scientifiques ont l’obligation éthique de s’engager politiquement. Je lui ai également demandé s’il pense que les êtres humains devront fuir la Terre s’ils veulent survivre à long terme. (Sa réponse pourrait vous surprendre.)

Une transcription légèrement éditée de notre conversation suit.

Sean Illing

Dans votre précédent livre, Our Final Hour, vous disiez que nous avions 50 % de chances de survivre au 21e siècle. Que pensez-vous de nos chances aujourd’hui ?

Martin Rees

Eh bien, c’était évidemment un chiffre approximatif, mais je crois toujours qu’il pourrait y avoir de sérieux revers pour notre civilisation, et je me sens plus préoccupé aujourd’hui qu’à l’époque par le fait que la technologie signifie que de petits groupes ou même des individus peuvent par erreur, ou à dessein, avoir un effet perturbateur qui se propage en cascade à l’échelle mondiale.

C’est une chose relativement nouvelle, et je ne suis pas sûr que nous en mesurions pleinement les dangers. La technologie n’a pas seulement augmenté les façons dont nous pourrions nous détruire, elle a aussi rendu beaucoup plus facile pour nous de le faire. Cela signifie donc que nous sommes toujours proches, potentiellement, d’une catastrophe mondiale.

Je m’inquiète plus qu’avant de l’impact collectif que nous avons sur les ressources et l’environnement. Nous continuons à construire et à nous étendre, et nous demandons plus d’énergie et plus de ressources, et nous sommes sur ce qui semble être un chemin non durable. Mes préoccupations à ce sujet n’ont fait que croître depuis 2003, lorsque j’ai écrit Our Final Hour.

Sean Illing

Qu’est-ce qui vous inquiète le plus en ce moment ? Qu’est-ce qui vous empêche de dormir la nuit ?

Martin Rees

À court terme, je m’inquiète des effets perturbateurs des cyberattaques ou d’une certaine forme de terreur biologique, comme la diffusion intentionnelle d’un virus mortel. Ce genre d’événements peut se produire en ce moment même, et ils peuvent être perpétrés par de petits groupes ou même un individu. Il est extrêmement difficile de se prémunir contre ce type de menace.

Les perturbations de ce type constitueront un problème croissant dans notre avenir, et elles entraîneront davantage de tensions entre vie privée, sécurité et liberté. Et cela ne fera que s’accentuer au fil du temps.

Je crains également que nos sociétés soient aujourd’hui plus fragiles et moins tolérantes aux perturbations. Au Moyen Âge, par exemple, lorsque la peste noire a tué la moitié de la population des villes, les autres ont en quelque sorte continué avec fatalisme.

Mais je pense que si nous avions une sorte de pandémie aujourd’hui, et une fois qu’elle a dépassé la capacité des hôpitaux à faire face à tous les cas, alors je pense qu’il y aurait une perturbation sociale catastrophique bien avant que le nombre de cas atteigne 1 %. La panique, en d’autres termes, se répandrait instantanément et serait impossible à contenir.

Sean Illing

Reculons un peu du rebord et parlons de la science et de la technologie. Pensez-vous que le rythme de l’évolution technologique est maintenant trop rapide pour que la société puisse suivre ? 3097>

Martin Rees

Je pense que c’est incroyablement rapide. Est-ce trop rapide pour la société ? Je ne sais pas. Je sais que nous avons du mal à faire face à toutes ces technologies. Il suffit de regarder l’impact des médias sociaux sur la géopolitique en ce moment. Et les risques de l’intelligence artificielle et de la biotechnologie dépassent de loin ceux des médias sociaux. Mais ces choses ont aussi des avantages potentiellement énormes pour la société, si nous pouvons les gérer de manière responsable.

Sean Illing

Eh bien, c’est un peu mon point de vue : La technologie évolue plus vite que la culture, et l’écart se creuse. Je ne vois aucune raison de croire que nous pouvons gérer ces innovations de manière « responsable ». En fait, nous semblons faire le contraire : La technologie perturbe la société, puis nous luttons pour nous adapter dans le sillage de ces perturbations.

Martin Rees

Je comprends certainement le point, et ne suis pas nécessairement en désaccord. Les inconvénients sont énormes, et les enjeux ne cessent de croître. Mais ces changements arrivent, que nous le voulions ou non, donc nous devons essayer de maximiser les avantages tout en minimisant les risques.

Sean Illing

Pensez-vous que notre plus grande menace existentielle à ce stade est nous-mêmes et non une menace externe provenant du monde naturel ?

Martin Rees

Je pense que les principales menaces sont celles que nous causons. Je suis astronome, mais je ne m’inquiète pas des astéroïdes qui foncent sur la terre et nous détruisent, car nous pouvons voir ces choses venir. Je m’inquiète de la folie humaine, de l’avidité humaine et de l’erreur humaine. Je m’inquiète beaucoup plus, disons, d’une guerre nucléaire que d’une catastrophe naturelle. Les menaces humaines de ce genre augmentent beaucoup plus rapidement que les risques traditionnels comme les astéroïdes, et dans de nombreux cas, nous ne sommes tout simplement pas préparés à y faire face.

Sean Illing

Vous parlez beaucoup dans le livre de la coopération et de la nécessité d’une meilleure prise de décision. Je m’inquiète souvent du fait que nos structures d’incitation – au niveau individuel et collectif – sont si mal alignées avec nos intérêts réels qu’il est presque impossible de nous imaginer prendre le genre de décisions intelligentes et à long terme que nous devrons prendre pour naviguer dans l’avenir. Je suis curieux de savoir ce que vous pensez de cela, et quel rôle vous pensez que la science et la technologie jouent.

Martin Rees

Je suis d’accord pour dire que le fossé entre les incitations qui guident notre comportement et nos intérêts réels se creuse, et beaucoup des problèmes auxquels nous sommes confrontés nécessitent des accords internationaux et une planification à long terme, le changement climatique étant un exemple évident. Et nous avons du mal à convaincre les politiciens de faire ce qui est dans notre intérêt à long terme alors que tout ce qui les intéresse, c’est d’être réélu.

En tant que scientifiques, nous devons essayer de trouver des solutions à ces problèmes, mais nous devons aussi sensibiliser et intéresser le public. Les politiciens se soucient de ce qui est dans la presse, de ce qui est dans leur boîte de réception, et les scientifiques doivent faire ce qu’ils peuvent pour que ces problèmes urgents restent sur leur radar. Je considère que c’est mon obligation en tant que scientifique.

En même temps, les scientifiques n’ont pas de sagesse particulière en matière de politique ou d’éthique, donc nous n’avons pas les réponses quand il s’agit de décider ce qu’il faut valoriser ou faire. Le grand public doit être impliqué dans cette conversation, et les scientifiques peuvent aider en les éduquant autant que possible.

Sean Illing

Je suis content que vous y alliez, parce que je pense que c’est un point si crucial. Nous oublions souvent que la science est un outil qui nous aide à obtenir plus de ce que nous voulons, mais elle ne peut pas nous dire ce que nous devrions vouloir ou faire. Mais si vous regardez notre culture maintenant, il est clair pour moi que nous permettons à nos valeurs d’être décidées par les technologies que nous avons construites, et non l’inverse.

Martin Rees

Vous faites un grand point, et vous avez tout à fait raison de dire que nous avons besoin d’un système de valeurs que la science elle-même ne peut pas fournir. Dans le livre, je parle des scientifiques atomistes qui ont développé les armes nucléaires pendant la Seconde Guerre mondiale, dont beaucoup se sont engagés politiquement après la guerre pour faire ce qu’ils pouvaient pour contrôler les pouvoirs qu’ils ont contribué à libérer. Ils pensaient avoir une obligation spéciale.

Et je pense que c’est vrai pour les scientifiques dans d’autres domaines. Nous voyons certaines des grandes entreprises technologiques comme Facebook et Twitter prendre leurs responsabilités peut-être trop tard dans le jeu, mais il y a d’autres exemples de scientifiques travaillant dans des domaines comme la bio-ingénierie qui comprennent maintenant les risques et font de gros efforts pour les contrôler.

Mais la grande différence maintenant est qu’il y a beaucoup plus de personnes dans le monde avec une expertise dans toutes ces technologies, en particulier dans l’IA et la bio-ingénierie. Et les pressions commerciales pour les développer sont énormes, ce qui signifie que les tentatives d’imposer des réglementations n’auront qu’un succès modéré.

Donc, même si nous développons une éthique pour guider ces technologies, je ne suis pas sûr que nous serons jamais en mesure de les faire respecter au niveau mondial. Et c’est extrêmement effrayant.

Sean Illing

Des gens comme Steven Pinker défendent l’idée que la vie s’améliore régulièrement, et que la raison et la technologie sont les principaux moteurs de cette amélioration. Il y a quelque chose d’indéniablement vrai dans cet argument, mais je pense qu’il passe aussi à côté de quelque chose de fondamental sur notre nature et la fragilité du monde que nous avons créé.

Martin Rees

J’ai lu le livre de Pinker, et j’ai eu des échanges avec lui à ce sujet. Il n’y a aucun doute qu’il a raison sur l’amélioration de l’espérance de vie et la diminution du nombre de personnes en situation de pauvreté et tout cela, mais je pense qu’il néglige deux choses. La première est ce que j’ai mentionné plus tôt au sujet des nouvelles technologies créant de nouvelles menaces qui peuvent être déclenchées relativement facilement par de petits groupes de personnes ou des individus.

Il semble également penser que les êtres humains ont progressé sur le plan éthique par rapport aux générations précédentes, et je n’en suis pas si sûr. A l’époque médiévale, la vie était misérable et il n’y avait rien que les gens puissent faire pour l’améliorer. Aujourd’hui, l’écart entre la façon dont le monde est et la façon dont il pourrait être est énorme.

Nous avons un milliard de personnes dans le monde dans une pauvreté abjecte, qui pourrait être soulagée par la richesse des mille personnes les plus riches de la planète. Que nous permettions que cela continue dit sûrement quelque chose de significatif sur la quantité – ou le peu – de progrès moral que nous avons fait depuis l’époque médiévale.

Sean Illing

Croyez-vous que l’humanité devra aller au-delà de la Terre si elle veut survivre à long terme ?

Martin Rees

J’espère certainement que non. J’espère qu’il y aura quelques pionniers qui voyageront dans l’espace et formeront une petite colonie sur Mars, mais je pense que cela devrait être laissé au secteur privé. Je ne vois plus aucun intérêt pratique à ce que la NASA envoie des gens dans l’espace. Le secteur privé peut se permettre de prendre plus de risques que la NASA, et de nombreux aventuriers sont heureux de vivre avec les risques des voyages spatiaux.

On peut espérer que ces personnes iront sur Mars et seront à l’avant-garde du développement de nouvelles technologies, car elles auront tout intérêt à s’adapter à un environnement hostile. Mais je ne suis pas du tout d’accord avec Elon Musk et mon regretté collègue Stephen Hawking qui parlent d’immigration massive vers Mars. Je pense que c’est une illusion dangereuse parce que Mars sera un environnement plus hostile que le sommet de l’Everest ou le pôle Sud, et la gestion du changement climatique ici sur Terre est bien plus importante que la terraformation de Mars.

Sean Illing

Vous vous qualifiez de « techno-optimiste » bien que vous ayez écrit deux livres sur toutes les façons dont la vie humaine peut être annihilée. D’où vient votre optimisme ?

Martin Rees

Je suis un optimiste dans le sens où je crois que la capacité de la technologie à offrir une bonne vie à chacun, pas seulement dans nos pays, mais dans le monde entier, va se développer. Mais je suis aussi un pessimiste éthique, car je reconnais que cela ne se passe pas comme cela devrait. Nous avons une pauvreté abjecte dans nos pays, nous avons des régions entières du monde où les gens sont dans la pauvreté, et c’est un échec politique. Et cet écart s’élargit, il ne se réduit pas.

Sean Illing

Pensez-vous que l’humanité devra évoluer vers quelque chose d’autre, vers quelque chose de posthumain, pour survivre pendant encore 100 siècles ?

Martin Rees

L’humanité n’a pas tellement changé en termes de physique et de mentalité. Si, en raison de la technologie, des voyages dans l’espace ou de tout autre développement, l’évolution commence à se produire sur une échelle de temps beaucoup plus rapide, cela aura des conséquences importantes pour la vie humaine.

Par exemple, nous pouvons encore apprécier la littérature écrite par les auteurs grecs et romains il y a plus de 2 000 ans, parce que le caractère des êtres humains n’a pas tellement changé, et nous reconnaissons leur vie émotionnelle dans notre propre monde. Mais si nous pensons à ce qui pourrait arriver avec les techniques de bio-ingénierie ou l’intelligence artificielle, il est tout à fait possible que les humains, dans un siècle ou deux, n’aient plus qu’une compréhension algorithmique de nous et de ce que nous étions.

Si cela arrive, si nous perdons cette continuité entre les générations d’êtres humains, cela changera totalement la donne. Je ne sais pas ce qui viendra ensuite, mais nous serons entrés dans une nouvelle phase de l’évolution humaine.

Des millions de personnes se tournent vers Vox pour comprendre ce qui se passe dans l’actualité. Notre mission n’a jamais été aussi vitale qu’en ce moment : donner du pouvoir par la compréhension. Les contributions financières de nos lecteurs constituent un élément essentiel pour soutenir notre travail, qui nécessite beaucoup de ressources, et nous aident à maintenir notre journalisme gratuit pour tous. Aidez-nous à maintenir la gratuité de notre travail pour tous en apportant une contribution financière à partir de 3 dollars seulement.