Martin Rees ist der königliche Astronom Großbritanniens, Professor an der Universität Cambridge und einer der führenden Kosmologen der Welt. In einem Buch aus dem Jahr 2003 mit dem Titel Our Final Hour (Unsere letzte Stunde) gab er der Zivilisation eine 50:50-Chance, das 21. Jahrhundert zu überleben – eine Einschätzung, zu der er kam, nachdem er alle Möglichkeiten untersucht hatte, wie die Menschheit sich selbst zerstören könnte.

Rees hat diesem Buch ein weiteres über existenzielle Bedrohungen folgen lassen, das den Titel On the Future: Prospects for Humanity. Und das Fazit des neuen Buches ist klar: Die Entscheidungen, die wir heute und in den nächsten Jahrzehnten treffen, werden wahrscheinlich das Schicksal des Lebens auf der Erde bestimmen.

Rees‘ größte Befürchtung sind unsere erweiterten technologischen Möglichkeiten, die es einigen wenigen Menschen ermöglichen, mehr Schaden anzurichten als je zuvor. So könnte eine Handvoll bösartiger Akteure einen bösartigen Code freisetzen, der Computernetzwerke auf der ganzen Welt zum Erliegen bringt, oder Bioterroristen könnten einen tödlichen Virus freisetzen, der sich schnell zu einer globalen Pandemie ausweitet, oder übereifrige Physiker könnten ein Schwarzes Loch erzeugen, indem sie Protonen zusammenschlagen.

Dann besteht die sehr reale Möglichkeit, dass biotechnologische Technologien wie die Genbearbeitung zu noch nie dagewesenen Ungleichheiten in der Gesellschaft führen, die das Leben, wie wir es kennen, verändern könnten. Und dann ist da noch die drohende Gefahr der künstlichen Intelligenz, die, je nachdem, wen man fragt, entweder eine existenzielle Bedrohung oder eine völlig überzogene Unbekümmertheit darstellt.

Trotz alledem bezeichnet sich Rees immer noch als „Techno-Optimist“. Das heißt, er glaubt, dass wir uns Wissenschaft und Technologie zunutze machen können, um uns und den Planeten zu retten. Ich habe letzte Woche mit ihm darüber gesprochen, warum er angesichts all dieser Bedrohungen hoffnungsvoll bleibt und warum er glaubt, dass Wissenschaftler eine ethische Verpflichtung haben, sich politisch zu engagieren. Ich habe ihn auch gefragt, ob er glaubt, dass wir Menschen von der Erde fliehen müssen, wenn wir langfristig überleben wollen. (Seine Antwort könnte Sie überraschen.)

Es folgt eine leicht bearbeitete Abschrift unseres Gesprächs.

Sean Illing

In Ihrem letzten Buch, Unsere letzte Stunde, sagten Sie, wir hätten eine 50-prozentige Chance, das 21. Jahrhundert zu überleben. Jahrhundert zu überleben. Wie schätzen Sie unsere Chancen heute ein?

Martin Rees

Nun, das war natürlich eine grobe Zahl, aber ich glaube immer noch, dass es ernsthafte Rückschläge für unsere Zivilisation geben könnte, und ich bin heute besorgter als damals über die Tatsache, dass die Technologie bedeutet, dass kleine Gruppen oder sogar Einzelpersonen durch Fehler oder durch Absicht einen störenden Effekt haben können, der sich global ausbreitet.

Dies ist eine relativ neue Sache, und ich bin mir nicht sicher, ob wir uns der Gefahren voll bewusst sind. Die Technologie hat nicht nur die Möglichkeiten vergrößert, uns selbst zu zerstören, sie hat es uns auch viel leichter gemacht, dies zu tun. Das bedeutet, dass wir potenziell immer kurz vor einer globalen Katastrophe stehen.

Ich mache mir mehr Sorgen als früher über die kollektiven Auswirkungen, die wir auf die Ressourcen und die Umwelt haben. Wir bauen weiter und expandieren, und wir brauchen mehr Energie und mehr Ressourcen, und wir befinden uns auf einem Weg, der nicht nachhaltig zu sein scheint. Meine Besorgnis darüber ist seit 2003, als ich Our Final Hour geschrieben habe, nur noch gewachsen.

Sean Illing

Was, würden Sie sagen, beunruhigt Sie im Moment am meisten? Was hält Sie nachts wach?

Martin Rees

Kurzfristig mache ich mir Sorgen über die störenden Auswirkungen von Cyberangriffen oder eine Form von biologischem Terror, wie die absichtliche Freisetzung eines tödlichen Virus. Diese Art von Ereignissen kann schon jetzt passieren, und sie können von kleinen Gruppen oder sogar einer Einzelperson ausgeführt werden. Es ist äußerst schwierig, sich gegen diese Art von Bedrohung zu schützen.

Störungen dieser Art werden in unserer Zukunft ein wachsendes Problem darstellen, und sie werden zu mehr Spannungen zwischen Privatsphäre, Sicherheit und Freiheit führen. Und es wird sich im Laufe der Zeit nur noch verschärfen.

Ich befürchte auch, dass unsere Gesellschaften heute brüchiger und weniger tolerant gegenüber Störungen sind. Im Mittelalter zum Beispiel, als die Schwarze Pest die Hälfte der Stadtbevölkerung auslöschte, machten die anderen fatalistisch weiter.

Aber ich glaube, wenn wir heute eine Pandemie hätten und die Krankenhäuser nicht mehr in der Lage wären, alle Fälle zu behandeln, dann würde es eine katastrophale soziale Störung geben, lange bevor die Zahl der Fälle 1 Prozent erreicht. Die Panik würde sich mit anderen Worten sofort ausbreiten und wäre nicht mehr einzudämmen.

Sean Illing

Lassen Sie uns für einen Moment von der Klippe zurücktreten und über Wissenschaft und Technologie sprechen. Glauben Sie, dass das Tempo des technologischen Wandels für die Gesellschaft zu schnell ist?

Martin Rees

Ich denke, es ist erstaunlich schnell. Ist es zu schnell für die Gesellschaft? Ich weiß es nicht. Ich weiß nur, dass wir Mühe haben, mit all diesen Technologien zurechtzukommen. Sehen Sie sich nur die Auswirkungen der sozialen Medien auf die Geopolitik an. Und die Risiken der künstlichen Intelligenz und der Biotechnologie gehen weit über die sozialen Medien hinaus. Aber diese Dinge haben auch potenziell enorme Vorteile für die Gesellschaft, wenn wir verantwortungsvoll mit ihnen umgehen können.

Sean Illing

Nun, das ist sozusagen mein Punkt: Die Technologie entwickelt sich schneller als die Kultur, und die Kluft wird immer größer. Ich sehe keinen Grund zu glauben, dass wir mit diesen Innovationen „verantwortungsvoll“ umgehen können. Im Gegenteil, wir scheinen das Gegenteil zu tun: Die Technologie unterbricht die Gesellschaft, und wir haben Mühe, uns an die Folgen dieser Unterbrechungen anzupassen.

Martin Rees

Ich verstehe den Punkt und stimme ihm nicht unbedingt zu. Die Nachteile sind enorm, und es steht immer mehr auf dem Spiel. Aber diese Veränderungen werden kommen, ob wir es wollen oder nicht, also müssen wir versuchen, die Vorteile zu maximieren und gleichzeitig die Risiken zu minimieren.

Sean Illing

Glauben Sie, dass unsere größte existenzielle Bedrohung zum jetzigen Zeitpunkt wir selbst sind und nicht irgendeine externe Bedrohung aus der natürlichen Welt?

Martin Rees

Ich denke, die größten Bedrohungen sind die, die wir verursachen. Ich bin Astronom, aber ich mache mir keine Sorgen über Asteroiden, die auf die Erde stürzen und uns zerstören, denn wir können diese Dinge kommen sehen. Ich mache mir Sorgen über menschliche Dummheit, menschliche Gier und menschliches Versagen. Ich mache mir viel mehr Sorgen über, sagen wir, einen Atomkrieg als über eine Naturkatastrophe. Menschliche Bedrohungen wie diese nehmen viel schneller zu als traditionelle Risiken wie Asteroiden, und in vielen Fällen sind wir einfach nicht darauf vorbereitet.

Sean Illing

Sie sprechen in Ihrem Buch viel über Zusammenarbeit und die Notwendigkeit einer besseren Entscheidungsfindung. Ich mache mir oft Sorgen, dass unsere Anreizstrukturen – auf individueller und kollektiver Ebene – so wenig mit unseren tatsächlichen Interessen übereinstimmen, dass es fast unmöglich ist, sich vorzustellen, dass wir die Art von klugen, langfristigen Entscheidungen treffen, die wir treffen müssen, um die Zukunft zu bewältigen. Ich bin neugierig, wie Sie darüber denken und welche Rolle Wissenschaft und Technologie Ihrer Meinung nach spielen.

Martin Rees

Ich stimme zu, dass die Kluft zwischen den Anreizen, die unser Verhalten bestimmen, und unseren tatsächlichen Interessen immer größer wird, und viele der Probleme, mit denen wir konfrontiert sind, erfordern internationale Vereinbarungen und eine langfristige Planung, der Klimawandel ist ein offensichtliches Beispiel. Und es fällt uns schwer, Politiker davon zu überzeugen, das zu tun, was in unserem langfristigen Interesse liegt, wenn es ihnen nur darum geht, wiedergewählt zu werden.

Als Wissenschaftler müssen wir versuchen, Lösungen für diese Probleme zu finden, aber wir müssen auch das öffentliche Bewusstsein und Interesse wecken. Politiker interessieren sich für das, was in der Presse steht, was in ihren Postfächern ist, und Wissenschaftler müssen tun, was sie können, um diese dringenden Probleme auf ihrem Radar zu halten. Ich betrachte dies als meine Pflicht als Wissenschaftler.

Gleichzeitig haben Wissenschaftler keine besondere Weisheit, wenn es um Politik oder Ethik geht, also haben wir keine Antworten, wenn es um Entscheidungen darüber geht, was zu bewerten oder zu tun ist. Die breite Öffentlichkeit muss in diese Diskussion einbezogen werden, und die Wissenschaftler können dazu beitragen, indem sie sie so weit wie möglich aufklären.

Sean Illing

Ich bin froh, dass Sie darauf eingegangen sind, denn ich denke, dass dies ein so wichtiger Punkt ist. Wir vergessen oft, dass die Wissenschaft ein Werkzeug ist, das uns hilft, mehr von dem zu bekommen, was wir wollen, aber sie kann uns nicht sagen, was wir wollen oder tun sollten. Aber wenn man sich unsere heutige Kultur anschaut, ist es für mich klar, dass wir zulassen, dass unsere Werte von den Technologien bestimmt werden, die wir entwickelt haben, und nicht umgekehrt.

Martin Rees

Sie haben einen großartigen Punkt, und Sie haben völlig Recht, wenn Sie sagen, dass wir ein Wertesystem brauchen, das die Wissenschaft selbst nicht liefern kann. In meinem Buch spreche ich über die Atomwissenschaftler, die während des Zweiten Weltkriegs Atomwaffen entwickelt haben und von denen sich viele nach dem Krieg politisch engagierten, um die Kräfte zu kontrollieren, die sie mit entfesselt hatten. Sie waren der Meinung, dass sie eine besondere Verpflichtung hatten.

Und ich denke, das gilt auch für Wissenschaftler in anderen Bereichen. Wir sehen, dass einige der großen Technologieunternehmen wie Facebook und Twitter vielleicht zu spät Verantwortung übernehmen, aber es gibt auch andere Beispiele von Wissenschaftlern, die in Bereichen wie der Biotechnologie arbeiten, die die Risiken jetzt verstehen und große Anstrengungen unternehmen, um sie zu kontrollieren.

Der große Unterschied ist jedoch, dass es jetzt viel mehr Menschen auf der Welt gibt, die über Fachwissen in all diesen Technologien verfügen, insbesondere in der KI und der Biotechnologie. Und der kommerzielle Druck, sie zu entwickeln, ist enorm, was bedeutet, dass Versuche, Vorschriften zu erlassen, nur mäßig erfolgreich sein werden.

Selbst wenn wir also eine Ethik entwickeln, um diese Technologien zu lenken, bin ich mir nicht sicher, ob wir jemals in der Lage sein werden, sie auf globaler Ebene durchzusetzen. Und das ist äußerst beängstigend.

Sean Illing

Menschen wie Steven Pinker argumentieren, dass sich das Leben ständig verbessert und dass Vernunft und Technologie die Haupttriebkräfte dieser Verbesserung sind. An diesem Argument ist unbestreitbar etwas Wahres dran, aber ich denke, dass es auch etwas Grundlegendes über unsere Natur und die Zerbrechlichkeit der Welt, die wir geschaffen haben, außer Acht lässt.

Martin Rees

Ich habe Pinkers Buch gelesen und mich mit ihm darüber ausgetauscht. Er hat zweifellos Recht, dass die Lebenserwartung steigt, dass weniger Menschen in Armut leben und so weiter, aber ich glaube, er übersieht zwei Dinge. Das erste ist das, was ich bereits erwähnt habe, nämlich dass neue Technologien neue Bedrohungen schaffen, die von kleinen Gruppen oder Einzelpersonen relativ leicht entfesselt werden können.

Er scheint auch zu glauben, dass die Menschen im Vergleich zu früheren Generationen ethisch fortgeschritten sind, und da bin ich mir nicht so sicher. Im Mittelalter war das Leben miserabel, und es gab nichts, was die Menschen tun konnten, um es zu verbessern. Heute ist die Kluft zwischen dem, wie die Welt ist, und dem, wie sie sein könnte, enorm.

Eine Milliarde Menschen auf der Welt leben in bitterer Armut, die durch den Reichtum der tausend reichsten Menschen auf dem Planeten gelindert werden könnte. Dass wir das weiterhin zulassen, sagt sicherlich etwas darüber aus, wie viel – oder wie wenig – moralischen Fortschritt wir seit dem Mittelalter gemacht haben.

Sean Illing

Glauben Sie, dass die Menschheit über die Erde hinausgehen muss, wenn sie auf lange Sicht überleben will?

Martin Rees

Ich hoffe nicht. Ich hoffe, dass es ein paar Pioniere geben wird, die in den Weltraum reisen und eine kleine Kolonie auf dem Mars gründen, aber ich denke, das sollte dem privaten Sektor überlassen werden. Ich sehe keinen praktischen Grund mehr für die NASA, Menschen ins All zu schicken. Der Privatsektor kann es sich leisten, mehr Risiken einzugehen als die NASA, und viele Abenteurer nehmen die Risiken der Raumfahrt gerne in Kauf.

Wir können hoffen, dass diese Menschen zum Mars fliegen und bei der Entwicklung neuer Technologien an vorderster Front stehen werden, denn sie haben einen großen Anreiz, sich an eine feindliche Umgebung anzupassen. Aber ich bin ganz anderer Meinung als Elon Musk und mein verstorbener Kollege Stephen Hawking, die von einer Masseneinwanderung zum Mars sprechen. Ich halte das für eine gefährliche Illusion, denn der Mars wird eine lebensfeindlichere Umgebung sein als der Gipfel des Everest oder der Südpol, und die Bewältigung des Klimawandels hier auf der Erde ist weitaus wichtiger als das Terraforming des Mars.

Sean Illing

Sie bezeichnen sich selbst als „Techno-Optimist“, obwohl Sie zwei Bücher über all die Möglichkeiten geschrieben haben, mit denen menschliches Leben ausgelöscht werden kann. Woher kommt Ihr Optimismus?

Martin Rees

Ich bin insofern ein Optimist, als ich glaube, dass die Fähigkeit der Technologie, allen Menschen ein gutes Leben zu ermöglichen, nicht nur in unseren Ländern, sondern überall auf der Welt, zunehmen wird. Aber ich bin auch ein ethischer Pessimist, denn ich erkenne, dass dies nicht in der Weise geschieht, wie es geschehen sollte. Wir haben bittere Armut in unseren Ländern, wir haben ganze Regionen der Welt, in denen Menschen in Armut leben, und das ist ein politisches Versagen. Und diese Kluft wird immer größer, nicht kleiner.

Sean Illing

Meinen Sie, dass sich die Menschheit zu etwas anderem, zu etwas Posthumanem entwickeln muss, um weitere 100 Jahrhunderte zu überleben?

Martin Rees

Die Menschheit hat sich in Bezug auf Körperbau und Mentalität nicht allzu sehr verändert. Wenn die Evolution aufgrund der Technologie, der Raumfahrt oder einer anderen Entwicklung in einem viel schnelleren Zeitrahmen abläuft, wird das bedeutende Folgen für das menschliche Leben haben.

Wir können uns zum Beispiel immer noch an der Literatur erfreuen, die von griechischen und römischen Autoren vor mehr als 2000 Jahren geschrieben wurde, weil sich der Charakter der Menschen nicht allzu sehr verändert hat und wir ihr Gefühlsleben in unserer eigenen Welt wiedererkennen. Aber wenn wir daran denken, was mit biotechnischen Techniken oder künstlicher Intelligenz passieren könnte, ist es durchaus möglich, dass die Menschen in ein oder zwei Jahrhunderten nur noch ein algorithmisches Verständnis von uns haben und wie wir waren.

Wenn das passiert, wenn wir diese Kontinuität zwischen den Generationen von Menschen verlieren, wird das ein totaler Umbruch sein. Ich weiß nicht, was dann kommt, aber wir werden in eine neue Phase der menschlichen Evolution eingetreten sein.

Millionen Menschen wenden sich an Vox, um zu verstehen, was in den Nachrichten passiert. Unser Auftrag war noch nie so wichtig wie in diesem Moment: Wir wollen die Menschen durch Verständnis stärken. Finanzielle Beiträge unserer Leser sind ein wichtiger Teil unserer ressourcenintensiven Arbeit und helfen uns, unseren Journalismus für alle kostenlos zu halten. Helfen Sie uns, unsere Arbeit für alle frei zu halten, indem Sie einen finanziellen Beitrag von nur 3 $ leisten.