banner

Nachricht

Aug 17, 2023

Beunruhigende Forschungsergebnisse warnen davor, dass KI ein „großer Filter“ sein könnte, der die menschliche Zivilisation auslöscht

Fortgeschrittene KI könnte sich wie eine „zweite intelligente Spezies“ verhalten, mit der Menschen schließlich die Erde teilen

Ihre Lesezeichen finden Sie in Ihrem Independent Premium-Bereich unter meinem Profil

Zugehöriges Video: Er half bei der Entwicklung der KI. Jetzt fürchtet er, dass es die Menschheit zerstören wird

Fortgeschrittene künstliche Intelligenz könnte eine katastrophale Gefahr für die Menschheit darstellen und ganze Zivilisationen auslöschen, warnt eine neue Studie.

KI könnte die potenzielle „Große Filter“-Antwort auf das Fermi-Paradoxon sein, mit dem Potenzial, intelligentes Leben im Universum auszulöschen, bevor es mit anderen in Kontakt treten kann, heißt es in der noch nicht begutachteten Studie, die im arXiv veröffentlicht wurde Preprint-Server.

Das Fermi-Paradoxon, das im Volksmund mit der Phrase „Wo sind alle?“ ausgedrückt wird, gibt Wissenschaftlern seit Jahrzehnten Rätsel auf. Es bezieht sich auf die beunruhigende Vorstellung, dass, wenn außerirdisches Leben im Universum wahrscheinlich ist, warum Menschen ihm dann noch nicht begegnet sind.

Es wurden viele Theorien vorgeschlagen, die unterschiedliche Erklärungen für unsere bisherige einsame Präsenz im Kosmos bieten.

Auch wenn Wahrscheinlichkeitsberechnungen wie die beliebte Drake-Gleichung darauf schließen lassen, dass es in der Galaxie eine Reihe intelligenter Zivilisationen geben könnte, herrscht immer noch eine rätselhafte kosmische Stille.

Eine populäre Hypothese – bekannt als der Große Filter – legt nahe, dass ein für die Entstehung intelligenten Lebens erforderliches Ereignis äußerst unwahrscheinlich ist, weshalb die kosmische Stille herrscht.

Ein logisches Äquivalent dieser Theorie ist, dass ein katastrophales kosmisches Phänomen wahrscheinlich die Ausbreitung des Lebens im gesamten Universum verhindert.

„Dies könnte ein natürlich vorkommendes Ereignis sein, oder, was noch beunruhigender ist, etwas, das intelligente Wesen sich selbst antun und das zu ihrer eigenen Ausrottung führt“, schrieb Studienautor Mark Bailey von der National Intelligence University (NIU) in den USA.

Die neue Forschung geht davon aus, dass der Fortschritt der KI genau die Art von katastrophalem Risikoereignis sein könnte, das möglicherweise ganze Zivilisationen auslöschen könnte.

In der Studie ordnet Dr. Bailey den Kontext des Großen Filters in das potenzielle langfristige Risiko von Technologien wie KI ein, das wir nicht vollständig verstehen.

„Menschen sind schlecht darin, langfristige Risiken intuitiv einzuschätzen“, sagte der NIU-Wissenschaftler und fügte hinzu, dass wir die KI nicht vollständig verstehen, sie jedoch „schnell in unser Leben eindringt“.

„Zukünftige KI wird wahrscheinlich zu generalisierbareren, zielgerichteteren Systemen mit sinnvollerer Kontrolle tendieren, bei denen die Folgen unbeabsichtigter Ergebnisse deutlich gravierender werden“, warnte er.

Dr. Bailey vertrat das, was er das „Argument der zweiten Spezies“ nennt, was die Möglichkeit eröffnet, dass sich fortgeschrittene KI effektiv wie eine „zweite intelligente Spezies“ verhalten könnte, mit der wir diesen Planeten schließlich teilen würden.

In Anbetracht dessen, was passierte, als moderne Menschen und Neandertaler auf der Erde koexistierten, sagten NIU-Forscher, dass die „möglichen Ergebnisse düster“ seien.

„Es liegt auf der Hand, dass eine außer Kontrolle geratene Technologie, insbesondere eine zielgerichtete Technologie wie KI, ein guter Kandidat für den Großen Filter wäre“, schrieb Dr. Bailey in der Studie.

„Wir müssen uns fragen: Wie bereiten wir uns auf diese Möglichkeit vor?“

Nehmen Sie an Gesprächen teil, die zum Nachdenken anregen, folgen Sie anderen unabhängigen Lesern und sehen Sie sich deren Antworten an

DeepMind-Gründer Demis Hassabis behauptet, dass wir nur noch wenige Jahre von einer künstlichen allgemeinen Intelligenz auf menschlicher Ebene entfernt sind

iStock/Getty Images

Möchten Sie Ihre Lieblingsartikel und -geschichten mit einem Lesezeichen versehen, um sie später zu lesen oder darauf zu verweisen? Starten Sie noch heute Ihr Independent Premium-Abonnement.

AKTIE