Ich denke wir stehen gerade an einem Punkt an dem viele außerirdische Zivilisationen bereits standen und daraufhin ausgestorben sind (siehe auch den Film "
Der Tag an dem die Erde stillstand").
Erst einmal leben wir einem System basierend auf Profit & Konkurrenzdenken - damit laufen wir in Probleme von
Umweltverschmutzung, Ressourcenaufbrauch, Klimawandel, Ressourcenkriegen etc welche so nicht zu lösen sind.
Stattdessen sollten die neuen technischen Möglichkeiten genutzt werden (ein einfaches Beispiel dafür ist, dass derzeit Menschen ihre Jobs aufgrund von Automatisierung verlieren anstatt dass sie ihnen abgenommen wird) und echte Faktoren wie vorhandene Ressourcen & Effizienz eine Rolle spielen anstatt von imaginären "finanziellen". Es ist also ein Scheidepunkt -
youtube.com/watch?v=6vNCpGaxWno.
Allerdings gibt es selbst wenn wir das schaffen ungeheure Risiken für die Menschheit. Allen vorran wohl
Biohacking durch welches jederman in der Zukunft selbst Viren erzeugen kann (und deren Code zB im Internet verbreiten) - siehe dazu:
Killer mousepox virus raises bioterror fears. Und
fortgeschrittene künstliche intelligenz.
Bezüglich künstlicher Intelligenz spricht man von der
technischen Singularität sobald KIs geschaffen wurden, die intelligenter sind als der Mensch, und damit dann selbst wiederrum verbesserte KIs schaffen (die wiederrum verbesserte KIs schaffen etc).
Spätestens zu diesem Zeitpunkt (auch vorher zB wenn bei der Schaffung von KIs in einem
Wettrüsten zwischen zB China & USA aufgrund des fortwährenden oben beschriebenen Systems Sichheitsaspekte vernachlässigt werden) wird die Lage kritisch.
Denn eine
KI sieht Menschen, um das Problem anschaulich zu machen, wohl nur als eine Ansammlung von Atomen und alles muss äußert genau definiert werden - gibt man ihr zB das Ziel Büroklammern zu erstellen könnte die KI die Ressourcen der Erde zu diesem Zweck aufbrauchen oder gibt man ihr das Ziel alle Menschen glücklich zu machen könnte diese alle Menschen an eine Simulation mit endlosem Glücksgefühl anschließen oder die Areale des Gehirns welche "glücklich sein" darstellen auf neurologischer Ebene stimulieren [....].
Leider ist es schwer all diese Probleme auf die schnelle zu erklären - hier findest du eine kurze Einleitung dazu von einem Institut welches sich mit der Frage bschäftigt wie man "gute" künstliche Intelligenz sicherstellen kann:
intelligence.org/files/ReducingRisks.pdf
Siehe dazu auch:
https://en.wikipedia.org/wiki/Friend...l_intelligence
Hier eine Forschungsarbeit zu der Frage (englisch):
nickbostrom.com/existential/risks.pdf
Eine gute Zusammenstellung existentieller Risiken gibt es hier:
Analysis of Existential Risks by Jonatas Müller
Siehe auch:
Wiki: Global catastrophic risk &
TED Talk: Sir Martin Rees - Earth in its final century?