Einzelnen Beitrag anzeigen
Ungelesen 07.01.15, 19:23   #17
aBarredNet
Anfänger
 
Registriert seit: Jan 2015
Beiträge: 3
Bedankt: 3
aBarredNet mag den Abfluss Flavour! | 95489 Respekt PunkteaBarredNet mag den Abfluss Flavour! | 95489 Respekt PunkteaBarredNet mag den Abfluss Flavour! | 95489 Respekt PunkteaBarredNet mag den Abfluss Flavour! | 95489 Respekt PunkteaBarredNet mag den Abfluss Flavour! | 95489 Respekt PunkteaBarredNet mag den Abfluss Flavour! | 95489 Respekt PunkteaBarredNet mag den Abfluss Flavour! | 95489 Respekt PunkteaBarredNet mag den Abfluss Flavour! | 95489 Respekt PunkteaBarredNet mag den Abfluss Flavour! | 95489 Respekt PunkteaBarredNet mag den Abfluss Flavour! | 95489 Respekt PunkteaBarredNet mag den Abfluss Flavour! | 95489 Respekt Punkte
Standard

Ich denke wir stehen gerade an einem Punkt an dem viele außerirdische Zivilisationen bereits standen und daraufhin ausgestorben sind (siehe auch den Film "Der Tag an dem die Erde stillstand").

Erst einmal leben wir einem System basierend auf Profit & Konkurrenzdenken - damit laufen wir in Probleme von Umweltverschmutzung, Ressourcenaufbrauch, Klimawandel, Ressourcenkriegen etc welche so nicht zu lösen sind.
Stattdessen sollten die neuen technischen Möglichkeiten genutzt werden (ein einfaches Beispiel dafür ist, dass derzeit Menschen ihre Jobs aufgrund von Automatisierung verlieren anstatt dass sie ihnen abgenommen wird) und echte Faktoren wie vorhandene Ressourcen & Effizienz eine Rolle spielen anstatt von imaginären "finanziellen". Es ist also ein Scheidepunkt - youtube.com/watch?v=6vNCpGaxWno.

Allerdings gibt es selbst wenn wir das schaffen ungeheure Risiken für die Menschheit. Allen vorran wohl Biohacking durch welches jederman in der Zukunft selbst Viren erzeugen kann (und deren Code zB im Internet verbreiten) - siehe dazu: Killer mousepox virus raises bioterror fears. Und fortgeschrittene künstliche intelligenz.

Bezüglich künstlicher Intelligenz spricht man von der technischen Singularität sobald KIs geschaffen wurden, die intelligenter sind als der Mensch, und damit dann selbst wiederrum verbesserte KIs schaffen (die wiederrum verbesserte KIs schaffen etc).
Spätestens zu diesem Zeitpunkt (auch vorher zB wenn bei der Schaffung von KIs in einem Wettrüsten zwischen zB China & USA aufgrund des fortwährenden oben beschriebenen Systems Sichheitsaspekte vernachlässigt werden) wird die Lage kritisch.
Denn eine KI sieht Menschen, um das Problem anschaulich zu machen, wohl nur als eine Ansammlung von Atomen und alles muss äußert genau definiert werden - gibt man ihr zB das Ziel Büroklammern zu erstellen könnte die KI die Ressourcen der Erde zu diesem Zweck aufbrauchen oder gibt man ihr das Ziel alle Menschen glücklich zu machen könnte diese alle Menschen an eine Simulation mit endlosem Glücksgefühl anschließen oder die Areale des Gehirns welche "glücklich sein" darstellen auf neurologischer Ebene stimulieren [....].

Leider ist es schwer all diese Probleme auf die schnelle zu erklären - hier findest du eine kurze Einleitung dazu von einem Institut welches sich mit der Frage bschäftigt wie man "gute" künstliche Intelligenz sicherstellen kann: intelligence.org/files/ReducingRisks.pdf
Siehe dazu auch: https://en.wikipedia.org/wiki/Friend...l_intelligence


Hier eine Forschungsarbeit zu der Frage (englisch): nickbostrom.com/existential/risks.pdf

Eine gute Zusammenstellung existentieller Risiken gibt es hier:

Analysis of Existential Risks by Jonatas Müller

Siehe auch: Wiki: Global catastrophic risk & TED Talk: Sir Martin Rees - Earth in its final century?
aBarredNet ist offline   Mit Zitat antworten