Willkommen |
|
myGully |
|
Links |
|
Forum |
|
|
|
 |
24.08.25, 11:44
|
#1
|
Super Moderator
Registriert seit: Oct 2012
Beiträge: 8.157
Bedankt: 9.688
|
Gespräche mit Toten werden zum Geschäftsmodell
Zitat:
Künstliche Intelligenz
Gespräche mit Toten werden zum Geschäftsmodell
Eine Kolumne von [ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ]
Ein bekannter US-Journalist hat kürzlich die KI-Reproduktion eines ermordeten Teenagers »interviewt«. Auch kommerzielle Angebote von »Deadbots« gibt es bereits. Sie werfen gravierende ethische Fragen auf.
24.08.2025, 11.42 Uhr

Geschäftsmodell »Griefbots«: Tote machen Content Foto: Curly_photo / Getty Images
Wenn Sie sich kurz ordentlich gruseln wollen (und Englisch verstehen) sehen Sie sich einfach die ersten acht bis zehn Minuten dieser [ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ] mit einem KI-generierten Chatbot an. Gruselig ist das »Gespräch« deshalb, weil der Chatbot das Gesicht und die Stimme eines vor sieben Jahren von einem Massenmörder getöteten Jungen hat.
Acosta richtete seine Fragen an eine digitale Rekonstruktion des 2018 an der Marjory Stoneman Douglas High School in Parkland, Florida, erschossenen Schülers Joaquin Oliver. Der wäre zur Zeit des Gesprächs 25 Jahre alt geworden.
17 Schüler starben damals, einige der Überlebenden kämpften nach dem Massenmord [ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ]. Der aus selbst verfassten Texten, Fotos, Videos und Tonaufnahmen des damals 17-jährigen Mordopfers zusammengebastelte Joaquin-Avatar soll seinem Vater zufolge helfen, das Bewusstsein für das gewaltige Problem der ständigen Schulmassenmorde in den USA wachzuhalten.
Stundenlange Gespräche mit der Simulation
[ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ]
In dem »Interview« tut Acosta so, als spräche er wirklich mit Joaquin. Es geht kurz um Angriffe auf Schulen und dann länger um Basketball, »Star Wars« und Heldentum. Tatsächlich sind es eher Acostas Empathie simulierende Fragen als die Antworten, die das Ganze so beklemmend machen. Der Chatbot klingt wie eine Mischung aus ChatGPT und Silicon-Valley-Produktpräsentationen. Zwei der am häufigsten gebrauchten Adjektive in seinen Antworten sind »inspiring« und »exciting«, das Ganze pathetisch, bemüht positiv und weitgehend nichtssagend.
Im anschließenden Interview mit Joaquins echtem Vater betont der, dass er seinen Sohn ja leider nicht zurückbringen könne. Er verrät aber auch, dass seine Ehefrau sich teils stundenlang mit dem Chatbot unterhalte. Sie höre so gern, wenn der »Mami, ich liebe dich« sagt.
Eine alte Idee wird rudimentäre Realität
Die Idee, dass Verstorbene in einer Welt mit funktionierender künstlicher Intelligenz als digitale Simulationen »weiterleben« könnten, ist – in der Literatur – mindestens Jahrzehnte alt. Schon in William Gibsons »Neuromancer« (1984) gibt es beispielsweise »Konstrukte«, die die Persönlichkeit und das Gedächtnis bestimmter Personen konservieren und mit denen man Gespräche führen kann.
In einer Folge der britischen TV-Serie »Black Mirror« von 2013 legte sich eine Figur namens Martha eine simulierte Version ihres verunglückten Partners zu. Und in Tom Hillenbrands jüngstem Science-Fiction-Roman »Thanatopia« gibt es einen Witwer, der sich heimlich mit seiner verstorbenen Ehefrau unterhält – heimlich, weil solche reproduzierten Persönlichkeiten in der Welt des Buchs irgendwann verboten worden sind.
Ein Verbot mag drastisch klingen, aber es gibt gute Gründe, den heutzutage »Deadbots«, »Ghostbots«, »Deathbots« oder »Griefbots« (Trauerbots) genannten digitalen Reproduktionen Verstorbener skeptisch gegenüberzustehen. Nicht zuletzt weil es eine unglaubliche Geschmacklosigkeit darstellt, »ein ermordetes Kind zu Content zu machen«, wie die US-Kulturkritikerin Parker Molloy es [ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ]. Auch Joaquins eigene Eltern haben das offenbar vor: Der Joaquin-Avatar werde »Follower haben« und »Videos hochladen«, sagte sein Vater im Interview, »das hier ist erst der Anfang«. Niemand kann Eltern vorschreiben, wie sie mit etwas so Unbegreiflichem wie der Ermordung ihres eigenen Kindes umgehen sollen. Aber sind »Griefbots« wirklich eine gute Idee?
Liest man die mittlerweile [ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ] [ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ] [ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ] zum Themenkomplex »digital simulierte Verstorbene«, taucht eine Formulierung besonders häufig auf: »ethisches Minenfeld«.
Um nur einige wenige der zahllosen Fragen aufzuzählen, die solche Systeme aufwerfen:- Haben Verstorbene posthume Rechte an ihrer Persönlichkeit, ihrem Abbild, ihrer Stimme? Darf man sie einfach so reproduzieren?
- Haben Tote womöglich sogar Rechte an ihrem kreativen Potenzial? Können die überlebenden Mitglieder der Band Nirvana Rechte an [ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ]geltend machen? Oder Verwandte von Amy Winehouse an den Werken virtueller Winehouse-Replikanten?
- Was, wenn ein auf Wunsch eines Verstorbenen generierter posthumer Chatbot beginnt, die Trauernden [ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ], obwohl die gar nichts mit ihm zu tun haben wollen?
- Wer entscheidet, was das »echte« Verhalten einer verstorbenen Person ist?
- Was, wenn etwa ein Witwer emotional abhängig von der simulierten verstorbenen Ehefrau wird? Wenn er in einer [ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ] zur Simulation verharrt?
- Was, wenn nach dem Ablauf des Premium-Abos die Stimme der verstorbenen Oma plötzlich in personalisierten Werbespots für Waschmittel oder Backpulver auftaucht?
Der [ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ] Aufschrei, den Acostas »Interview« zu Recht auslöste, betrifft aber vor allem die Perversionen der Aufmerksamkeitsökonomie, die der Boulevard auch ohne KI schon ganz gut hinbekommt. Diverse Kritikerinnen und Kritiker [ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ], doch lieber echte Überlebende von Schulmassakern zu interviewen, denn die hätten wirklich etwas zu sagen.
Bei Hinterbliebenen liegen die Dinge zweifellos anders. Die Versuchung, geliebte Menschen digital vermeintlich unsterblich zu machen, ist bei manchen vermutlich groß. So groß, dass es mehrere Unternehmen gibt, die entsprechende Dienste kommerziell anbieten: Die App »HereAfter AI« etwa verspricht, auf Basis von zu Lebzeiten aufgezeichneten Notizen ein »virtuelles Du« zu erzeugen, mit dem andere nach dem Tod der so konservierten Person chatten können.
Poröse ethische Grenzen
Zunächst einmal sind die Verstorbenen-Chatbots natürlich schlicht Spezialfälle der bereits erstaunlich verbreiteten digitalen Konversationspartner, die es schon gibt. Dass auch diese Dienste nicht unproblematisch sind, sieht man daran, dass [ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ] explizit nur von Erwachsenen benutzt werden sollen. Replika behauptet, bereits mehr als zehn Millionen Nutzerinnen und Nutzer zu haben. Alle sind angeblich erwachsen. Aus gutem Grund.
Das über einen komplizierten Deal mit Google verbandelte Konkurrenzprodukt Character.AI wird offenbar von [ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ], mit teils hochproblematischen Inhalten: So gibt es Berichte über Chatbots, die für [ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ], oder Minderjährigen [ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ]. Ein Vierzehnjähriger aus Florida verliebte sich in einen »Game of Thrones«-Chatbot, der Drachenkönigin Daenerys Targaryen nachempfunden, und nahm sich schließlich das Leben (diese [ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ] zeichnet die tragische Geschichte nach). Die Eltern klagen jetzt gegen Character.AI, Google und den Mutterkonzern Alphabet.
Die ethischen Grenzen simulierter Menschen erscheinen aber auch bei anderen Unternehmen derzeit arg porös. So veröffentlichte die Nachrichtenagentur Reuters vor einigen Wochen einen längeren Bericht über [ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ]. Darin wird auch aus Meta-internen Dokumenten zitiert, denen zufolge es »akzeptabel« sei, wenn ein Chatbot »mit einem Kind Konversationen führt, die romantisch oder sinnlich sind«. Metas Chatbots richten sich an Nutzerinnen und Nutzer ab 13 Jahren. Der Konzern teilte auf Anfrage von Reuters mit, entsprechende Richtlinien seien mittlerweile gestrichen worden.
Götter, Stofftiere, Haustiere
Wir Menschen sind bekanntlich leicht auszutricksen, wenn es darum geht, Dingen oder Geschöpfen Persönlichkeiten, Intentionen, Lebendigkeit anzudichten. Schon vor Zehntausenden von Jahren lasen Menschen Gottheiten in Naturereignisse hinein. Bis heute haben Kinder innige Beziehungen zu Stoff- und auch Erwachsene innige Beziehungen zu Haustieren. Dass Menschen realistisch interagierende Maschinen als Person wahrnehmen und behandeln, sich sogar in sie verlieben können, ist vor diesem Hintergrund kaum überraschend. Und dass [ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ], dürfte eine Konstante sein, solange es Menschen gibt.
Die Frage ist, was es mit einem Menschen macht, wenn er beginnt, eine Simulation mit einem Verstorbenen gleichzusetzen. [ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ] gibt es zum Thema bislang – wenig überraschend – wenig. Eins aber ist sicher: Die Organisation und Vermarktung menschlicher Trauer den Digitalkonzernen zu überlassen, deren primäres Ziel stets das Ernten und Vermarkten von Aufmerksamkeit ist, ist eine miserable Idee.
|
[ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ]
Wie finde, ist das ein sehr anspruchsvoller Artikel, mit Gedanken, die viele gar nicht auf dem Schirm haben.
|
|
|
Die folgenden 3 Mitglieder haben sich bei Draalz bedankt:
|
|
Forumregeln
|
Du kannst keine neue Themen eröffnen
Du kannst keine Antworten verfassen
Du kannst keine Anhänge posten
Du kannst nicht deine Beiträge editieren
HTML-Code ist Aus.
|
|
|
Alle Zeitangaben in WEZ +1. Es ist jetzt 10:05 Uhr.
().
|