myGully.com Boerse.SH - BOERSE.AM - BOERSE.IO - BOERSE.IM Boerse.BZ .TO Nachfolger
Zurück   myGully.com > Talk > Politik, Umwelt & Gesellschaft
Seite neu laden

KÜNSTLICHE INTELLIGENZ „Algorithmen sind wie Drogen“

Willkommen

myGully

Links

Forum

 
Antwort
Themen-Optionen Ansicht
Ungelesen 02.12.22, 13:53   #1
TinyTimm
Legende
 
Benutzerbild von TinyTimm
 
Registriert seit: Aug 2011
Ort: in der Wildnis
Beiträge: 15.633
Bedankt: 34.760
TinyTimm leckt gerne myGully Deckel in der Kanalisation! | 2147483647 Respekt PunkteTinyTimm leckt gerne myGully Deckel in der Kanalisation! | 2147483647 Respekt PunkteTinyTimm leckt gerne myGully Deckel in der Kanalisation! | 2147483647 Respekt PunkteTinyTimm leckt gerne myGully Deckel in der Kanalisation! | 2147483647 Respekt PunkteTinyTimm leckt gerne myGully Deckel in der Kanalisation! | 2147483647 Respekt PunkteTinyTimm leckt gerne myGully Deckel in der Kanalisation! | 2147483647 Respekt PunkteTinyTimm leckt gerne myGully Deckel in der Kanalisation! | 2147483647 Respekt PunkteTinyTimm leckt gerne myGully Deckel in der Kanalisation! | 2147483647 Respekt PunkteTinyTimm leckt gerne myGully Deckel in der Kanalisation! | 2147483647 Respekt PunkteTinyTimm leckt gerne myGully Deckel in der Kanalisation! | 2147483647 Respekt PunkteTinyTimm leckt gerne myGully Deckel in der Kanalisation! | 2147483647 Respekt Punkte
Standard KÜNSTLICHE INTELLIGENZ „Algorithmen sind wie Drogen“

Zitat:
Die Algorithmen von sozialen Netzwerken bevorzugen ******* Positionen. Sie verändern unser Urteilsvermögen wie Drogen und polarisieren die Gesellschaft, sagt der renommierte Künstliche-Intelligenz-Forscher Stuart Russell im ORF-Interview. Er untersucht die Algorithmen empirisch – und empfiehlt dringend, sie zu regulieren.

Streaming-, Shoppingplattformen, soziale Netzwerke: Ohne Empfehlungsalgorithmen, die auf Basis unseres Verhaltens in der Vergangenheit Neues vorschlagen, ist das Internet heute nicht mehr denkbar. Und Empfehlungsalgorithmen sind ohne Methoden künstlicher Intelligenz (KI), maschinelles Lernen, nicht denkbar. Diese Algorithmen hätten mehr Kontrolle über die menschliche Wahrnehmung und das Denken als jeder Diktator es je hatte, glaubt der Informatiker Stuart Russell, einer der bekanntesten KI-Forscher weltweit. Sie kontrollieren, was Milliarden von Menschen jeden Tag stundenlang lesen, sehen und lernen. Aber sie sind derzeit völlig unreguliert. Und wir wissen noch sehr wenig darüber, welche Auswirkungen sie auf die Menschen haben.

Dass Firmen wie Meta und Google durch riesige Datensammlungen und ausgeklügelte Algorithmen sehr viel Macht über uns haben, ist mittlerweile eine Binsenweisheit. Sie aber gehen noch einen Schritt weiter. Sie sagen, dass uns solche Systeme manipulieren und polarisieren, weil sie so designt wurden.

Stuart Russell: Ich sage nicht, dass Unternehmen bewusst Systeme bauen, die uns radikalisieren. Das ist eher ein Nebeneffekt des Designs. Ihr eigentliches Ziel besteht darin zu maximieren: unser Engagement, also die Zeit, die wir auf Plattformen verbringen, die Anzahl der Clicks auf Artikel oder Anzeigen. Damit machen die Plattformen Geld. Und dieses Ziel hat allerhöchste Priorität. Die Algorithmen haben keine Vorstellung, dass wir Nutzer menschliche Wesen sind, die ein Gehirn haben und sich damit Meinungen bilden. Sie sind einfach nur ein Ergebnis von Empfehlungen und Klicks. Haben Sie auf eine Empfehlung reagiert, lernen Algorithmen daraus und leiten ab, was sie Ihnen als Nächstes empfehlen. Auf lange Sicht werden Sie ein maximales Engagement mit dem System haben. Aber das System lernt Sie nicht nur besser kennen, es manipuliert auch. Es versucht, Sie berechenbarer zu machen, um die Trefferquote zu verbessern, und das geschieht am effizientesten, indem Sie das System radikalisiert.

Das klingt schon ordentlich nach Science Fiction. Bitte erklären Sie das!
Russell: Algorithmen sortieren uns den ganzen Tag nach vielen verschiedenen Datenpunkten. Sie wollen uns so gut kennenlernen wie möglich, um uns die besten Ergebnisse zu liefern, so würden es Techfirmen ausdrücken. Sie stecken uns also in Schubladen, aber das ist noch nicht alles. Sie versuchen uns an die jeweilige ******* Ecke einer Schublade zu bringen. Das ist bisher lediglich eine Hypothese, es gibt dazu noch zu wenig Forschung – allerdings viele anekdotische Beispiele. Jemand, der in seinen Ansichten *******r ist, das kann ein Neofaschist sein oder eine Ökoterroristin, ist in seinen Reaktionen auf Informationen vorhersehbarer. Das ist die zentrale These, die es zu überprüfen gilt.

Und haben Sie schon Anhaltspunkte?

Russell: Wir konnten das schon in Simulationen zeigen. Wir haben Vereinbarungen mit einigen Plattformen ausgehandelt, um Zugang zu internen Daten zu bekommen, damit wir Experimente durchführen können, um unsere Hypothese zu überprüfen und Techniken zur erarbeiten, die diese Manipulationseffekte beschränken.

Sie leben und unterrichten in Berkeley, also fast im Silicon Valley. Ist diese Manipulationsthese dort bereits Allgemeinwissen für Menschen, die in Techfirmen arbeiten oder es anstreben?

Russell: Wenn ich das in Präsentationen erkläre, sind die meisten Leute ziemlich überrascht. Sie sind mit der Idee Filterblase vertraut – auch ein angenommener Effekt von Algorithmen. Je mehr man jemandem Infos schickt, für die er sich bereits interessiert, umso enger wird sein Fokus. Aber wovon ich spreche, ist viel ernster als die Filterblase. Es geht darum, Menschen zu verändern, politisch und in Fragen ihrer Einstellungen in eine Richtung zu bewegen. Der Algorithmus will nur, dass Sie berechenbarer werden.

Was lässt sich tun?

Russell: Ich möchte vorher noch einen Punkt ansprechen, der mir wichtig ist. Wir müssen uns ausführlicher mit unserem Begriff von Manipulation auseinandersetzen. Manipulation hat ja einen eindeutig negativen Beigeschmack. Aber es gibt viele Arten der Manipulation, die wir als positiv ansehen, einschließlich der Bildung. Wenn ich einen Roman lese und er mich so in seinen Bann zieht, dass ich ihn nicht weglegen kann, manipuliert er mich dann auch? Sollte er verboten sein, weil er zu viel Macht über mich hat? Das sind schwierige Fragen, und es kommt noch etwas Wichtiges hinzu. Jemand, der erfolgreich manipuliert wurde, merkt das selten. Niemand sagt: Oh mein Gott, ich bin ein Neofaschist. Ich werde Facebook verklagen, weil es mich zu einem Neofaschisten gemacht hat, richtig? Es ist eines der schwierigsten Probleme in der Philosophie und Politik: Prozesse zu verstehen, die die Ansichten, Einstellungen und Wünsche der Menschen verändern.

Ist es nicht illusorisch, Manipulation eindeutig feststellen zu wollen? Wenn ich sage, du wurdest manipuliert, du willst das gar nicht selber, stelle ich mich ja über dich. Und warum sollte ich besser wissen, dass du manipuliert wurdest?

Russell: Ich denke, es gibt Möglichkeiten, das objektiv festzustellen. Wenn zum Beispiel eine Information unwahr ist. Eine der häufigsten Formen der Manipulation ist die absichtliche Desinformation. Die Produktion von „Fake News“ ist inzwischen weltweit zu einer großen Industrie geworden. Aber es gibt auch andere Arten der Manipulation, wie zum Beispiel die Aufforderung, patriotischer zu sein. Patriotismus kann ja etwas Schönes sein, aber oft führt er zu Krieg, Rassismus und anderen Übeln.

Wie lässt sich regulierend eingreifen?

Russell: Unternehmen arbeiten heute mit bestimmten Arten von KI, wir nennen es Verstärkungslernen – ein Verstärkungslernalgorithmus, durch den das System selbstständig lernt, ohne dass suboptimale Aktionen explizit korrigiert werden. Das System findet heraus, wie es am effizientesten an ein Ziel gerät, etwa Click-Zahlen zu maximieren. Wir könnten damit beginnen zu verbieten, dass solche Systeme direkt mit Menschen interagieren. Und wir können Algorithmen durchaus mit Drogen vergleichen. Ich meine nicht gleichsetzen, aber sie können so wie Drogen unser Urteilsvermögen verändern. Niemand, der drogenabhängig wurde, hat es darauf angelegt, als er das erste Mal Drogen konsumierte. Drogen verändern die Vorlieben und Verhaltensweisen von Menschen. Und aus diesem Grund werden sie reguliert, weil sie schädliche Auswirkungen haben. Im Falle von Algorithmen ist die schädliche Wirkung für den Einzelnen nicht eindeutig feststellbar, sie liegen auf gesellschaftlicher Ebene. Polarisierung ist keine Eigenschaft eines Individuums, sie ist die einer Gesellschaft. Ich denke, dass Regierungen durchaus ein Interesse an der Regulierung haben müssen.
Quelle: [ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ]


Stuart Russell wurde schon Hohepriester der KI-Forschung genannt. Der Brite forscht und lehrt seit den 80er Jahren an der University of California in Berkeley. Er ist Autor mehrer Bücher über künstliche Intelligenz. Gemeinsam mit Peter Norvig schrieb er das Buch „Artificial Intelligence: A Modern Approach“. Es gehört zu den meistzitierten Büchern in der Informatik.
__________________
TinyTimm ist offline   Mit Zitat antworten
Die folgenden 2 Mitglieder haben sich bei TinyTimm bedankt:
Draalz (02.12.22), karfingo (02.12.22)
Ungelesen 02.12.22, 14:39   #2
karfingo
Streuner
 
Benutzerbild von karfingo
 
Registriert seit: Aug 2013
Beiträge: 11.106
Bedankt: 13.092
karfingo leckt gerne myGully Deckel in der Kanalisation! | 2147483647 Respekt Punktekarfingo leckt gerne myGully Deckel in der Kanalisation! | 2147483647 Respekt Punktekarfingo leckt gerne myGully Deckel in der Kanalisation! | 2147483647 Respekt Punktekarfingo leckt gerne myGully Deckel in der Kanalisation! | 2147483647 Respekt Punktekarfingo leckt gerne myGully Deckel in der Kanalisation! | 2147483647 Respekt Punktekarfingo leckt gerne myGully Deckel in der Kanalisation! | 2147483647 Respekt Punktekarfingo leckt gerne myGully Deckel in der Kanalisation! | 2147483647 Respekt Punktekarfingo leckt gerne myGully Deckel in der Kanalisation! | 2147483647 Respekt Punktekarfingo leckt gerne myGully Deckel in der Kanalisation! | 2147483647 Respekt Punktekarfingo leckt gerne myGully Deckel in der Kanalisation! | 2147483647 Respekt Punktekarfingo leckt gerne myGully Deckel in der Kanalisation! | 2147483647 Respekt Punkte
Standard

Das ist die Abhängigkeit von Reklame und Idiologien. Statt selbst kreativ zu leben, werden Vorbilder nachgelebt.
karfingo ist offline   Mit Zitat antworten
Folgendes Mitglied bedankte sich bei karfingo:
Draalz (02.12.22)
Antwort


Forumregeln
Du kannst keine neue Themen eröffnen
Du kannst keine Antworten verfassen
Du kannst keine Anhänge posten
Du kannst nicht deine Beiträge editieren

BB code is An
Smileys sind An.
[IMG] Code ist An.
HTML-Code ist Aus.

Gehe zu


Alle Zeitangaben in WEZ +1. Es ist jetzt 04:49 Uhr.


Sitemap

().