myGully.com Boerse.SH - BOERSE.AM - BOERSE.IO - BOERSE.IM Boerse.BZ .TO Nachfolger
Zurück   myGully.com > Talk > News
Seite neu laden

[Internet] Microsofts Chat-Bot wird zum Rassisten

Willkommen

myGully

Links

Forum

 
 
 
Themen-Optionen Ansicht
Prev Vorheriger Beitrag   Nächster Beitrag Next
Ungelesen 24.03.16, 19:37   #1
Nomoran
♣ Operator ♣
 
Benutzerbild von Nomoran
 
Registriert seit: Aug 2011
Beiträge: 1.022
Bedankt: 1.019
Nomoran leckt gerne myGully Deckel in der Kanalisation! | 1592379 Respekt PunkteNomoran leckt gerne myGully Deckel in der Kanalisation! | 1592379 Respekt PunkteNomoran leckt gerne myGully Deckel in der Kanalisation! | 1592379 Respekt PunkteNomoran leckt gerne myGully Deckel in der Kanalisation! | 1592379 Respekt PunkteNomoran leckt gerne myGully Deckel in der Kanalisation! | 1592379 Respekt PunkteNomoran leckt gerne myGully Deckel in der Kanalisation! | 1592379 Respekt PunkteNomoran leckt gerne myGully Deckel in der Kanalisation! | 1592379 Respekt PunkteNomoran leckt gerne myGully Deckel in der Kanalisation! | 1592379 Respekt PunkteNomoran leckt gerne myGully Deckel in der Kanalisation! | 1592379 Respekt PunkteNomoran leckt gerne myGully Deckel in der Kanalisation! | 1592379 Respekt PunkteNomoran leckt gerne myGully Deckel in der Kanalisation! | 1592379 Respekt Punkte
Standard Microsofts Chat-Bot wird zum Rassisten

Microsofts Chat-Bot wird zum Rassisten

Zitat:


Tay heißt Microsofts künstliche Intelligenz, mit der sich unter anderem Twitter-Nutzer unterhalten können. Innerhalb der ersten 24 Stunden ihrer Existenz wandelte sich Tay jedoch recht schnell zum Rassisten - bis Microsoft offenbar den Stecker zog.

Mit Tay hat Microsoft eine künstliche Intelligenz vorgestellt, die sich selbstlernend auf Twitter, Groupme und Kik mit realen Personen unterhalten kann. Die KI soll vom Verhalten her an in den USA wohnende Menschen zwischen 18 und 24 Jahren angepasst sein.
Tay unterhält sich - und lässt sich beeinflussen

Auf Twitter lässt sich Tay mit @TayandYou direkt ansprechen, die Chat-KI antwortet anschließend. Aus den Gesprächen soll Tay lernen, Microsoft erhofft sich von dem Experiment Aufschluss über das Verstehen von Unterhaltungen. Als Grundlage für das Wissen von Tay dient "relevant public data", wie Microsoft es selbst nennt. Zudem sollen Improvisations-Komiker bei der Programmierung geholfen haben.

Nach knapp einem Tag auf Twitter ist das Projekt allerdings etwas aus dem Ruder gelaufen: Recht schnell hat sich Tay von verschiedenen Inhalten beeinflussen lassen, was mitunter zu stark rassistischen und frauenfeindlichen Tweets der KI geführt hat. Das liegt offenbar auch an der Tatsache, dass Tay auf Kommando einfach Tweets anderer Nutzer wiederholt, wie The Verge anmerkt.

So finden sich beispielsweise zahlreiche Tweets von Tay mit kontroversen Aussagen von Donald Trump, einem der republikanischen Präsidentschaftsanwärter. Besorgniserregender dürften allerdings diejenigen Tweets sein, die Tay von sich aus gepostet hat und die eindeutig als rassistisch und nazistisch einzustufen sind.
Totalitarismus und Feminismus

So stellt Tay unter anderem fest, dass der Komiker und Aktivist Ricky Gervais "Totalitarismus von Adolf Hitler" gelernt habe, "dem Erfinder von Atheismus". In anderen Tweets verwendet Tay Worte wie "Nigger" oder äußert sich antisemitisch. Auch wechselt Tay seine Meinungen mitunter schnell: Einmal ist er gegen Feminismus, ein anderes Mal dafür, auch zum Thema Transgender hat er wechselnde Meinungen.

Microsoft hat Tay mittlerweile offenbar vorerst abgeschaltet. In ihrer letzten Statusmitteilung erklärt die KI, dass sie jetzt erst einmal offline gehen müsse, um all die Eindrücke zu verarbeiten. Einige der rassistischen Tweets hat Microsoft mittlerweile gelöscht - eine Sammlung nicht mehr vorhandener Tweets findet sich unter anderem bei Socialhax.

Ein Fehlschlag muss das Experiment mit Tay allerdings nicht unbedingt sein: Es ist sicher interessant zu beobachten, wie schnell eine unbedarfte KI beeinflussbar ist und sich - basierend auf eigenen, als sinnvoll erachteten Analysen - plötzlich rassistisch äußert. Ob und wann Microsoft Tay wieder aktiviert, ist noch nicht bekannt.
Quelle: [ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ]


__________________

"Es gibt keine Nachrichten es gibt nur die Wahrheit des Signals"
Nomoran ist offline   Mit Zitat antworten
Die folgenden 7 Mitglieder haben sich bei Nomoran bedankt:
 


Forumregeln
Du kannst keine neue Themen eröffnen
Du kannst keine Antworten verfassen
Du kannst keine Anhänge posten
Du kannst nicht deine Beiträge editieren

BB code is An
Smileys sind An.
[IMG] Code ist An.
HTML-Code ist Aus.

Gehe zu


Alle Zeitangaben in WEZ +1. Es ist jetzt 07:06 Uhr.


Sitemap

().