myGully.com Boerse.SH - BOERSE.AM - BOERSE.IO - BOERSE.IM Boerse.BZ .TO Nachfolger
Zurück   myGully.com > Talk > News
Seite neu laden

[Technik] GPT-4: OpenAI will KI bestimmen lassen, was Menschen teilen dürfen

Willkommen

myGully

Links

Forum

 
Antwort
Themen-Optionen Ansicht
Ungelesen 17.08.23, 06:38   #1
ziesell
das Muster ist das Muster
 
Registriert seit: Apr 2011
Ort: Schwarzwald
Beiträge: 2.905
Bedankt: 3.317
ziesell leckt gerne myGully Deckel in der Kanalisation! | 218935826 Respekt Punkteziesell leckt gerne myGully Deckel in der Kanalisation! | 218935826 Respekt Punkteziesell leckt gerne myGully Deckel in der Kanalisation! | 218935826 Respekt Punkteziesell leckt gerne myGully Deckel in der Kanalisation! | 218935826 Respekt Punkteziesell leckt gerne myGully Deckel in der Kanalisation! | 218935826 Respekt Punkteziesell leckt gerne myGully Deckel in der Kanalisation! | 218935826 Respekt Punkteziesell leckt gerne myGully Deckel in der Kanalisation! | 218935826 Respekt Punkteziesell leckt gerne myGully Deckel in der Kanalisation! | 218935826 Respekt Punkteziesell leckt gerne myGully Deckel in der Kanalisation! | 218935826 Respekt Punkteziesell leckt gerne myGully Deckel in der Kanalisation! | 218935826 Respekt Punkteziesell leckt gerne myGully Deckel in der Kanalisation! | 218935826 Respekt Punkte
Standard GPT-4: OpenAI will KI bestimmen lassen, was Menschen teilen dürfen

Zitat:
GPT-4: OpenAI will KI bestimmen lassen, was Menschen teilen dürfen

Die Moderation von Nutzerinhalten stellt Unternehmen seit jeher vor große Herausforderungen. OpenAI will dafür eine Lösung haben: GPT-4.



Der ChatGPT-Entwickler OpenAI will mit dem Sprachmodell GPT-4 die Moderation von nutzergenerierten Inhalten auf Onlineplattformen in großem Maßstab bewältigen können. Bisher stellt diese Aufgabe nicht nur große Tech-Konzerne, sondern vor allem auch kleinere Dienstanbieter vor größere Herausforderungen, da eine akkurate Inhaltsmoderation oftmals die Beschäftigung einer Vielzahl von Moderatoren erfordert.

Wie aus einem Bericht von The Verge hervorgeht, will OpenAI menschliche Moderatoren nicht nur durch GPT-4 ersetzen können, sondern nennt obendrein einige Vorteile, die mit dem Einsatz der Technologie einhergehen.

GPT-4 ist menschlichen Moderatoren in einigen Aspekten überlegen

Als einen dieser Vorteile nennt das Unternehmen die konsistentere Einhaltung von Richtlinien. Während Menschen das jeweilige Regelwerk unterschiedlich interpretieren und Änderungen daran zeitaufwendig neu erlernen müssen, sei eine KI in ihren Urteilen konsistent und könnte neue Richtlinien unmittelbar umsetzen. Hinzu komme, dass GPT-4 dabei helfen könne, neue Regeln zu definieren und Anwenderfeedback dazu schneller zu verarbeiten. Dieser Prozess nehme normalerweise Wochen oder gar Monate in Anspruch, während er sich anhand einer KI auf Stunden reduzieren lasse.

Ein dritter Vorteil, den OpenAI anführt, dreht sich schließlich um die psychische Verfassung des Personals, das bisher für die Inhaltsmoderation zuständig ist. So seien Moderatoren ständig schädlichen oder anstößigen Inhalten wie Videos von Kindesmissbrauch oder Folter ausgesetzt, was in emotionaler Erschöpfung und psychischem Stress münde. Für das Wohlbefinden dieser Menschen sei es wichtig, dass die Inhaltsmoderation künftig automatisiert erfolge.

Inhaltsmoderation ist keine leichte Aufgabe

Im Grunde setzen große Plattformen wie Facebook, Youtube oder Tiktok schon seit Jahren auf automatisierte Systeme, um nutzergenerierte Inhalte zu moderieren. Dennoch sind diese Systeme alles andere als fehlerfrei, so dass Menschen noch immer viele Beiträge manuell überprüfen müssen. Das gilt sowohl für Inhalte, die fälschlicherweise gesperrt wurden, als auch für jene, die eindeutig gegen die Richtlinien verstoßen, aber trotz automatisierter Kontrolle dennoch öffentlich sichtbar geblieben sind.

Besonders herausfordernd seien laut The Verge jene Beiträge, die sich in einer Grauzone bewegen und bei denen nicht unmittelbar klar sei, ob sie nun regelkonform sind oder nicht. Dazu gehören Satire-Inhalte oder Dokumentationen über Verbrechen und Gewalt. Selbst menschlichen Moderatoren falle es oftmals schwer, diese richtig einzuschätzen – die Fehlerrate von Maschinen falle entsprechend hoch aus. Diesbezüglich bleibt abzuwarten, ob OpenAI mit seiner GPT-4-basierten Lösung tatsächlich in der Lage ist, bessere Ergebnisse zu liefern.
[ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ]
ziesell ist offline   Mit Zitat antworten
Antwort


Forumregeln
Du kannst keine neue Themen eröffnen
Du kannst keine Antworten verfassen
Du kannst keine Anhänge posten
Du kannst nicht deine Beiträge editieren

BB code is An
Smileys sind An.
[IMG] Code ist An.
HTML-Code ist Aus.

Gehe zu


Alle Zeitangaben in WEZ +1. Es ist jetzt 05:36 Uhr.


Sitemap

().