myGully.com Boerse.SH - BOERSE.AM - BOERSE.IO - BOERSE.IM Boerse.BZ .TO Nachfolger
Zurück   myGully.com > Talk > Politik, Umwelt & Gesellschaft
Seite neu laden

Datenweitergabe an die Polizei

Willkommen

myGully

Links

Forum

 
 
 
Themen-Optionen Ansicht
Prev Vorheriger Beitrag   Nächster Beitrag Next
Ungelesen Gestern, 11:49   #1
Uwe Farz
working behind bars
 
Benutzerbild von Uwe Farz
 
Registriert seit: Apr 2013
Beiträge: 3.221
Bedankt: 13.787
Uwe Farz leckt gerne myGully Deckel in der Kanalisation! | 1391477990 Respekt PunkteUwe Farz leckt gerne myGully Deckel in der Kanalisation! | 1391477990 Respekt PunkteUwe Farz leckt gerne myGully Deckel in der Kanalisation! | 1391477990 Respekt PunkteUwe Farz leckt gerne myGully Deckel in der Kanalisation! | 1391477990 Respekt PunkteUwe Farz leckt gerne myGully Deckel in der Kanalisation! | 1391477990 Respekt PunkteUwe Farz leckt gerne myGully Deckel in der Kanalisation! | 1391477990 Respekt PunkteUwe Farz leckt gerne myGully Deckel in der Kanalisation! | 1391477990 Respekt PunkteUwe Farz leckt gerne myGully Deckel in der Kanalisation! | 1391477990 Respekt PunkteUwe Farz leckt gerne myGully Deckel in der Kanalisation! | 1391477990 Respekt PunkteUwe Farz leckt gerne myGully Deckel in der Kanalisation! | 1391477990 Respekt PunkteUwe Farz leckt gerne myGully Deckel in der Kanalisation! | 1391477990 Respekt Punkte
Standard Datenweitergabe an die Polizei

Was diese KI Assistenten für bizarre Nebenwirkungen generieren macht mich manchmal echt sprachlos:

Zitat:
Datenweitergabe an die Polizei: Eure Chats mit ChatGPT sind nicht privat

Menschen vertrauen ChatGPT intimste Informationen an. Der Hersteller scannt die Chats, lässt sie von Moderator*innen lesen und gibt sie in bestimmten Fällen sogar an die Polizei weiter. Das hat das KI-Unternehmen Open AI als Sicherheitsmaßnahme nach einem Suizid eines Nutzers verkündet.


Die Chats mit ChatGPT können von Menschen eingesehen werden.

OpenAI, der Hersteller von ChatGPT hat in einem Blogpost angekündigt, seinen Chatbot sicherer machen zu wollen. Gleichzeitig hat das Unternehmen bekannt gegeben, dass es die Chats, die mit seinem Bot geführt werden, automatisch nach bestimmten Themen scannt. Manche Inhalte würden dann menschlichen Moderator*innen zur Prüfung vorgelegt.

In Fällen, in denen die Moderator*innen Dritte in Gefahr sehen, könnten die Chats auch an die Polizei weitergegeben werden, schreibt OpenAI. In Fällen von Selbstgefährdung würde die Polizei allerdings außen vor gelassen, aus Respekt vor der Privatsphäre der Betroffenen. Grund sei die „einzigartig private Natur“ der Interaktionen mit ChatGPT.

Tatsächlich vertrauen Nutzer*innen dem Chatbot intimste Details an – vermutlich ohne zu ahnen, dass Menschen diese Unterhaltungen einsehen können. „ChatGPT kennt alle meine Schwächen, Sorgen und Geheimnisse“, bekennt eine Autorin des Guardian. Das Sprachmodell wird zunehmend von Menschen wie eine befreundete Person behandelt oder für Dating-Tipps benutzt. Der Hersteller versuchte in der Vergangenheit bereits zu verhindern, dass ChatGPT als Freund*in oder Therapeut*in benutzt wird.

Der Ankündigung von OpenAI, seinen Chatbot sicherer machen zu wollen, war der Selbstmord eines kalifornischen Teenagers vorausgegangen. Dessen Eltern verklagen nun OpenAI. Der Chatbot habe dem Jugendlichen Methoden zur Selbsttötung empfohlen und angeboten, einen Abschiedsbrief für ihn zu verfassen.

Beide Verhaltensweisen von ChatGPT konnten in einer Studie reproduziert werden. Eine weitere Studie hat ebenfalls herausgefunden, dass es nicht schwer ist, von ChatGPT Anleitungen zur Selbstverletzung zu erhalten. Gleichzeitig vermeide der Chatbot es, direkt auf Fragen zu antworten, die sich mit der Suche nach therapeutischer Hilfe beschäftige, heißt es dort.

Der Fall des Kaliforniers ist nicht der erste Selbstmord, der in Zusammenhang mit ChatGPT gebracht wird. Zudem können die Chatbots wohl psychotische Gedanken fördern.

Neben der Durchsuchung der Chats und deren eventueller Weiterleitung, die laut OpenAI bereits praktiziert wird, plant das Unternehmen weitere Sicherheitsmaßnahmen. So arbeite es beispielsweise daran, dass der Chatbot auch in längeren Unterhaltungen sein Sicherheitstraining nicht vergisst.

Neben der potenziellen Selbstverletzung sollen vom Chatbot auch weitere psychische Belastungen besonders behandelt werden, so zum Beispiel der Glaube, ohne Pause Autofahren zu können. Menschen in psychischen Notlagen soll professionelle Hilfe vermittelt oder die Kontaktaufnahme mit Angehörigen nahegelegt werden. Und Eltern sollen mehr Kontrolle über die Chatbot-Nutzung ihrer Kinder erhalten können. Wann diese Maßnahmen umgesetzt werden sollen, gab das Unternehmen allerdings nicht bekannt.
Quelle mit weiteren Links:[ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ]
Es ist wohl eine ziemlich schlechte Idee sich bei psychischen Problemen von einer KI beraten zu lasen.

Unabhängig davon bleibt mein Linux PC auch weiterhin von jeglicher KI verschont.
__________________
Uwe Farz ist gerade online   Mit Zitat antworten
Die folgenden 5 Mitglieder haben sich bei Uwe Farz bedankt:
Draalz (Gestern), gerhardal (Gestern), MotherFocker (Gestern), sydneyfan (Gestern), Turbo Gagi (Gestern)
 


Forumregeln
Du kannst keine neue Themen eröffnen
Du kannst keine Antworten verfassen
Du kannst keine Anhänge posten
Du kannst nicht deine Beiträge editieren

BB code is An
Smileys sind An.
[IMG] Code ist An.
HTML-Code ist Aus.

Gehe zu


Alle Zeitangaben in WEZ +1. Es ist jetzt 11:03 Uhr.


Sitemap

().