myGully.com Boerse.SH - BOERSE.AM - BOERSE.IO - BOERSE.IM Boerse.BZ .TO Nachfolger
Zurück   myGully.com > Talk > News
Seite neu laden

[Technik] Konkurrenz zu ChatGPT: Dolly 2.0 ist ein komplett quelloffener Sprachgenerator

Willkommen

myGully

Links

Forum

 
Antwort
Themen-Optionen Ansicht
Ungelesen 17.04.23, 10:11   #1
ziesell
das Muster ist das Muster
 
Registriert seit: Apr 2011
Ort: Schwarzwald
Beiträge: 2.890
Bedankt: 3.279
ziesell leckt gerne myGully Deckel in der Kanalisation! | 218935826 Respekt Punkteziesell leckt gerne myGully Deckel in der Kanalisation! | 218935826 Respekt Punkteziesell leckt gerne myGully Deckel in der Kanalisation! | 218935826 Respekt Punkteziesell leckt gerne myGully Deckel in der Kanalisation! | 218935826 Respekt Punkteziesell leckt gerne myGully Deckel in der Kanalisation! | 218935826 Respekt Punkteziesell leckt gerne myGully Deckel in der Kanalisation! | 218935826 Respekt Punkteziesell leckt gerne myGully Deckel in der Kanalisation! | 218935826 Respekt Punkteziesell leckt gerne myGully Deckel in der Kanalisation! | 218935826 Respekt Punkteziesell leckt gerne myGully Deckel in der Kanalisation! | 218935826 Respekt Punkteziesell leckt gerne myGully Deckel in der Kanalisation! | 218935826 Respekt Punkteziesell leckt gerne myGully Deckel in der Kanalisation! | 218935826 Respekt Punkte
Standard Konkurrenz zu ChatGPT: Dolly 2.0 ist ein komplett quelloffener Sprachgenerator

Zitat:
Konkurrenz zu ChatGPT: Dolly 2.0 ist ein komplett quelloffener Sprachgenerator

Das KI-Team von Databricks hat für Dolly 2.0 viele Tausend Menschen beauftragt, das Modell manuell zu kalibrieren. Es ist zudem Open Source.



Das KI-Team von Databricks hat den Sprachgenerator Dolly 2.0 veröffentlicht. Es soll wie ChatGPT und Llama für das Generieren und Verstehen von Sprachen in Textform genutzt werden können. Der Unterschied zu ChatGPT ist allerdings klar: Dolly 2.0 soll komplett Open Source gestellt werden und auch eine kommerzielle Nutzung erlauben. Es kann daher noch mehr als das geleakte Llama, welches nicht für die kommerzielle Nutzung freigegeben wurde, für diverse Projekte verwendet werden (via Ars Technica).

Konkret stehen die zwei Teile von Dolly 2.0 unter einer Creative-Commons-Lizenz (CC-BY-SA). Außerdem mussten die Entwickler einen komplett neuen Datensatz erschaffen, da die erste Version von Dolly teilweise auf ChatGPT-Antworten basierte und deshalb den Geschäftsbedingungen von OpenAI unterlag. Dazu wurden 5.000 Personen beschäftigt, die Daten generieren sollten. Die resultierende Databricks-Dolly-15k-Sammlung besteht aus mehr als 15.000 manuell angepassten Aufzeichnungen.

Ein besser zugängliches Modell

Das darauf aufbauende Sprachmodell Dolly-v2-12b kann aus 12 Milliarden Parametern Texte interpretieren und generieren. Das Modell ist also weit weniger komplex als etwa ChatGPT (175 Milliarden) oder die größeren Versionen von Llama (maximal 65 Milliarden). Vergangene Experimente mit Metas Llama-Modell mit 7 Milliarden Parametern haben aber gezeigt, dass auch damit zufriedenstellende, wenn auch manchmal nicht perfekte Resultate erzielt werden können.

Auch wenn Dolly 2.0 dadurch eventuell ungenauer arbeitet, könnte es bei diversen privaten und kommerziellen Projekten hilfreich sein. Das kann bereits innerhalb der AI-Community beobachtet werden, die mit dem geleakten Llama-Modell schon diverse eigene Projekte realisieren konnte. Das Modell von Databricks ist für den KI-Forscher Simon Willson auch interessant, da es von Menschen kalibriert wurde. Auf Mastodon nennt er das neue Modell deshalb eine große Sache.

[ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ]
ziesell ist offline   Mit Zitat antworten
Folgendes Mitglied bedankte sich bei ziesell:
karfingo (17.04.23)
Antwort


Forumregeln
Du kannst keine neue Themen eröffnen
Du kannst keine Antworten verfassen
Du kannst keine Anhänge posten
Du kannst nicht deine Beiträge editieren

BB code is An
Smileys sind An.
[IMG] Code ist An.
HTML-Code ist Aus.

Gehe zu


Alle Zeitangaben in WEZ +1. Es ist jetzt 16:06 Uhr.


Sitemap

().