DeepMind präsentiert SCoRe: LLMs korrigieren eigene Fehler mit Reinforcement Learning - IT BOLTWISE® x Artificial Intelligence

MÜNCHEN (IT BOLTWISE) – DeepMind stellt mit SCoRe eine neue Methode vor, die es großen Sprachmodellen (LLMs) ermöglicht, ihre eigenen Fehler zu erkennen und zu korrigieren, ohne auf externe Rückmeldungen angewiesen zu sein.



Forscher bei Google DeepMind haben mit Self-Correction via Reinforcement Learning (SCoRe) eine vielversprechende Technik entwickelt, die LLMs befähigt, ihre internen Fehler durch selbst generierte Daten zu korrigieren. Diese Innovation könnte die Robustheit und Zuverlässigkeit von LLMs erheblich steigern und neue Wege für deren Einsatz im Bereich der Problemlösung und des logischen Denkens eröffnen.

Aviral Kumar, ein Forschungswissenschaftler bei Google DeepMind, betonte die Bedeutung dieser Fähigkeit: „Selbstkorrektur ist eine Fähigkeit, die menschliches Denken maßgeblich verbessert. Wir möchten, dass LLMs in der Lage sind, ihre Antworten zu überdenken und zu verfeinern, bis sie die richtige Lösung finden.“

SCoRe unterscheidet sich von bisherigen Ansätzen, die oft externe Rückmeldungen oder das Training mit menschlichen Anmerkungen erforderten. Es nutzt Reinforcement Learning (RL), um Modelle zu trainieren, die ihre eigenen Fehler erkennen und korrigieren können, ohne auf externe Quellen angewiesen zu sein. Der entscheidende Vorteil: Das Modell wird ausschließlich mit selbst generierten Daten trainiert, was den Einsatz von SCoRe in realen Umgebungen vereinfacht.

Frühere Versuche der Selbstkorrektur basierten oft auf „Supervised Fine-Tuning“ (SFT), das auf Rückmeldungen von menschlichen Annotatoren angewiesen war. Diese Methoden zeigten jedoch Schwächen bei der Anpassung an komplexe Probleme, da sie das Modell nicht dazu brachten, seine Fehler über mehrere Schritte hinweg zu verbessern.

SCoRe hingegen setzt auf einen zweistufigen Lernprozess. In der ersten Phase wird die Korrekturleistung optimiert, während gleichzeitig sichergestellt wird, dass die anfänglichen Antworten des Modells nah an denen des Basismodells bleiben. In der zweiten Phase wird ein mehrstufiges RL eingesetzt, um sowohl die anfängliche Antwort als auch die nachfolgenden Verbesserungen zu belohnen. Dadurch lernt das Modell, seine Antworten signifikant zu verbessern.

Die Forscher testeten SCoRe in Bereichen wie Mathematik und Codierung und verglichen es mit anderen Selbstkorrekturmethoden. SCoRe erzielte beeindruckende Ergebnisse: Auf dem MATH-Benchmark konnte es die Selbstkorrekturfähigkeit um 15,6 % steigern, bei HumanEval um 9,1 %, was es anderen Methoden deutlich überlegen machte.

Ein weiterer Vorteil von SCoRe ist seine Fähigkeit, die Inferenz-Zeit effizient zu skalieren. Durch eine Aufteilung des Inferenzbudgets über mehrere Korrekturschritte konnte das Modell noch bessere Ergebnisse erzielen.

Laut den Forschern könnte SCoRe zukünftig nicht nur bei Codierungs- und Denkaufgaben nützlich sein, sondern auch in sicherheitskritischen Bereichen eingesetzt werden. „Man könnte Modelle lehren, ihre Outputs zu überprüfen und zu verbessern, bevor sie dem Nutzer präsentiert werden“, so Kumar. Dies könnte die Sicherheit und Zuverlässigkeit von KI-Systemen erheblich steigern.

Mit SCoRe liefert DeepMind einen wichtigen Beitrag zur Weiterentwicklung von KI-Systemen und hebt die Bedeutung der Selbstkorrektur für eine erfolgreiche Problemlösung hervor. Die Ergebnisse zeigen, dass selbstgenerierte Daten und RL effektive Mittel sind, um LLMs robuster und präziser zu machen.

DeepMind präsentiert SCoRe: LLMs korrigieren eigene Fehler mit Reinforcement Learning
DeepMind präsentiert SCoRe: LLMs korrigieren eigene Fehler mit Reinforcement Learning (Foto: DALL-E, IT BOLTWISE)
Hinweis: Teile dieses Textes könnten mithilfe Künstlicher Intelligenz generiert worden sein.



Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de
Stichwörter
Alle Märkte in Echtzeit verfolgen - 30 Tage kostenlos testen!


#Abo
LinkedIn
Facebook
Twitter
#Podcast
YouTube
Spotify
Apple

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert



Es werden alle Kommentare moderiert!

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.

Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.

Du willst nichts verpassen?

Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.