🤓

RLHF: Training mit menschlichem Feedback

Wie KI-Modelle durch menschliche Bewertungen weiter verfeinert werden

Von Finetuning zu RLHF
Warum auch finegetunte Modelle noch zusätzliches Training benötigen

Nach dem Finetuning sind KI-Modelle bereits in der Lage, als Assistenten zu fungieren. Allerdings zeigen sie manchmal noch problematisches Verhalten:

  • Sie können schädliche oder gefährliche Inhalte produzieren
  • Sie sind manchmal unehrlich und behaupten Dinge, die nicht stimmen
  • Sie verstehen nicht immer, was für Menschen wirklich hilfreich ist
  • Sie können voreingenommen sein und bestimmte Perspektiven bevorzugen

RLHF: Reinforcement Learning from Human Feedback

RLHF ist ein Prozess, bei dem menschliche Bewerter unterschiedliche Antworten eines KI-Modells ranken. Diese Bewertungen werden dann verwendet, um ein Belohnungsmodell zu trainieren, das vorhersagt, welche Antworten Menschen als hilfreich, harmlos und ehrlich bewerten würden.

Anschließend wird das KI-Modell mit Reinforcement Learning optimiert, um Antworten zu generieren, die vom Belohnungsmodell höher bewertet werden.

Dieser Prozess hilft dem Modell, komplexe menschliche Werte wie Hilfsbereitschaft und Sicherheit besser zu verstehen, die schwer explizit zu programmieren sind. RLHF ist ein wichtiger Schritt, um KI-Systeme zu entwickeln, die im Einklang mit menschlichen Werten handeln.

RLHF-Prozess simulieren
Erlebe, wie menschliches Feedback KI-Antworten verbessert

Klicke auf "Simulation starten", um den RLHF-Prozess zu erleben

Du wirst verschiedene KI-Antworten bewerten, einen Eindruck vom Belohnungsmodell bekommen und sehen, wie sich die Antworten nach dem RLHF-Training verbessern.