IDEAL-X
← KI-Glossar

KI-Glossar

Zero-Shot & Few-Shot Learning

Wie KI-Modelle Aufgaben lösen — ohne oder mit wenigen Beispielen vorab.

Zero-Shot und Few-Shot Learning beschreiben, wie KI-Modelle neue Aufgaben mit unterschiedlich vielen Beispielen bewältigen.

  • Zero-Shot: Nur Aufgabenbeschreibung, keine Beispiele — schnell, aber weniger präzise für spezifische Formate
  • Few-Shot: 1–5 Beispiele — deutlich bessere Ausgabequalität für definierte Strukturen
  • Many-Shot: Viele Beispiele — hochkonsistente Ergebnisse für komplexe Formate

Je mehr relevante Beispiele im Prompt enthalten sind, desto besser versteht das Modell das gewünschte Format — aber das ist kein dauerhaftes Lernen.

Zero-Shot vs. Few-Shot — wann was?

KriteriumZero-ShotFew-Shot
AufwandNiedrig — keine Beispiele nötigModerat — Beispiele vorbereiten
QualitätGut für allgemeine AufgabenBesser für spezifische Formate
Am besten fürZusammenfassungen, Übersetzungen, allgemeine FragenKlassifizierung, Datenextraktion, strukturierte Ausgaben
Token-KostenNiedrigHöher — Beispiele verbrauchen Kontext

Praktische Beispiele

Zero-Shot Prompt: Klassifiziere diese E-Mail als „Beschwerde”, „Anfrage” oder „Lob”: „Ihre Lieferung kam drei Tage zu spät und die Verpackung war beschädigt.” → Ausgabe: Beschwerde

Few-Shot Prompt: Klassifiziere E-Mails. Beispiele: „Wo ist meine Bestellung?” → Anfrage | „Tolles Produkt!” → Lob | „Artikel kam defekt” → Beschwerde. Klassifiziere: „Wann kommt meine Lieferung an?” → Ausgabe: Anfrage

Drei Anwendungen im Mittelstand

E-Mail-Klassifizierung: 3–5 Beispiele ermöglichen zuverlässige Kategorisierung ohne Training.

Datenextraktion: Few-Shot demonstriert das gewünschte JSON-Format für Rechnungen und Verträge.

Textzusammenfassung: Zero-Shot reicht oft; Few-Shot verbessert die Konsistenz.

Häufige Fragen

Wie unterscheidet sich Few-Shot von Fine-Tuning? Few-Shot übergibt Beispiele im Prompt — kein dauerhaftes Lernen. Fine-Tuning trainiert das Modell tatsächlich nach. Few-Shot ist sofort und kostenlos; Fine-Tuning erfordert mehr Aufwand, liefert aber Konsistenz in großem Maßstab.

Wie viele Beispiele sind optimal? Typischerweise 3–5 Beispiele. Qualität ist wichtiger als Menge; zu viele Beispiele können Kontext verschwenden und Musterfixierung verursachen.

Wann reicht Zero-Shot aus? Für allgemeine Zusammenfassungen, Übersetzungen oder einfache Antworten. Sobald spezifische Formate oder nicht offensichtliche Klassifizierungen gefragt sind, werden Beispiele wertvoll.

Was ist Chain-of-Thought? Chain-of-Thought (CoT) weist Modelle an, Schritt für Schritt zu denken — oft kombiniert mit Few-Shot-Beispielen, die Denkschritte enthalten. Das verbessert komplexe Denkaufgaben erheblich.

Verwandte Begriffe

KI konkret für Ihr Unternehmen einordnen

Wir besprechen Ihre Ausgangslage und zeigen, wo KI in Ihrem Kontext realistische Wirkung entfaltet.

Kostenloses Erstgespräch