Ein Large Language Model (LLM, deutsch: großes Sprachmodell) ist ein neuronales Netz, das auf gigantischen Mengen Text trainiert wurde — typischerweise Hunderte Milliarden bis Billionen Wörter aus Büchern, Websites, wissenschaftlichen Arbeiten und Code-Repositories. Das Ziel: menschliche Sprache verstehen, fortsetzen und produzieren. ChatGPT (GPT-4, GPT-5), Claude (Anthropic), Gemini (Google) und LLaMA (Meta) sind die bekanntesten LLMs 2026.
Wie ein LLM funktioniert (vereinfacht)
Im Kern macht ein LLM eine einzige Aufgabe: das wahrscheinlichste nächste Wort vorhersagen. Aus „Die Hauptstadt von Deutschland ist…" sagt das Modell „Berlin". Daraus, dass diese Vorhersage wieder und wieder gemacht wird, entstehen ganze Sätze, Absätze, Aufsätze. Klingt simpel — und doch entstehen daraus überraschend kohärente Texte, weil das Modell während des Trainings unzählige sprachliche Muster, Fakten und Logiken absorbiert hat.
Größe und Parameter
LLMs werden in Parametern gemessen — den Gewichten im neuronalen Netz. GPT-3 hatte 175 Milliarden Parameter, GPT-4 schätzungsweise über 1 Billion, neuere Modelle wie GPT-5 noch mehr. Aber: mehr Parameter heißen nicht automatisch besser. Architektur, Trainingsdaten und Feintuning sind ebenso wichtig. Manche kompakten Modelle (z.B. Claude Haiku, Llama 3.1) liefern für viele Aufgaben fast so gute Ergebnisse wie die größten Modelle, bei einem Bruchteil der Kosten.
Wo LLMs an Grenzen stoßen
LLMs sind beeindruckend, aber sie haben klare Limits: Sie halluzinieren (erfinden Fakten), sie haben einen Wissensstichtag (kennen aktuelle Ereignisse oft nicht), sie können nicht wirklich rechnen oder logisch schließen ohne Hilfsmittel, und sie haben keinen echten Kontext über deine konkrete Situation. Verantwortungsvoller Einsatz 2026 heißt: LLMs als Werkzeuge nutzen, nicht als Orakel.