DOSIGNY Lexikon · KI & AI

Neuronales Netz (Neural Network)

Ein neuronales Netz ist ein vom menschlichen Gehirn inspiriertes Berechnungsmodell aus vernetzten „Neuronen". Die Grundlage moderner KI — von Bilderkennung bis Sprachmodellen.

Ein neuronales Netz ist ein Berechnungsmodell, das vom menschlichen Gehirn inspiriert ist. Es besteht aus vernetzten „Neuronen" (mathematische Funktionen), die in Schichten organisiert sind: Eingabeschicht, eine oder mehrere verborgene Schichten, Ausgabeschicht. Jede Verbindung zwischen Neuronen hat ein Gewicht, das beim Training angepasst wird — so „lernt" das Netz.

Wie ein neuronales Netz lernt

Beim Training werden dem Netz Beispiele gezeigt — etwa Bilder mit Beschriftung „Katze" oder „Hund". Das Netz macht eine Vorhersage, vergleicht sie mit der richtigen Antwort, und passt seine Gewichte an, um beim nächsten Mal näher dran zu sein. Bei modernen Modellen sind das Milliarden von Gewichten — und Trainingsdaten in Größenordnungen, die ein Mensch nicht mehr überblicken kann.

Tiefe Netze (Deep Learning)

Mit „Deep Learning" sind neuronale Netze mit vielen verborgenen Schichten gemeint — typischerweise 10 bis Hunderte von Schichten. Diese Tiefe erlaubt das Lernen komplexer hierarchischer Muster: in den ersten Schichten einfache Features (Kanten, Farben), in mittleren Schichten Formen, in tieferen Schichten Konzepte (Augen, Gesichter, ganze Objekte). Die Sprachmodelle hinter ChatGPT und Claude sind extrem tiefe und große neuronale Netze.

Wichtige Architekturen

Convolutional Neural Networks (CNN): spezialisiert auf Bilder. Recurrent Neural Networks (RNN): für sequentielle Daten wie Sprache (heute meist überholt). Transformer: die dominierende Architektur seit 2017, Basis aller modernen Sprachmodelle. Wer Begriffe wie GPT, BERT oder LLaMA hört — alle sind Transformer.

Häufig gestellte Fragen

Funktionieren neuronale Netze wie das menschliche Gehirn?
Sie sind biologisch inspiriert, aber stark vereinfacht. Ein echtes Neuron im Gehirn ist viel komplexer als ein künstliches Neuron. Die Analogie ist nützlich für die Intuition, aber technisch arbeiten beide sehr unterschiedlich.
Warum brauchen neuronale Netze so viele Daten?
Weil sie Muster aus Beispielen lernen. Ein Netz, das mit 100 Bildern trainiert wurde, kann nicht so gut Katzen erkennen wie eines mit 10 Millionen Bildern. Generelle Regel: mehr und vielfältigere Daten führen zu besseren Modellen — bis zu einem Punkt, wo zusätzliche Daten weniger Nutzen bringen.

Brauchst du Unterstützung bei diesem Thema?

Kostenlos beraten lassen →