DOSIGNY Lexikon · KI & AI

llms.txt

llms.txt ist eine Meta-Datei im Webroot, die KI-Crawlern strukturierte Hinweise zu Inhalten und Crawling-Erlaubnis gibt — analog zur robots.txt, aber speziell für KI.

llms.txt ist eine standardisierte Textdatei, die im Webroot einer Domain (z.B. unter https://dosigny.com/llms.txt) liegt und KI-Crawlern strukturierte Hinweise zur Website gibt. Eingeführt 2024 als Vorschlag, ist llms.txt 2026 ein zunehmend etablierter Standard für die KI-Sichtbarkeit von Websites — analog zu robots.txt für klassische Crawler oder sitemap.xml für Suchmaschinen.

Was in eine llms.txt gehört

Eine llms.txt ist eine Markdown-formatierte Datei mit klarer Struktur: Titel der Website als H1. Kurze Beschreibung der Website und ihrer Zwecke. Wichtigste URLs als Markdown-Links — typischerweise die Service-Seiten, das Blog, das Impressum. Optional: Zielgruppe, Themen-Schwerpunkte, besondere Hinweise an KI-Crawler. Die Datei ist primär für KI gedacht, sollte aber auch für Menschen lesbar sein.

Beispiel-Struktur einer llms.txt

Eine minimale llms.txt sieht etwa so aus:

# DOSIGNY
Webdesign- und Webentwicklungs-Services aus dem Münchner Umland.

## Services
- [Webdesign](https://dosigny.com/webdesign.php)
- [SEO](https://dosigny.com/seo.php)
- [WordPress](https://dosigny.com/wordpress.php)

## Blog
Aktuelle Beiträge: https://dosigny.com/blog/

## Kontakt
Dominik Baurhenn — dosigny.com

Was llms.txt 2026 bringt

Stand 2026 ist die Adoption durch große KI-Anbieter noch im Aufbau — anders als bei robots.txt, das universal akzeptiert ist. Aber: Anthropic, OpenAI, Perplexity und einige andere haben Unterstützung angekündigt oder im Probebetrieb. Wer früh eine saubere llms.txt einrichtet, hat einen Vorsprung in der KI-Sichtbarkeit. Mehr im Beitrag über AI Search 2026.

Häufig gestellte Fragen

Brauche ich llms.txt 2026 zwingend?
Pflicht ist es nicht. Aber: Aufwand ist minimal (10 Minuten), Nutzen wächst mit der KI-Adoption. Wer GEO ernst nimmt, setzt llms.txt — Kosten-Nutzen-Verhältnis ist exzellent.
Was ist der Unterschied zu robots.txt?
robots.txt steuert das Crawling allgemein (welche Bots dürfen, welche nicht). llms.txt liefert strukturierte Inhalts-Übersicht für KI-Crawler. Beide ergänzen sich, ersetzen sich nicht.
Wo lege ich llms.txt ab?
Im Webroot, also direkt unter der Domain (https://deine-domain.de/llms.txt). Wie robots.txt. Format ist Markdown, Endung .txt.

Brauchst du Unterstützung bei diesem Thema?

Kostenlos beraten lassen →