llms.txt ist eine standardisierte Textdatei, die im Webroot einer Domain (z.B. unter https://dosigny.com/llms.txt) liegt und KI-Crawlern strukturierte Hinweise zur Website gibt. Eingeführt 2024 als Vorschlag, ist llms.txt 2026 ein zunehmend etablierter Standard für die KI-Sichtbarkeit von Websites — analog zu robots.txt für klassische Crawler oder sitemap.xml für Suchmaschinen.
Was in eine llms.txt gehört
Eine llms.txt ist eine Markdown-formatierte Datei mit klarer Struktur: Titel der Website als H1. Kurze Beschreibung der Website und ihrer Zwecke. Wichtigste URLs als Markdown-Links — typischerweise die Service-Seiten, das Blog, das Impressum. Optional: Zielgruppe, Themen-Schwerpunkte, besondere Hinweise an KI-Crawler. Die Datei ist primär für KI gedacht, sollte aber auch für Menschen lesbar sein.
Beispiel-Struktur einer llms.txt
Eine minimale llms.txt sieht etwa so aus:
# DOSIGNY
Webdesign- und Webentwicklungs-Services aus dem Münchner Umland.
## Services
- [Webdesign](https://dosigny.com/webdesign.php)
- [SEO](https://dosigny.com/seo.php)
- [WordPress](https://dosigny.com/wordpress.php)
## Blog
Aktuelle Beiträge: https://dosigny.com/blog/
## Kontakt
Dominik Baurhenn — dosigny.com
Was llms.txt 2026 bringt
Stand 2026 ist die Adoption durch große KI-Anbieter noch im Aufbau — anders als bei robots.txt, das universal akzeptiert ist. Aber: Anthropic, OpenAI, Perplexity und einige andere haben Unterstützung angekündigt oder im Probebetrieb. Wer früh eine saubere llms.txt einrichtet, hat einen Vorsprung in der KI-Sichtbarkeit. Mehr im Beitrag über AI Search 2026.