So machst du deine Website
für AI-Agents lesbar
95% aller Websites sind für ChatGPT, Claude & Perplexity unsichtbar.
Dieser Guide zeigt dir, wie du das in 2 Stunden änderst.
Alles was du brauchst: semantisches HTML, Schema Markup, llms.txt – und optional MCP. Kein Developer nötig.
Deine Website existiert nicht für AI – weil AI sie nicht lesen kann.
AI-Agents wie ChatGPT, Claude, Perplexity und Google AI Overviews werden zur primären Informationsquelle für B2B-Recherche. Wenn ein Einkäufer fragt „Welche Firmen bieten X in meiner Region an?", antwortet nicht mehr Google mit 10 blauen Links – sondern ein AI-Agent mit einer konkreten Empfehlung.
Das Problem: Diese Agents lesen Websites fundamental anders als Menschen oder klassische Google-Crawler. Sie holen sich zur Laufzeit (Inference Time) nur die Informationen, die sie gerade brauchen. Wenn deine wichtigsten Seiten nicht klar priorisiert und strukturiert sind, werden sie übersprungen – egal wie gut dein Content ist.
HTML-Parsing ist für AI ineffizient. Token-Ökonomie bestimmt, was gelesen wird: HTML verbraucht deutlich mehr Tokens als Markdown. JS-heavy Websites mit Client-Side Rendering sind für viele Agents komplett unsichtbar – sie können kein JavaScript ausführen.
Das Ergebnis: Deine Konkurrenz wird zitiert, du nicht. Nicht weil dein Angebot schlechter ist – sondern weil AI deine Website nicht lesen kann.
Die gute Nachricht: Du kannst das in 2 Stunden ändern.
5 Stufen zur Agent-Friendly Website.
Von Basics bis Advanced.
Jede Stufe baut auf der vorherigen auf. Die ersten drei schaffst du an einem Nachmittag – ohne Developer.
Die 5 Stufen im Detail
Im Folgenden zeigen wir dir jede Stufe im Detail – mit konkreten Beispielen, Code-Snippets und Ergebnissen, die du erwarten kannst.
Semantisches HTML – Die Basis die fast alle falsch machen
Bevor du an llms.txt und Schema denkst, muss dein HTML sauber sein. AI-Agents parsen HTML hierarchisch – wenn deine Headings, Listen und Sections keinen Sinn ergeben, hilft auch kein Schema.
Die wichtigsten Regeln:
- Heading-Hierarchie: H1 → H2 → H3, niemals H1 → H3 → H2. AI nutzt Headings um Inhalte zu priorisieren.
- Semantic Tags: <article>, <section>, <nav>, <aside>, <main> statt <div>-Suppe. Diese Tags geben AI Kontext über die Funktion jedes Bereichs.
- Alt-Texte für alle Bilder – AI liest sie und nutzt sie als Kontextsignal.
- Meta-Descriptions die für AI geschrieben sind, nicht nur für Google-Snippets. Beantworte die Frage: „Was bietet diese Seite?"
- Clean URLs mit sprechenden Pfaden (z.B. /services/outreach statt /page?id=123).
- Interne Verlinkung als Kontextsignal – zeigt AI, welche Seiten zusammengehören.
❌ Schlecht:
<div class="title">Unsere Services</div>
<div class="text">Wir bieten Outreach...</div>
✅ Richtig:
<section>
<h2>Unsere Services</h2>
<article>
<h3>Precision Outreach</h3>
<p>Signalbasierte Leadgenerierung...</p>
</article>
</section> Schema Markup – Die Sprache die AI versteht
Schema Markup (structured data) ist die wichtigste technische Grundlage, damit AI deine Inhalte versteht, verifiziert und zitiert. JSON-LD ist das bevorzugte Format – von Google empfohlen und von allen AI-Engines bevorzugt.
Die 6 wichtigsten Schema-Typen für B2B:
Wer seid ihr? Name, Logo, Kontakt, Social Profiles
Blog-Posts, Guides, Case Studies
Häufig gestellte Fragen – AI-Agents lieben FAQ-Schemas
Step-by-Step Anleitungen
Was bietet ihr an? Preise, Features
Seitenstruktur für Navigation
{
"@context": "https://schema.org",
"@type": "Organization",
"name": "Deine Firma GmbH",
"url": "https://deinefirma.de",
"logo": "https://deinefirma.de/logo.png",
"description": "Kurzbeschreibung deines Unternehmens",
"address": {
"@type": "PostalAddress",
"addressLocality": "München",
"addressCountry": "DE"
},
"contactPoint": {
"@type": "ContactPoint",
"email": "info@deinefirma.de"
}
} Validierung:
Teste dein Schema mit dem Google Rich Results Test (search.google.com/test/rich-results) und dem Schema.org Validator. Beide sind kostenlos und zeigen dir sofort, ob dein Markup korrekt ist.
AI sieht: HTML-Soup, muss raten was die Firma macht, wo sie sitzt und was sie anbietet.
AI sieht: strukturierte Fakten – Name, Services, Standort, Kontakt – und kann sie direkt zitieren.
llms.txt – Das robots.txt für AI
llms.txt ist ein neuer Standard (seit 2024, vorgeschlagen von Jeremy Howard / Answer.AI), der AI-Agents sagt: „Hier ist das Wichtigste auf meiner Website." Eine kuratierte Markdown-Datei im Root-Verzeichnis deiner Domain.
Die Idee: Statt dass AI deine gesamte Website crawlen und filtern muss, gibst du ihr eine strukturierte Übersicht – in Markdown, dem Format das AI am effizientesten verarbeitet.
llms.txt vs. llms-full.txt: Die Basis-Datei (llms.txt) enthält eine Übersicht mit Links. Die optionale llms-full.txt enthält den vollständigen Content deiner wichtigsten Seiten als Markdown – für AI-Agents, die alles auf einmal verarbeiten wollen.
Aktueller Stand: Claude unterstützt es offiziell, Yoast hat Auto-Generierung eingebaut, Cloudflare/Vercel/Netlify haben Guides veröffentlicht. Noch kein offizieller IETF/W3C-Standard, Adoption unter 0,005% der Websites. Frühe Adoption = Wettbewerbsvorteil.
# Deine Firma GmbH
> Kurzbeschreibung: Was macht dein Unternehmen,
> für wen, und was ist der Kernnutzen?
## Services
- [Outreach Engine](https://deinefirma.de/services/outreach):
Signalbasierte B2B-Leadgenerierung
- [AI Visibility](https://deinefirma.de/services/visibility):
SEO + GEO für AI-Suchmaschinen
## Ressourcen
- [Blog](https://deinefirma.de/blog):
Insights zu B2B Sales & AI
- [Case Studies](https://deinefirma.de/case-studies):
Ergebnisse für Kunden
## Kontakt
- [Erstgespräch buchen](https://deinefirma.de/kontakt)
- E-Mail: info@deinefirma.de Unterschied zu robots.txt und sitemap.xml:
Content Knowledge Graph – Seiten intelligent verknüpfen
Schema Markup auf einzelnen Seiten ist gut. Schema das Seiten miteinander verbindet (Knowledge Graph) ist besser. AI-Agents vertrauen Websites mehr, die Entitäten und Beziehungen explizit definieren.
Entity-based SEO: Statt einzelne Keywords zu optimieren, definierst du Entitäten (deine Firma, deine Services, dein Team) und ihre Beziehungen zueinander. AI versteht: „CegTec bietet Outreach an, hat Standort in Bayern, Julian Ceglie ist Gründer" – nicht als isolierte Datenpunkte, sondern als verknüpftes Wissen.
Wie Seiten sich gegenseitig stärken:
- About-Seite: Organization Schema → verweist auf Team-Seite (Person Schema)
- Team-Seite: Person Schema → verweist auf Artikel die sie geschrieben haben
- Service-Seiten: Service Schema → verweist auf Case Studies als Beweis
- Blog-Posts: Article Schema → verweist auf Services und Team als Autoren
NLWeb: Microsoft hat 2025 eine Initiative gestartet für konversationsfähige Websites – basiert komplett auf Schema.org. Das bestätigt: Wer heute in Schema investiert, ist für die nächste Generation des Webs vorbereitet.
MCP – Model Context Protocol
llms.txt und Schema helfen AI, deine Website zu lesen. MCP lässt AI mit deiner Website interagieren – Daten abfragen, Aktionen auslösen, Tools nutzen.
Model Context Protocol (MCP) ist ein offener Standard von Anthropic, der AI-Agents direkt mit Datenquellen und Services verbindet. Statt dass ein Agent deine Website crawlt, kann er über MCP gezielt Informationen abfragen – in Echtzeit, strukturiert, effizient.
Der Unterschied:
AI liest deine Inhalte und zitiert sie in Antworten. Passiv.
AI fragt deine Datenbank ab, bucht Termine, zeigt Verfügbarkeiten – direkt aus dem Chat heraus. Aktiv.
Ausblick – das Agentic Web: Websites werden nicht mehr nur gelesen, sondern genutzt. Ein AI-Agent, der für einen Einkäufer recherchiert, könnte direkt über MCP deine Preise abfragen, Verfügbarkeiten checken und einen Termin buchen – ohne jemals deine Website zu besuchen.
Das ist kein DIY-Guide für MCP – die Implementierung ist technisch anspruchsvoll. Aber die Einordnung ist wichtig: MCP ist die logische nächste Stufe nach llms.txt und Schema.
Bereit für AI Visibility?
Audit + Umsetzung
Wir prüfen deine Website auf AI-Lesbarkeit und setzen alles um — von Schema bis llms.txt.
Häufig gestellte Fragen
Brauche ich einen Developer dafür?
Für die Basics (Stufe 1-3) nicht. Semantisches HTML prüfen, Schema per Plugin oder Copy-Paste einbauen, llms.txt anlegen – das schaffst du selbst. Für Knowledge Graph und MCP ist technisches Know-how hilfreich.
Funktioniert das auch mit Webflow/WordPress/Framer?
Ja. Schema Markup lässt sich in jedem CMS einbauen – per Custom Code Block oder Plugin. llms.txt ist eine statische Datei im Root. Webflow: Custom Code in Page Settings. WordPress: Yoast generiert llms.txt automatisch.
Wie schnell sehe ich Ergebnisse?
Schema Markup wirkt sofort – AI-Agents lesen es bei der nächsten Anfrage. llms.txt braucht etwas länger, bis AI-Provider es discovern. Rechne mit 2-4 Wochen für messbare Veränderungen in AI-Antworten.
Bringt das wirklich mehr Leads?
Indirekt ja. Wenn AI-Agents deine Firma in Antworten zitieren („Laut [deine Firma]..."), steigt Sichtbarkeit und Vertrauen. Das ist der neue SEO – wer in AI-Antworten erscheint, gewinnt.
Was ist der Unterschied zwischen SEO und GEO?
SEO optimiert für Google-Rankings (Position 1-10). GEO (Generative Engine Optimization) optimiert für AI-generierte Antworten – wo es keine Positionen gibt, sondern nur „zitiert oder nicht zitiert".
Ist llms.txt schon ein offizieller Standard?
Noch nicht. Es ist ein Community-Proposal von Jeremy Howard (Answer.AI). Aber Claude, Yoast, Cloudflare und Vercel unterstützen es bereits. Frühe Adoption hat null Risiko und potenziell großen Vorteil.
Kann ich sehen ob AI meine Website zitiert?
Teilweise. Du kannst in ChatGPT, Claude und Perplexity nach deiner Firma fragen und sehen ob du erwähnt wirst. Tools wie Profound oder Otterly tracken AI-Mentions automatisch.
Was kostet mich das selbst umzusetzen?
Null Euro. Alle Tools sind kostenlos: Google Rich Results Test, Schema.org Validator, llms.txt ist eine Textdatei. Der einzige Invest ist deine Zeit – ca. 2 Stunden für die Basics.
