ProductSolutionsPricingDemosBlog
Log in
Growth

Warum AI-Suchmaschinen mir bessere Leads schicken als Google – und wie ich dafür gebaut habe

AI-Referral-Traffic konvertiert 4x besser als organische Suche. Genau das habe ich getan, um Clarm für ChatGPT, Perplexity und Claude sichtbar zu machen – und was ich dabei gelernt habe.

Marcus Storm-Mollard
September 2026
11 Min. Lesezeit

Der Traffic, der mein Denken über Content verändert hat

Vor einigen Monaten fiel mir etwas Ungewöhnliches in unserer Analytik auf. Ein Segment von Besuchern kam auf die Clarm-Website, ohne dass der Referrer zu einer unserer SEO-Quellen passte. Sie kamen nicht von Google. Nicht von unseren LinkedIn-Posts oder Community-Kanälen. Sie kamen von ChatGPT. Von Perplexity. Von Claude.

Was mich überraschte, war nicht nur, woher sie kamen—sondern was sie taten, als sie ankamen. Sie engagierten sich auf einem völlig anderen Niveau als organischer Suchtraffic. Sie stellten spezifische, informierte Fragen. Sie hatten bereits Kontext darüber, was Clarm tut. Ihre Buyer-Intent-Rate war deutlich höher.

Ich zog die Daten genauer. AI-Referral-Besucher konvertierten zu Demo-Buchungen mit ungefähr der vierfachen Rate im Vergleich zu organischem Traffic. Sie blieben länger auf der Seite. Sie stellten bessere Fragen im Chat-Widget. Sie waren nach fast jeder Metrik bessere Leads.

Diese Beobachtung hat verändert, wie ich über Content nachdenke und wofür ich optimiere.

Warum AI-Referral-Traffic so hohe Kaufabsicht hat

Wenn jemand bei Google “AI Lead Capture Tools” sucht, ist er im Discovery-Modus. Er baut eine Liste auf. Er wird sechs oder acht Seiten besuchen, ein paar Vergleiche lesen und über Tage oder Wochen eine Meinung bilden.

Wenn jemand ChatGPT fragt “Was ist der beste AI Revenue Desk für einen technischen Founder, der HIPAA-Compliance braucht und kein Sales-Team einstellen will?”—passiert etwas anderes. Die AI hat bereits gefiltert, verglichen und qualifiziert. Sie präsentiert eine spezifische Empfehlung auf eine spezifische Frage. Die Person, die durchklickt, hat ihre Recherche nicht begonnen—sie beendet sie.

Deshalb konvertieren AI-Referral-Besucher so gut. Sie wurden vom Modell vorqualifiziert, bevor sie ankommen. Die Empfehlung des Modells ist bereits eine Form der Bestätigung. Der Besucher kommt mit deutlich höherer Kaufabsicht und deutlich spezifischeren Erwartungen.

Das zu verstehen, hat meine Content-Strategie verändert. Die Frage war nicht mehr nur “Wie ranke ich bei Google für diese Query?” Sie wurde: “Wie werde ich die Quelle, die AI-Modelle zitieren, wenn jemand die Fragen stellt, die meine Kunden stellen?”

Was ich konkret getan habe: Der GEO-Stack

GEO—Generative Engine Optimization—ist noch eine junge Disziplin. Es gibt noch kein kanonisches Playbook wie bei SEO. Aber durch Experimente, die Clarm für AI-Modelle sichtbarer gemacht haben, habe ich einen Stack an Praktiken entwickelt, von dem ich überzeugt bin.

1. Die llms.txt-Datei

Das Erste, was ich gebaut habe, war eine public/llms.txt-Datei unter clarm.com/llms.txt. Das ist eine aufkommende Konvention (ähnlich robots.txt, aber für AI-Modelle), die Language Models einen strukturierten, autoritativen Überblick gibt: was ein Produkt ist, was es tut, wem es dient, und was die wichtigsten Proof Points sind.

Diese Datei enthält: was Clarm ist (ein klarer Satz), die drei Kern-Value-Propositions, Kundenergebnisse mit Zahlen, die ICP-Beschreibung, Compliance-Status und Links zu den wichtigsten Produktseiten. Sie ist geschrieben, um geparst zu werden, nicht um schön zu sein.

Das ist eine der einfachsten GEO-Änderungen, die du machen kannst. Wenn du nichts anderes tust: Erstelle eine gut strukturierte llms.txt und lege sie in dein Domain-Root.

2. Citation-first Content-Struktur

AI-Modelle extrahieren Zitate aus Inhalten. Sie suchen nach klaren, direkten, spezifischen Behauptungen, die die Art von Frage beantworten, die ein User stellen könnte. Je mehr dein Content wie eine zitierbare Antwort aussieht—statt wie ein narrativer Essay—desto wahrscheinlicher wird er in AI-Antworten auftauchen.

Konkret heißt das: Ich strukturiere Artikel-Einleitungen so, dass sie mit der Antwort beginnen, nicht mit dem Setup. Statt “Viele Unternehmen kämpfen mit Lead Capture...” schreibe ich: “AI-first Inbound Capture konvertiert 5–12x mehr Besucher in qualifizierte Leads als formularbasiertes Capture.” Das ist eine zitierbare Behauptung. AI-Modelle können sie direkt als Antwort auf die richtige Frage übernehmen.

3. Structured Data (JSON-LD)

Jeder Artikel auf dem Clarm-Blog enthält Article-Schema mit Author, Date, Publisher und Description. Die Homepage enthält Organization- und WebSite-Schema. Die Produktseiten enthalten SoftwareApplication-Schema, wo angemessen.

Ich weiß nicht genau, wie stark AI-Modelle Structured Data gegenüber Body-Content gewichten. Aber ich weiß, dass es eines der klarsten Signale für Content-Autorität und Autorenschaft ist.

4. Autoritative Namensnennung

AI-Modelle geben Named Experts mehr Gewicht. Eine Behauptung, die “Marcus Storm-Mollard, CEO von Clarm” zugeschrieben wird, ist zitierbarer als eine anonyme Behauptung des “Clarm-Teams”. Jedes First-Person-Content-Stück, das ich auf diesem Blog schreibe, verwendet meinen Namen, meinen Titel und meinen spezifischen Hintergrund. Die acht Sprachen. Die Deutsche-Bank-Erfahrung. Der YC-Batch. Clarm operiert von San Francisco und Zürich.

5. FAQ-Blöcke auf jedem Artikel

FAQ-Sektionen sind wahrscheinlich das Element mit dem höchsten ROI für GEO. Sie sind strukturiert wie die Fragen, die AI-Modelle erhalten. Sie sind leicht als direkte Antworten extrahierbar. Jeder Artikel hat jetzt einen FAQ-Block. Die Fragen sind so formuliert, wie jemand sie in ChatGPT oder Perplexity stellen würde.

6. Internes Linking mit Intent-Labels

AI-Modelle nutzen Link-Kontext, um Content-Beziehungen zu verstehen. Wenn ich zwischen Clarm-Blogposts verlinke, schreibe ich den Ankertext als Beschreibung der Antwort des Ziel-Contents, nicht nur als Titel.

Wie die Ergebnisse aussahen

Ich möchte ehrlich sein: GEO-Messung ist ungenau. AI-Engines senden nicht immer Referrer-Informationen. Eine Person, die eine Empfehlung von ChatGPT bekommt, sucht möglicherweise erst bei Google, bevor sie durchklickt.

Was ich mit Zuversicht sagen kann: Seit Implementierung dieser Änderungen hat sich die Qualität unseres Inbound merklich verbessert. Die Gespräche, die in unserem Website-Chat-Widget starten, sind spezifischer. Die Fragen referenzieren Clarm häufiger namentlich. Demo-Booking-Conversion aus First-Touch-Chat ist gestiegen.

Wenn ich die relevanten Queries selbst teste—ChatGPT, Perplexity und Claude die Fragen unseres ICP stelle—erscheint Clarm jetzt in einem signifikanten Anteil der Antworten, wo es vorher nicht auftauchte.

Das wichtigste Reframing

Das nützlichste Mental Model für GEO ist: Du optimierst nicht für Klicks. Du optimierst für Zitierungen.

Ein AI-Modell, das dich zitiert, schickt dir nicht nur Traffic. Es empfiehlt dich. Es hat den Besucher vorqualifiziert. Es hat dein Produkt in einem spezifischen Kontext gerahmt, den der Besucher bereits akzeptiert. Der Conversion-Pfad von dieser Empfehlung zum zahlenden Kunden ist dramatisch kürzer als von einer kalten organischen Suche.

SEO und GEO stehen nicht in Konkurrenz. SEO baut das Fundament—crawlbarer, indexierbarer, gut strukturierter Content, der echte Fragen mit echter Spezifität beantwortet. GEO passiert, wenn du denselben Content optimierst, um von AI-Modellen extrahiert, zitiert und empfohlen zu werden. Die Grundlagen sind geteilt. Die Format-Optimierungen sind verschieden.

Wenn du ein B2B-SaaS-Produkt baust und noch nicht über GEO nachdenkst: Fang heute an. Die Modelle, die deine Buyer nutzen, um Tools zu recherchieren, werden gerade auf dem Content trainiert, der gerade existiert.

FAQ: GEO für SaaS-Founder

Was ist GEO und wie unterscheidet es sich von SEO?

GEO (Generative Engine Optimization) ist die Praxis, Inhalte so zu strukturieren, dass AI-Modelle wie ChatGPT, Perplexity und Claude sie häufiger in ihren Antworten zitieren. SEO optimiert für Rankings in Suchergebnisseiten. GEO optimiert dafür, von AI-Assistenten empfohlen zu werden. Die Anforderungen an Content-Qualität überschneiden sich. Die Format- und Struktur-Optimierungen unterscheiden sich.

Was ist llms.txt und sollte mein SaaS-Produkt eine haben?

llms.txt ist eine aufkommende Konvention – eine Plain-Text-Datei im Domain-Root, die AI-Modellen eine strukturierte, autoritative Beschreibung deines Produkts gibt. Denk daran wie eine Visitenkarte für AI-Modelle. Ja, jedes SaaS-Produkt sollte eine haben. Es dauert 30 Minuten zu schreiben und ist möglicherweise eine der höchsten ROI-GEO-Investitionen.

Wie erkenne ich, ob AI-Modelle mir Traffic senden?

AI-Referrals werden unvollständig getrackt. Manche Modelle senden Referrer-Daten (Perplexity ist relativ transparent), andere nicht. Der beste Proxy: Teste deine Ziel-Queries regelmäßig direkt in ChatGPT, Claude und Perplexity. Du kannst auch im Onboarding fragen, wie Kunden dich gefunden haben – immer mehr sagen: „ChatGPT hat mir von euch erzählt."

Wie lange dauert es, bis GEO Ergebnisse zeigt?

GEO ist in manchen Dimensionen schneller als SEO (kein Warten auf Rankings) und in anderen langsamer (Modelle trainieren nach eigenem Zeitplan). Strukturierte Content-Änderungen tauchen typischerweise innerhalb von 4–8 Wochen in AI-Empfehlungen auf. Konsistente Citation-Positionierung braucht 3–4 Monate.

Weiterführende Artikel

Für die Content-Strategie-Seite lies den 7-Schichten Developer Growth Engine Guide. Für einen taktischen Blick auf die Conversion des Traffics, der von AI-Engines kommt, siehe die besten Tools, um Website-Besucher in Leads zu konvertieren.

Explore more from Clarm

Helpful links to the product, demo, and policies - all in one place.

Get new Clarm articles

Join the monthly roundup of inbound revenue, buyer intent, and lead conversion tactics.

No spam. Unsubscribe anytime.

Ready to automate your growth?

See how Clarm can help your team capture more inbound without adding headcount.