LLMO, GEO oder GenAIO: Sichtbarkeit in der KI-Welt
ChatGPT statt Google. Gemini statt Produktsuche. Immer mehr Suchanfragen fĂŒhren direkt zu KI-generierten Antworten â ohne Klick, ohne Website. Wer dort nicht erscheint, findet nicht statt. Dieser Ratgeber zeigt, wie Inhalte in diese Antworten gelangen â und was du dafĂŒr tun kannst.
Inhaltsverzeichnis
TL;DR â Das Wichtigste in KĂŒrze
- LLMO ersetzt Rankings durch Nennungen: Sichtbarkeit entsteht in KI-Systemen wie ChatGPT, Perplexity oder Gemini ĂŒber ErwĂ€hnungen â nicht ĂŒber Platzierungen.
- Markensichtbarkeit wird zur neuen WĂ€hrung: HĂ€ufige und konsistente Nennungen in hochwertigen, vertrauenswĂŒrdigen Quellen erhöhen die Chance auf Einbindung in KI-Antworten.
- Gartner warnt: Organischer Google-Traffic könnte bis 2028 um 50âŻ% sinken â weil AI-Antworten keine Klicks mehr benötigen.
- Shift von Keywords zu Prompts: AI-Nutzer*innen stellen deutlich lĂ€ngere, spezifischere Fragen â im Schnitt 13+ Wörter statt klassischer Short-Tail-Keywords.
- Technik entscheidet mit: Schnelle Ladezeiten, offene robots.txt und strukturierte Inhalte bleiben Grundvoraussetzung fĂŒr maschinenlesbare Inhalte.
- Monitoring bringt Licht ins Dunkel: Neue Tools analysieren Markennennungen, Zitierungen und Sichtbarkeit in AI-Antworten â wichtig fĂŒr Strategie und Kontrolle.
- FrĂŒh starten lohnt sich: Wer jetzt optimiert, beeinflusst, wie LLMs Marken verstehen â und schafft langfristige Sichtbarkeit in der «Antwortwelt».
Dieser Ratgeber gibt keine schnellen Antworten, sondern Orientierung in einem Systemwandel. Er zeigt, wie Inhalte heute gedacht, geplant und geschrieben werden sollten, um auch morgen noch eine Rolle zu spielen â in einem Web, das nicht mehr nur durchsucht, sondern direkt generiert wird.
Zu Beginn ein paar Zahlen
Google ist als Suchmaschine mit rund 87% Marktanteil in der Schweiz und 90% weltweit mit Abstand fĂŒhrend â keine Frage [https://www.nzz.ch/technologie/googles-antwort-auf-chat-gpt-die-suchfunktion-uebersicht-mit-ki-kommt-nun-auch-in-die-schweiz-ld.1877137]. Aber die Nutzungsgewohnheiten verĂ€ndern sich. Immer mehr Menschen suchen gar nicht mehr â sie fragen. Und das nicht nur bei Google, sondern bei ChatGPT, Perplexity oder anderen Large Language Models (LLMs) mit Chat- und Suchfunktion. Die Entwicklung scheint klar zu zeigen: Es ist nicht mehr die Frage ob, sondern vielmehr wann GenAI-Interfaces zur primĂ€ren Anlaufstelle werden.
Dennoch gilt es den Hype auch kritisch zu reflektieren. Google hat im FrĂŒhling 2025 weltweit 4.3 Milliarden User und tĂ€glich 8.5 Milliarden Suchanfragen. ChatGPT kommt im gleichen Zeitraum auf rund 400 Millionen User. Die Angaben zu den Anzahl Anfragen pro Tag schwanken stark â am meisten genannt wird die Zahl 1 Milliarde.* Gehen wir von 8 Anfragen pro Chat aus und nehmen wir an, dass rund 30% davon effektiv eine Websuche beinhalten (Prozentangaben inspiriert durch einen LinkedIn-Post von Rand Fishkin), sind das 37.5 Millionen pro Tag. Im Vergleich zu Google sind das 0.4% oder 1/226. Selbst wenn es tĂ€glich 10 Milliarden Anfragen sind, kommt Google auf ĂŒber 20x mehr als ChatGPT.
*Hinweis: Alle Angaben ohne GewÀhr, da diese Zahlen von den Anbietern nicht öffentlich verifiziert wurden und die Berechnungen auf Annahmen basieren.
Dennoch gilt es eines festzuhalten: OpenAI hat mit ChatGPT bereits heute eine schier unfassbare Entwicklung hingelegt. Geht es so weiter â und danach scheint es auszusehen â kriegt Google als Suchmaschine tatsĂ€chlich ernsthafte Konkurrenz. Oder schafft Google vielleicht sogar den Turnaround und als Gewinner aus diesem Spiel hervorzugehen?
Eine neue Dynamik
GemĂ€ss Malte Landwehr hat ChatGPT in Deutschland 4% Marktanteil und damit Bing mit 3% bereits ĂŒberholt. Andere LLM Chatanbieter kommen erst auf Marktanteile von 0.x%, wachsen aber ebenfalls stark und lassen einige bekannte alternative Suchmaschinen zu Google, Bing und Yahoo schon hinter sich.
Google reagierte auf diese neue Konkurrenz. Zuerst verhalten und von vielen kritisch beurteilt, ja sogar belĂ€chelt â inzwischen aber mit eigenen LLMs, die weltweit in allen Bestenlisten auftauchen. Die neue Dynamik im Suchmarkt fĂŒhrt dazu, dass sich nicht nur die reine Informationssuche verĂ€ndert, sondern auch der Bereich E-Commerce. Kurz nachdem ChatGPT Shopping einfĂŒhrte [https://help.openai.com/en/articles/11128490-improved-shopping-results-from-chatgpt-search] zog Google nach [https://blog.google/products/shopping/google-shopping-ai-mode-virtual-try-on-update].
Vielleicht wurde es auch langsam Zeit fĂŒr eine echte VerĂ€nderungen. Die 10 blauen Links waren bekanntlich ĂŒber Jahre hinweg der Standard. Doch ist diese Auswahl wirklich das Maximum an Userfreundlichkeit?
LLMs zeigen, wohin es gehen könnte. Weg von Links und «hilf dir selbst» hin zu direkten Antworten und echter Hilfe fĂŒr die Suchenden. Das Ganze ĂŒber ein Chatinterface, das sich intuitiv bedienen lĂ€sst und sich dabei auch irgendwie menschlicher anfĂŒhlt.
Vor diesem Hintergrund startete Google im Mai 2023 in den USA die Search Generative Experience (SGE). Ein Jahr spÀter wurden daraus die AI Overviews. Am 26. MÀrz 2025 kam auch Europa in den Genuss dieser Weiterentwicklung.
Noch weiter geht Google in den USA im Bereich der investigativen Suche. So liefern sie im Fall eines Vergleichs von zwei Handys nach dem Klick auf «See full comparison» eine tabellarische Auswertung von 18+3=21 (!) Quellen.
Und kaum sind die AI Overviews bei uns gelauncht, zeigt Google am 21. Mai 2025 an der Google I/O, wie ein neuer sogenannter AI Mode in der Suche integriert wird [https://io.google/2025/explore/google-keynote-1][https://blog.google/technology/ai/google-io-2025-all-our-announcements/]. Gestartet in den USA, wird dieser vermutlich mit einigen Monaten Verzögerung auch wieder in Europa ankommen.
Die Suche im Internet verĂ€ndert sich. Diese neue Dynamik ist spĂŒrbar und fĂŒr alle Internetuser erlebbar. Viele fragen sich was das verĂ€ndert? Wie kommen die Suchergebnisse zustande? Und ganz konkret: Wie schaffe ich es, in diesen generierten Antworten selbst zu erscheinen? Um genau diese Fragen geht es im weiteren Verlauf dieses Artikels.
Von SEO zu LLMO: Begrifflichkeiten
Seit Jahren optimieren wir Inhalte fĂŒr die klassische Google-Suche: Keywords, technische Struktur, E-E-A-T (Expertise, Erfahrung, AutoritĂ€t und Trust, also Vertrauen) und wenn es ein Projekt zwingend erfordert auch Backlinks â das ganze Arsenal klassischer SEO-Massnahmen. Dieses Spiel verĂ€ndert sich. KI-Modelle wie ChatGPT oder Gemini funktionieren anders â sie geben Antworten statt Links.
LLMO â also die Optimierung fĂŒr Large Language Models â ist nur der nĂ€chste logische Schritt. Doch was bedeutet der Begriff eigentlich und was ist mit den verwandten Begrifflichkeiten GEO, GENAIO oder weiteren Alternativen, wie AIMO, MO oder AIO?
Was ist LLMO?
LLMO beschreibt alle Massnahmen, die darauf abzielen, Inhalte, Marken oder Produkte so zu gestalten, dass sie in den Antworten generativer KI-Modelle genannt, zitiert oder empfohlen werden. Es geht nicht mehr nur um Rankings â sondern darum, Teil der generierten Antwort zu sein.
Was ist GEO?
GEO steht fĂŒr Generative Engine Optimization â ein alternativer Begriff, der den Fokus nicht auf das Modell (LLM), sondern auf das Gesamtsystem der Generierung legt [https://searchengineland.com/what-is-generative-engine-optimization-geo-444418] [https://en.wikipedia.org/wiki/Generative_engine_optimization].
Was ist GenAIO?
GenAIO (Generative AI Optimization) ist der wohl breiteste Begriff â und gleichzeitig der unschĂ€rfste. Er umfasst die Optimierung fĂŒr alle Arten von generativer KI, also nicht nur Textmodelle, sondern auch Bild-, Audio- oder Multimodal-Modelle.
Weitere Alternativen?
Die verschiedenen Bezeichnungen LLMO, GEO oder GenAIO konkurrieren â je nachdem, ob der Fokus stĂ€rker auf den Modellen (Large Language Models), den generativen Systemen insgesamt oder der KI im weiteren Sinne liegt. Auch völlig andere Ideen stehen im Raum: AIMO fĂŒr AI Model Optimization, AMO fĂŒr Answer Machine Optimization oder einfach AIO fĂŒr AI Optimization.
Intern bei uns sowie auf LinkedIn gibt es auch Stimmen, alles unter dem bekannten Begriff SEO weiterzufĂŒhren â schliesslich ist auch Google inzwischen eine KI-gesteuerte Antwortmaschine.
Wie sich die Terminologie entwickelt, wird sich zeigen. Aktuell aber spricht vieles dafĂŒr, das PhĂ€nomen beim Namen zu nennen: Es geht um die Sichtbarkeit in Large Language Models.
LLMO ist deshalb der Begriff, den wir in diesem Ratgeber verwenden â weil er das prĂ€zise beschreibt, worum es aktuell geht.
Vergleich SEO vs. LLMO
Gute Inhalte bleiben gute Inhalte. Auch in der KI-Welt. Doch die Mechanik dahinter verÀndert sich. Sichtbarkeit entsteht nicht mehr ausschliesslich durch Rankings, sondern durch die Relevanz im Kontext generativer Modelle. KI-Modelle funktionieren anders als klassische Suchmaschinen.
- Relevanz wird zu Kontext: Keywords allein reichen auch in LLMs nicht. Es geht um semantische NĂ€he, Kookkurrenzen und EntitĂ€ten â also darum, wie Begriffe, Marken und Themen miteinander in Beziehung stehen. Gut, um ehrlich zu sein: Wer in den letzten Jahren SEO rein als Spiel mit Keywords verstanden hat, war schon da nicht besonders zukunftsfĂ€hig. Trotzdem: Auch einfache Massnahmen, wie Titles oder strukturierte Inhalte, können weiterhin wirken â jetzt einfach in einem neuen System.
- Ranking wird zur Nennung: In einem LLM gibt es keine Resultatseite mit Position 1 bis 10. Entscheidend ist, ob die eigene Market erwĂ€hnt wird â in Antworten oder als Quelle.
- Menschen bleiben das Ziel â Maschinen entscheiden mit: Inhalte werden weiterhin fĂŒr Menschen gemacht. Doch je maschinenlesbarer, strukturierter und kontextbezogener sie sind, desto höher ist die Chance, dass sie in LLM-Antworten auftauchen.
- SEO bleibt als Basis relevant â und wird nun Teil eines grösseren Ganzen: Technische Optimierung, Ladezeiten, E-E-A-T: All das bleibt wichtig. Aber es reicht nicht mehr. Sichtbarkeit entsteht durch ein Zusammenspiel aus inhaltlicher QualitĂ€t + semantischem Kontext + maschinenfreundlicher Struktur.
Â
| Dimension | Klassische SEO | LLMO |
|---|---|---|
| Ziel | Klick auf Website via Google | ErwÀhnung in KI-Antwort (Text, Zitat, Quelle, Link) |
| Content-Fokus | Keywords, Snippets, Onpage-Optimierung | EntitÀten, Prompts, KontextverstÀndnis |
| Technischer Fokus | Crawlbarkeit fĂŒr Googlebot | Crawlbarkeit fĂŒr KI-Bots (z.âŻB. CCBot, Bingbot, GPTBot) |
| Strukturierung | Meta-Tags, H1-H3, strukturierte Daten | Listen, FAQs, klare Gliederung, maschinenlesbare Argumentation |
| AutoritÀtssignale | Backlinks, Domain Authority | Markennennungen, ZitierfÀhigkeit, Reputationsquellen |
| Analyse-Tools | GSC, Sistrix, Semrush | Otterly, Peec, Profound, eigene Prompt-Tests |
| Reaktionsgeschwindigkeit | Hoch (nach Indexierung) | Langsam bis nie bei reinen LLMs (Foundational Models), schnell bei KI-Search (Retrieval Augmented Generation) |
| Einflussnahme | Ăber eigene Inhalte und Content Marketing | Indirekt ĂŒber genannte Quellen, EntitĂ€ten, ErwĂ€hnungen, PR |
| User Experience | Einfluss auf CTR, Bounce Rate, Rankings | Noch unklar, aber mutmasslich zunehmend relevant |
Bei all diesen VerĂ€nderungen bleibt eines gleich â der Informationsbedarf der Menschen. In LLMs macht die Informationssuche aktuell den grössten Teil aus. Weiter dazu kommt die UnterstĂŒtzung beim Schreiben, Programmieren, bei der Produktsuche, bei Hausaufgaben und PrĂŒfungen. Noch eher selten geht es ums Generieren von Bildern oder Videos.
FĂŒr uns besonders eindrĂŒcklich sind Berichte aus unserem Umfeld und aus dem Publikum bei VortrĂ€gen. Dabei geht klar hervor, dass viele Menschen in Chats mit den LLMs Geheimnisse preisgeben, die sie nicht mal ihren Freunden, der Familie oder Fachpersonen erzĂ€hlen wĂŒrden. Das ist vielleicht bedenklich aber irgendwo auch verstĂ€ndlich. Die Probleme und Fragen sind da. Wer will schon 4 bezahlte, dann 10 blaue und nochmals 3 bezahlte Links, wenn es direkt Hilfe von einer neutralen Instanz gibt, die zudem immer ein offenes Ohr hat? Websitebesuche werden damit zunehmend unnötiger. Die benötigten Antworten werden aus den LLMs zusammen mit dabei ausgelösten Websuchen und deren Ergebnissen generiert. Die Websites selbst werden selten oder ĂŒberhaupt nicht mehr besucht.
FĂŒr gewisse Websitebetreiber hat dies gravierende Konsequenzen. Schon heute fĂŒhren rund 60% aller Suchen zu keinen Klicks â die eine HĂ€lfte davon endet einfach so, die andere löst eine weitere Suche aus. Also fĂŒhren nur 40% aller Suchen effektiv zu Klicks. Seit der EinfĂŒhrung der AI Overviews ist der Traffic bei entsprechenden Suchanfragen um weitere 15% bis zu ĂŒber 60% zurĂŒckgegangen. Im Durchschnitt liegen die Werte in Tests von Dritten bei rund 40% RĂŒckgang. So hohe Zahlen können wir im Moment ausgehend von unseren Kundendomains nicht bestĂ€tigen, sehen den Effekt aber auch bereits.
Noch deutlich beeindruckender sind erste Zahlen zu den LLMs. Suchen in Perplexity fĂŒhren nur in 20% zu Klicks. Solche in ChatGPT nur zu 2%.
Gartner wagte hierzu eine Prognose: Bis 2028 soll der organic Traffic um 50% geringer ausfallen. In Anbetracht der genannten Zahlen scheint dieser Wert geradezu optimistisch.
Heisst das nun zum 101. und vielleicht letzten Mal, SEO ist tot? Nein. Aber SEO verĂ€ndert sich. Wieder einmal. Diesmal vielleicht grundlegender als sonst â aber im Kern bleibt es ein vertrautes Spiel.
Echte Daten von unseren Kunden
Immer wieder wird gesagt, dass die AI Overviews (AIO) viele Websites in den Ruin treiben und kein Traffic mehr auf die Seite kommt. Wir wollten wissen, wie die Lage wirklich aussieht, und haben dafĂŒr Daten von einigen unserer Kunden aggregiert und aufbereitet.
Das «Krokodil» zwischen Impressions und Klicks
In der Diskussion wird hÀufig vom «Krokodil» gesprochen: steigende Impressions auf der einen Seite, sinkende Klicks auf der anderen. Und einer stark sinkenden Click Through Rate (CTR). Dieses auseinanderklaffen der zwei Metriken, Àhnelt dem Mund von einem Krokodil.
Und wie sehen unsere Daten aus? Ja, die CTR sinkt tatsÀchlich auch bei unseren Kunden. Doch woran liegt dies?
Auch wir sehen stark steigende Impressions. Dies ist gut erklÀrbar, da mit den AI-Overviews die Anzahl gezeigter Verlinkungen stark gestiegen ist. Es gibt nicht mehr nur 10 Links, sondern ein x-faches an zusÀtzlichen Links in den Texten der AIO.
Und wie sieht es mit den Klicks aus? Im Gegensatz zum (vermeintlichen) Tenor sehen wir bei unseren Kunden eher eine leicht steigende Tendenz bei den Klicks. Diese steigen jedoch weit weniger als die Impressions, was zu einer sinkenden CTR fĂŒhrt. Weniger Klicks geteilt durch mehr Impressions fĂŒhren auch zu einer sinkenden CTR. Doch nun fĂ€llt die Interpretation anders aus.
Aufgrund dieser Beobachtungen erhalten wir im Grunde mehr Klicks und deutlich mehr Sichtbarkeit in den Suchergebnissen (SERP). GrundsÀtzlich ist dies eine sehr gute Entwicklung. Ob dies so bleibt und bei deiner Seite ebenfalls so ausfÀllt, muss im Einzelfall betrachtet werden. Einen Bias haben unsere Daten sicherlich, da (fast) alle unsere Kunden im betrachteten Sample aktiv SEO betreiben. ;)
Click Through Rate erklÀrt
Die CTR (Click-Through-Rate) zeigt, wie hÀufig ein Suchergebnis oder eine Anzeige nach einer Einblendung tatsÀchlich angeklickt wird. Sie berechnet sich aus dem VerhÀltnis von Klicks zu Impressions:
CTR = Klicks Ă· Impressions Ă 100 %
Steigen die Impressions (also wie oft dein Ergebnis gesehen wurde), wĂ€hrend die Klicks gleichzeitig zurĂŒckgehen, sinkt rechnerisch die CTR. Das ist ein hĂ€ufiges Muster, etwa wenn neue, weniger relevante Suchanfragen Reichweite bringen, dein Snippet an Position verliert oder die SERP mehr ablenkende Elemente enthĂ€lt.
Mini-Beispiel:
Monat A: 1 000 Impressions, 100 Klicks â CTR = 10 %
Monat B: 2 000 Impressions, 120 Klicks â CTR = 6 %
Obwohl die Klicks absolut leicht gestiegen sind (100 â 120), ist die CTR gesunken (10 % â 6 %), weil die Impressions stĂ€rker gewachsen sind. Umgekehrt gilt: Bleiben die Impressions konstant und die Klicks fallen, sinkt die CTR ebenfalls.
Praktischer Schluss: Eine sinkende CTR ist nicht automatisch âschlechtâ, sie kann z. B. mit breiterer Sichtbarkeit in weniger klickstarken Bereichen einhergehen. Wichtig ist, parallel die Positionen, Suchbegriffe (Intent/Relevanz) sowie Snippet-Elemente (Title, Meta-Description, Rich Results) zu prĂŒfen und gezielt zu optimieren.
Mehr Sichtbarkeit durch AIO
Unsere Auswertungen zeigen auch, dass AIO nicht per se schlecht fĂŒr den organischen Traffic sind, sondern in erster Linie fĂŒr viel mehr Impressionen sorgen. Wie viele Klicks (und Conversions) erzielt werden, ist Stand heute (Oktober 2025) nicht prĂ€zise messbar, da Google die Daten nicht spezifisch ausweist.
Eigene Daten sind entscheidend
Auch wenn wir tendenziell zu einem positiven Ergebnis kommen, variiert die Situation von Kunde zu Kunde. Wie immer ist es entscheidend, die eigenen Daten zu kennen und diese selbst auszuwerten. Unser Tipp ist: Verwaltet und kontrolliert eure Daten, sei es ĂŒber BigQuery oder andere Datenbanken. Wertet diese regelmĂ€ssig aus und erstellt Reports. Je nach Situation lohnt sich auch ein Alerting, um bei Schwankungen zeitnah Massnahmen zu ergreifen.
Â
AI Overviews messen
AI Overviews (AIO) werden (Stand: Oktober 2025) von Google nicht offiziell separat gemessen. Klicks und Impressionen werden zwar in den Auswertungen der Google Search Console ausgewiesen, eine separate Auswertung der Performance ist jedoch nicht möglich. Somit bleibt unklar, wie viel Traffic (und Impressionen) ĂŒber die AIO erzielt wird.
Es gibt jedoch einen Workaround, um den Traffic mehr oder weniger genau zu bestimmen. Mithilfe von URL-Fragmenten kann sogar angenĂ€hert erkannt werden, welche Abschnitte in den AI-Overviews erscheinen. Google hĂ€ngt bei Snippet-/AIO-Klicks oft ein Scroll-to-Text-Fragment an (#:~:text=âŠ). Dieses Fragment fĂŒhrt direkt zum hervorgehobenen Textabschnitt und kann als Signal in GA4 erfasst werden. So ist es möglich, nicht nur die Anzahl der Klicks aus AIO abzuschĂ€tzen, sondern auch zu sehen, welche AbsĂ€tze und Texte vor allem von LLMs (Google) als relevant betrachtet werden.
Diese werden nicht standardmÀssig erfasst und im GA4 herausgefiltert (daher ist die Suche im GA4 erfolglos), doch können diese als benutzerdefinierte Variable in Google Tag Manager (GTM) hinterlegt werden. Mit ein bisschen Custom JavaScript können die Fragmente erfasst und geordnet werden. Dies erlaubt uns die Anzahl und die Abschnitte zu erkennen, die von AIO kommen.
Achtung Limitation: Nicht nur AIO können diese Fragmente generieren. Google benutzt diese Fragmente auch bei anderen Featured Snippet und auch wir (User) können solche Fragmente erstellen, wenn wir spezifische AbsĂ€tze als Link weiterschicken (z.B. im Chrome-Browser: Text markieren, linke Maustaste draufklicken und «Link zu markiertem Text kopieren» wĂ€hlen) . ZusĂ€tzlich haben nicht alle Links in den AIO solche Text-Fragmente â wenn ganze Seiten zitiert werden, haben die Verlinkungen aus den AIO keine Fragmente. Diese Methode bleibt daher eine AnnĂ€herung â aber die beste, die wir im Moment haben.
E chli WĂ€rbig
Neugierig geworden?
Wir stören ungern â na gut, vielleicht ein bisschen. Aber hey, wenn du schon da bist: Hol dir mehr Wissen und Wirkung â oder einfach ein bisschen iqual in dein Leben. Klick dich rein â oder lies unten weiter.
Googlet Chat GPT?
Als vermutlich erster Ă€usserte Alexis Rylko in seinem Blog die Vermutung, dass ChatGPT auf Google-Suchergebnisse zurĂŒckgreift [https://newsletter.alekseo.com/p/searchgpt-bing-google]. Er stellte fest, dass die Ergebnisse von ChatGPT zu 90 % mit den Google-Suchergebnissen (SERP) ĂŒbereinstimmen. Doch war das schlicht Zufall?
Uns ist noch etwas anderes aufgefallen. Der Parameter ?SRSLTID= in URLs steht fĂŒr «Search Result Set ID» und ist eine eindeutige Kennung von Google. Er dient Google zur Analyse des Nutzerverhaltens, um die QualitĂ€t und Relevanz der Suchergebnisse zu verbessern. Und siehe da, dieser eindeutige Parameter erscheint in den Verlinkungen von ChatGPT. Dies nennt sich dann wohl eine «Smoking Gun».
Was bedeutet das fĂŒr unsere tĂ€gliche SEO-Arbeit? Seit 2010 optimieren wir Webinhalte primĂ€r fĂŒr Menschen und nicht fĂŒr Google. Nun helfen wir einer Maschine (ChatGPT mit Websuche), die richtigen Inhalte fĂŒr Menschen ĂŒber eine andere Maschine (Google) zu finden. Wir betreiben also tatsĂ€chlich Suchmaschinenoptimierung - Pure Ironie.
Zusammenfassend: Nein, SEO ist nicht tot. Aber SEO Ă€ndert sich â wie schon seit immer.
Sichtbarkeit in LLM-Antworten
In klassischen Suchmaschinen ist Sichtbarkeit gleichbedeutend mit einem Top-Ranking. In der Welt der LLMs funktioniert das anders: Sichtbar ist, wer erwĂ€hnt wird â in der Antwort selbst oder als eingeblendete Quelle. Und das passiert nicht zufĂ€llig.
LLMs arbeiten mit Wahrscheinlichkeiten, Kontexten und semantischer NĂ€he. Sie rekonstruieren Antworten auf Basis riesiger Datenmengen â entweder aus ihrem internen GedĂ€chtnis (Foundational Model) oder durch den Zugriff auf externe Quellen z.B. ĂŒber eine eingebaute Suchmaschine via Retrieval Augmented Generation (RAG) [https://research.ibm.com/blog/retrieval-augmented-generation-RAG][https://aws.amazon.com/what-is/retrieval-augmented-generation/]. Diese Unterscheidung ist zentral und wird nachfolgend erlĂ€utert.
Foundational Models
Vereinfacht ausgedrĂŒckt hat ein Foundational Model ausgelernt. Es greift nur auf Wissen in der Vergangenheit zurĂŒck, das es bis zu einem bestimmten Zeitpunkt gelernt hat. Zentral sind dabei die verwendeten Quellen und Gewichtungsfaktoren. So wurde GPT3 angeblich mit Daten aus Common Crawl (1x), OpenWebText2 (6x), Wikipedia (5x) und BĂŒchern (1.4x) trainiert.
Dies fĂŒhrt ohne Grounding (also das «Verifizieren» der Antwort z.B. mit einer Websuche und Auswertung der Resultate) mitunter zu unterhaltsamen Chats, wie die veraltete Antwort auf die Frage nach den sieben BundesrĂ€ten zeigt. Es wirkt fast so, als ob ChatGPT «wĂŒsste», dass die Antwort falsch ist, die richtige aber nicht nachschlagen kann bzw. in diesem Fall nicht darf.
Wie genau die heutigen LLMs trainiert werden und was fĂŒr Informationsquellen und Gewichtungsfaktoren dabei verwendet wird, ist mit wenigen Ausnahmen ein gut gehĂŒtetes Geheimnis der LLM-Anbieter.
Wer in einem einmalig oder alle paar Monate bis Jahre neu trainierten Foundational Model vorkommen will, muss dafĂŒr sagen, dass die eigenen Informationen in einen Trainingsdatensatz gelangen. Dieses Unterfangen gestaltet sich schwierig. AutoritĂ€t und PopularitĂ€t sind sicher wichtig. Doch gehört auch GlĂŒck dazu.
Nebst GlĂŒck gehört auch dazu, dass den Bots der LLM-Betreibenden die Suche nach Trainingsdaten erlaubt und möglichst einfach gemacht wird. Bots also nicht aussperren und Webinhalte serverseitig so aufbereiten, dass LLM-Bots sie rendern können. Dies gilt auch oder insbesondere fĂŒr RAGs.
Retrieval Augmented Models (RAGs)
Wenn LLMs Antworten verifizieren, also ein Grounding machen, fĂŒhren sie z.B. eine Websuche durch und werten die dabei gefundenen Informationen aus. Es geht also darum zu erreichen, dass eine angestossene Websuche die eigenen Informationen findet und dann als Quelle berĂŒcksichtigt.
Wer in LLMs gefunden werden will, muss also in den von den RAGs genutzten Suchmaschinen «ranken». Ein top Ranking in Bing hilft demzufolge in ChatGPT, wĂ€hrend eines in Google fĂŒr Gemini oder die AI Overviews nĂŒtzlich ist.
Wie genau diese ZusammenhĂ€nge funktionieren, ist aktuell noch wenig bekannt und Teil von laufenden Experimenten. Erste Ergebnisse zeigen, dass SEO quasi die Grundvoraussetzung ist, um LLMO zu betreiben [https://ziptie.dev/blog/seo-still-matters-for-ai-search-engines/]. Irgendwie ist es Ironie pur, dass es in der nĂ€chsten Evolution von SEO nun wirklich um die Optimierung fĂŒr Suchmaschinen geht und fĂŒr einmal nicht um die User. Denn diesmal suchen keine Menschen, sondern die Bots der LLM-Betreibenden.
Wurde eine Website so gefunden, geht es darum, die darauf vorkommenden Inhalte zu crawlen, zu rendern und auszuwerten. Ist einem konkreten LLM-Bot ein Webbesuch erlaubt und werden Webinhalte LLM-Bot-freundlich angeboten, steht diesem Vorhaben nichts wesentliches entgegen. Werden Bots aber absichtlich oder wider besseren Wissens ausgeschlossen, funktioniert dies nicht. Dasselbe gilt fĂŒr vollstĂ€ndig clientseitig gerenderte Webinhalte. Bots, die mit solchen Technologien (noch?) nicht umgehen können, erhalten beim Aufruf einer entsprechenden URL nichts inhaltlich verwertbares und damit ist diese Chance vertan.Â
Ein Beispiel verdeutlich dies: WĂ€hrend Google heute sehr gut in der Lage ist, JavaScript zu interpretieren und mit clientseitig gerenderten Websites kaum noch MĂŒhe hat, sieht dies bei Bing anders aus. Dies durften wir jĂŒngst wieder in einem Kundenprojekt erfahren, bei dem Bing ausser der Meta Description nichts richtig gerendert kriegte â Fehlermeldungen gab es keine, weil die URL ja ganz normal aufgerufen werden kann. Einzig die immer gleichen Seitentitel einer pre-rendering-Version fielen irgendwann auf.
Da Bing gemĂ€ss Aussagen von OpenAI fĂŒr die Websuche genutzt wird, spricht dies stark fĂŒr den Einsatz entsprechender Webtechnologien bzw. das serverseitige Rendering zumindest der zentralen Inhalte einer Website. Und weiter? Nun kommt es auf die gefundenen Inhalte an.
Was macht Inhalte LLM-relevant?
LLMs bevorzugen Inhalte, die sich klar, strukturiert und maschinenlesbar prÀsentieren. Je besser ein Modell den Kontext versteht, Einheiten extrahieren und Beziehungen herstellen kann, desto grösser ist die Wahrscheinlichkeit, dass solche Inhalte in einer Antwort auftauchen. Was hilft:
- Klare Struktur: Ăberschriften als H2/H3, Listenelemente, FAQs
- Starke Begriffe: Definitionen, Vergleiche, Modelle
- Eindeutige Sprache: Geschwurbel und WorthĂŒlsen weglassen
- Eigene Haltung: nicht nur WiederkÀuen, klar erkennbare Expertise
- Zitate & Belege:Â Quellen nennen und kurze 1-2 Satz Zitate, Statistiken
- Kontext mit einbauen: Thema|Produkt + Marke gemeinsam nennen
Ein Mass, um die inhaltliche Passgenauigkeit zu bestimmen, ist die Cosine Similarity. Das klingt nach Mathematikunterricht â und ist es im Kern auch [https://myscale.com/blog/cosine-similarity-revolutionizing-llm-performance-metrics/]. Der Begriff stammt aus der Vektorrechnung und beschreibt die Ăhnlichkeit zwischen zwei Texten anhand ihres inhaltlichen und semantischen Abstands im Raum der Sprachmodelle. Einfacher gesagt: Je nĂ€her ein Text an dem liegt, was ein Sprachmodell als passende Antwort generiert, desto höher ist die Wahrscheinlichkeit, dass er eingeblendet oder zitiert wird.
In der Praxis spielte das beispielsweise bei Googles Search Generative Experience (SGE) oder den heutigen AI Overviews eine gewisse Rolle. Inhalte, die in Aufbau, Wortwahl und Kontext stark von der LLM-Antwort abweichen, werden angeblich seltener ĂŒbernommen â oder durch nĂ€herliegende ersetzt. Ein mögliches Indiz: Google schreibt die Meta Description automatisch um. Das kann auf eine zu geringe semantische Ăbereinstimmung hinweisen.
Erste eigene Beobachtungen zeigen, dass eine hohe Cosine Similarity zwischen Antwort und Webseite gerade im Fall von AI Overviews nicht in jedem Fall gegeben ist. Manchmal passt es haargenau, in anderen FĂ€llen ĂŒberhaupt nicht. Der mathematische Ansatz ist also konzeptionell spannend, in der Praxis aber kritisch zu prĂŒfen. Das erinnert in der klassischen SEO an die wdf*idf Diskussionen im Jahr 2012 oder 2013. Letztlich nĂŒtzt es nie etwas, Texte stumpf nach diesen Metriken zu optimieren. Manchmal zeigt es aber auch ganz grundsĂ€tzlich auf, dass ein Text schlicht an der Suchintention vorbeigeschrieben wurde. Es fehlten nicht einzelne Wörter, sondern ein zentraler Grundgedanke, den alle zu diesem Thema erwarten.
LLMO zielt also nicht nur auf inhaltliche Relevanz, sondern auf semantische NĂ€he. Tools wie Sistrix oder termlabs.io können helfen, diese NĂ€he im klassischen SEO zu messen â etwa durch Analyse der ĂŒbernommenen Snippets. Die Richtung ist klar: Nur wer in einem LLM inhaltlich passt und semantisch genĂŒgend Ă€hnlich ist, hat Chancen auf Sichtbarkeit. Ist das gegeben, hilft Einzigartigkeit, AutoritĂ€t und dokumentierte Expertise sowie Erfahrung. Auch das erinnert stark an klassische SEO-Konzepte, wie E-E-A-T.Â
Wer weiter gehen will, kann beispielsweise die Natural Language API oder die Auto ML Lösungen von Google nutzen [https://cloud.google.com/natural-language#all-features]. Damit lassen sich beispielsweise in Texten EntitĂ€ten, Tokens, AbhĂ€ngigkeitsstrukturen und vieles mehr ermitteln. Zum Vergleich von eigenen Texten mit generierten Antworten ist das vielleicht etwas ĂŒberdosiert, aber gerade in dieser Phase der Entwicklung spannend.
LLM-Quellenoptimierung: Wie Inhalte in Antworten landen
RAG-Systeme wie Perplexity, Bing KI oder ChatGPT mit Web-Browsing arbeiten zweistufig: Sie recherchieren Inhalte â und generieren auf dieser Basis Antworten.
Welche Quellen dabei verwendet werden, hĂ€ngt nicht nur von der inhaltlichen QualitĂ€t ab, sondern auch davon, wo und wie diese Inhalte im Netz auffindbar sind. Sichtbarkeit reicht nicht â entscheidend ist, ob die KI sie versteht, verarbeitet und als zitierwĂŒrdig einstuft.
Ăhnlich, wie schon im Kapitel «Was macht Inhalte LLM-relevant» beschrieben, zeigt sich folgendes:Â
- Inhalte in gut strukturierten, thematisch passenden Portalen oder Medien haben höhere Chancen, berĂŒcksichtigt zu werden.
- Klare Struktur, saubere Formatierung und verstÀndliche Sprache machen es LLMs einfacher, den Inhalt maschinell zu erfassen.
- Elemente wie Definitionen, Abgrenzungen, Checklisten oder Modelle lassen sich effizient extrahieren â darum werden sie hĂ€ufig eingebaut.
- Quellen mit guter Reputation â etwa Wikipedia, Reddit und Fachmedien mit LLM-Partnerschaften (z.âŻB. The Guardian, New York Times, im Deutschsprachigen Raum bekanntermassen z.B. die Springer-Medien) â gelten als besonders zugĂ€nglich fĂŒr generative Systeme.
- Auch gezielte ErwĂ€hnungen in Dossiers, Listen, Rankings oder Expertenartikeln wirken wie semantische PR-Signale. Sie verknĂŒpfen Marke und Thema â und erhöhen so die Relevanz im Kontext von AI-Antworten.
Ein Praxisbeispiel: Eine Website erklĂ€rt den Unterschied zwischen USP und UVP â sauber gegliedert, einfach formuliert, mit ZwischenĂŒberschriften und Beispielen. ErgĂ€nzend erscheint die Marke in einem Fachportal oder Branchenranking, das in AI Overviews oder bei Perplexity regelmĂ€ssig zitiert wird. Diese Kombination aus Klarheit und QuellenautoritĂ€t erhöht die Chance, in einer Antwort genannt zu werden.
Klar ist: Niemand kann erzwingen, in einer LLM-Antwort aufzutauchen. Aber die Voraussetzungen lassen sich gezielt verbessern. LLM-Quellenoptimierung ist keine exakte Wissenschaft â aber eine Möglichkeit, um Inhalte auffindbarer, lesbarer und zitierfĂ€higer zu machen.
Wie wird eine Website LLM-ready?
Viele Fragen rund um LLMO sind inhaltlich getrieben â aber die technische Basis entscheidet oft darĂŒber, ob Inhalte einer Website ĂŒberhaupt verarbeitet werden. Vor allem bei Systemen mit RAG-Anbindung (z.âŻB. Perplexity, Bing, ChatGPT mit Browsing) ist sie ein zentraler Faktor, ob und wie Inhalte berĂŒcksichtigt werden.
Noch ist wenig definitiv belegt, aber aus den bisherigen Beobachtungen lassen sich einige Anhaltspunkte ableiten.
Schnelle Ladezeiten (unter 500ms)
AI Overviews reagieren empfindlich auf Performance. Seiten mit langer Antwortzeit (z.âŻB. >500âŻms TTFB) tauchen in manchen Tests seltener als Quelle auf. Ob das kausal ist â offen. Aber Geschwindigkeit schadet bekanntlich nie.
Crawlbarkeit fĂŒr LLM-relevante Bots
Der Zugriff durch CCBot (Common Crawl), Bingbot oder andere spezialisierte Crawler ist hingegen definitiv eine Voraussetzung, um ĂŒberhaupt im Retrieval-Pool zu landen. Wer diese blockiert, ist nicht Teil der Quelle â weder im Training noch im Echtzeit-Zugriff.
Aktuell sehen wir viele Websitebetreiber, die (fĂ€lschlicherweise oder schlicht zu gut gemeint?) in der robots.txt alle möglichen Bots ausschliessen. Irgendwann werden die sich wundern â wenn nicht jetzt schon â, warum sie in den Antworten nicht vorkommen.
Beispiel gefÀllig?
Ob das wirklich so gewollt ist? Immerhin darf die Seite nun weder von fĂŒr die normale Google-Suche (=Googlebot) , noch fĂŒrs Training von Google Gemini (=Google-Extended[https://developers.google.com/search/docs/crawling-indexing/google-common-crawlers?hl=de#google-extended]) oder Bing (=Bingbot) gecrawlt werden â und OpenAI darf sie weder fĂŒr das nĂ€chste Foundational Model (GPTBot oder ĂŒber Common Crawl via CCBot) noch fĂŒr RAG (ChatGPT-User) nutzen. Hoppla!?
Strukturierte Inhalte
Listen, H2/H3-Hierarchien, FAQs â alles, was die semantische Verarbeitung erleichtert, scheint hilfreich. Das deckt sich mit dem, was wir auch aus klassischem SEO kennen. Obâs fĂŒr LLMs gleich wichtig ist? Erste Studien weisen zumindest darauf hin.
Duplicate Content
Wenn Inhalt mehrfach im Netz zu finden ist (z.âŻB. via Syndizierung oder White-Label-Artikel), stellt sich die Frage: Wer wird als «Original» erkannt? Canonical-Tags können helfen â aber das ist im LLM-Kontext noch wenig untersucht.
Konsistenz statt Kosmetik
Wenn Google beginnt, Meta-Descriptions automatisch zu ersetzen, kann das ein Hinweis auf mangelnde semantische NĂ€he sein. Ein Indiz â kein Urteil. Aber einer der Punkte, die sich beobachten lassen.
Sichtbarkeit in relevanten Quellen
LLMs greifen oft auf bekannte, gut strukturierte Portale zurĂŒck. Wer dort verlinkt oder erwĂ€hnt wird, erhöht seine Chancen. Was genau als «relevant» gilt, variiert je nach Modell â aber ein Link von einem Fachmedium war noch nie verkehrt.
Tipp: Ob die eigene Website bereits Traffic aus LLMs kriegt oder nicht, lĂ€sst sich relativ einfach in Google Analytics GA4 und dann in Google Looker Studio darstellen. DafĂŒr wird der Referral-Traffic aus LLMs kenntlich gemacht und ausgewertet.
LLM Visibility Monitoring: Wer wird genannt â und warum?
FrĂŒher bot die Google Search Console Einblick in gut laufende Keywords. Heute stellt sich eine neue Frage: Wird eine Marke, ein Begriff oder eine Quelle von Sprachmodellen ĂŒberhaupt erwĂ€hnt?
Sichtbarkeit in Large Language Models (LLMs) funktioniert anders. Sie basiert nicht auf Rankings, sondern auf Prompt-Antworten â in denen bestimmte Marken, Begriffe oder Quellen genannt werden. Oder eben nicht.
Das Monitoring dieser Nennungen ist ein neues Feld. Noch ungenau. Noch lĂŒckenhaft. Aber hochspannend.
Worum gehtâs konkret?
LLM Visibility Monitoring beobachtet:
- Wird eine Marke in den Antworten erwÀhnt?
- Werden Inhalte als Quelle verwendet?
- Tauchen Seiten in AI Overviews oder RAG-Ergebnissen auf?
- Wie unterscheiden sich die Modelle (ChatGPT, Perplexity, Claude etc.) in der Darstellung?
- Wie sichtbar ist die Konkurrenz?
Erste Tools â und grosse Unterschiede
Tools wie Peec [https://peec.ai/], Otterly [https://otterly.ai/], Profound [https://www.tryprofound.com/], Dejan AI Rank [https://airank.dejan.ai/] â und mit grösster Wahrscheinlichkeit bald auch die grossen SEO-Plattformen wie Sistrix, Semrush oder Conductor (wenn denn die GerĂŒchte und AnkĂŒndigungen stimmen) â helfen, Antworten auf diese Fragen zu finden.Â
Diese Tools messen, wie und wo Marken in AI-Suchergebnissen auftauchen â etwa bei ChatGPT, Perplexity, Gemini oder in Google AI Overviews. Sie bieten Funktionen, die sich wie folgt zusammenfassen lassen [https://otterly.ai/blog/10-best-ai-search-monitoring-and-llm-monitoring-solutions/]:
- Tracking von Markennennungen & Sichtbarkeit in AI-Antworten
- Analyse von TonalitÀt, Quellen & Verlinkungen
- Wettbewerbsvergleiche & Optimierungshinweise
- Alerts bei VerÀnderungen oder Reputationsrisiken
Diese Features sind noch nicht Standard und alle Tools werden im Moment rasant ausgebaut. Es lohnt sich, mehrere zu testen und deren Entwicklung zu beobachten, bevor eines beschafft wird.
Erste Tests mit solchen Tools zeigen enorme Unterschiede in den Ergebnissen:
- ChatGPT nennt gewisse Marken hĂ€ufig â andere nie.
- Perplexity nutzt andere Quellen als Claude oder Bing.
- Einige Systeme verlinken direkt auf Websites, andere geben nur Text aus.
Die Sichtbarkeit ist also nicht nur modell-, sondern auch themenabhĂ€ngig. Ein LLM kann eine Marke in einem Themenfeld erwĂ€hnen â und im nĂ€chsten komplett ignorieren.
Wichtige Erkenntnisse
- Sichtbarkeit ist nicht fair verteilt: Wer in den Trainingsdaten oder bekannten Quellen vorkommt, hat Vorteile.
- Sichtbarkeit ist nicht stabil: Prompt-Ergebnisse können sich Ă€ndern â auch ohne jede VerĂ€nderung auf der eigenen Website.
- Sichtbarkeit ist nicht vollstĂ€ndig steuerbar â aber beeinflussbar: durch LLM-Quellenoptimierung, strukturierte Inhalte und PrĂ€senz in vertrauenswĂŒrdigen Quellen.
Ganz wichtig: Eine einzelne Abfrage sagt wenig aus. Ich erklĂ€re das jeweils so: Das ist, als wĂŒrde ein WĂŒrfel einmal geworfen â und danach behauptet, er zeige immer eine 2. Die anderen Zahlen existieren, sie wurden nur (noch) nicht gesehen. Erst eine grössere Zahl an WĂŒrfen â bzw. in dem Fall Prompts â macht statistische Muster sichtbar und zeigt, ob bestimmte Begriffe oder Marken wirklich nicht vorkommen.
LLMO Massnahmen konkret
LLMO ist nicht irgendwann in Zukunft relevant â sondern heute. Erste Auswirkungen auf die Sichtbarkeit von Marken, Inhalten und Themen in generativen Antworten sind selbst in unseren Kundenprojekten bereits erkennbar. Und auch wenn vieles noch in Bewegung ist, gibt es Ansatzpunkte, um die eigenen Chancen gezielt zu verbessern.
Inhalte prĂŒfen â und ĂŒberarbeiten
Vorhandene Inhalte zu typischen Prompt-Themen (z.âŻB. Vergleiche, ErklĂ€rungen, Checklisten) lohnen einen Reality-Check:
- Sichtbarkeit in LLMs gegeben? â LLM Visibility Monitoring
- Inhalt maschinenlesbar? â Struktur, Formatierung, Klarheit
- Semantische NĂ€he zu AI Overviews vorhanden? â Cosine Similarity
Falls der Test nicht wie gewĂŒnscht ausfĂ€llt: Inhalt ĂŒberarbeiten. Klarer schreiben. Begriffe definieren. Zitate und Daten ergĂ€nzen. Ziel: VerstĂ€ndlichkeit fĂŒr Menschen â und fĂŒr Maschinen.
LLM-Quellenoptimierung gezielt einsetzen
LLMs greifen auf bekannte Quellen zurĂŒck â Fachportale, Verzeichnisse, Medien. Wer dort erwĂ€hnt oder verlinkt ist, taucht mit höherer Wahrscheinlichkeit in Antworten auf.
Fragen zur Einordnung:
- Welche Seiten werden oft als Quelle genannt?
- Woher beziehen Gemini, Perplexity oder ChatGPT mit Suchfunktion ihre Inhalte?
- Welche Plattformen dominieren bei generativen Antworten im jeweiligen Themenfeld?
Das hilft, gezielt an der LLM-Quellenoptimierung zu arbeiten â etwa ĂŒber das direkte anpassen (lassen) von heute vom RAG bereits regelmĂ€ssig genutzten Quellen. Spannenderweise Ă€ndert sich damit direkt die Antwort des LLMs. Logisch â trotzdem beeindruckend und gleichzeitig ziemlich trivial, nicht?
Wenn das noch nicht reicht klassisch weiterfahren mit PR, GastbeitrĂ€gen und hochwertigen Inhalten mit starker Verlinkung.Â
Das erinnert an Outreach-Kampagnen, Content Seeding, Sponsored Content und die damit verbundenen Linkanalysen im klassischen SEO. Nur dass diesmal nicht die Aufmerksamkeit der User das primĂ€re Ziel ist, sondern diejenige der LLMs. Folgt nun also eine Zeit des Marketing und PR fĂŒr RAGs â in Anbetracht der Unterschiede der Linkquellen sogar Marketing und PR fĂŒr jedes RAG individuell?
EntitÀten und Kontexte stÀrken
- Fokus auf EntitĂ€ten statt Keywords â also Konzepte, Marken und Themen
- Einheitliche Verwendung dieser EntitĂ€ten ĂŒber alle Inhalte hinweg
- Tools wie Google NLP API helfen, relevante EntitÀtsbeziehungen sichtbar zu machen [https://cloud.google.com/natural-language#demo]
Marke und Thema kombinieren
Relevante Marken werden oft genannt, wenn sie inhaltlich mit einem Thema verknĂŒpft sind. Heisst: Marke und Thema gehören in denselben Satz â möglichst hĂ€ufig, aber natĂŒrlich.
Beispiele:
- «iqual ist eine Internetagentur mit Fokus auf SEO und LLMO.»
- «FĂŒr barrierefreie Websites greifen wir auf die WCAG-Richtlinien zurĂŒck â iqual begleitet Organisationen von der Analyse bis zur Umsetzung.»
So entstehen Kookkurrenzen, die Modelle mit Marken verknĂŒpfen â ein zentrales Prinzip in LLMO [https://upload-magazin.de/63519-llmo-geo-gaio/].
Mit Prompts testen und lernen
Ob Inhalte von LLMs erkannt oder verwendet werden, lĂ€sst sich mit gezielten Prompts testen. Kein Ersatz fĂŒr systematisches Monitoring â aber ein sinnvoller Ausgangspunkt.
Beispielhafte Prompts im Umfeld eines ReisebĂŒros:
- «Was sind gute Reiseziele fĂŒr Familien mit kleinen Kindern?»
- «Welches ReisebĂŒro in der Schweiz ist auf nachhaltige Reisen spezialisiert?»
- «Was ist der Unterschied zwischen Pauschalreise und Individualreise?»
- «Welche Anbieter bieten Rundreisen fĂŒr Familien an?»
Einzelne Antworten sollten nicht ĂŒberbewertet werden. Erst eine grössere Anzahl an Prompts ĂŒber einen lĂ€ngeren Zeitraum â das Beispiel mit dem WĂŒrfel lĂ€sst grĂŒssen â zeigt, welche Begriffe, Marken oder Inhalte regelmĂ€ssig auftauchen.
Fragen zur Auswertung:
- Werden konkrete Marken oder Websites genannt?
- Tauchen Inhalte aus einer spezifischen Branche oder Region auf?
- Wird auf vertrauenswĂŒrdige Quellen verlinkt?
Inhalte sinnvoll bĂŒndeln und verlinken
RAG-Systeme greifen bevorzugt auf strukturierte, in sich geschlossene Inhalte zurĂŒck. Die Wahrscheinlichkeit, dass eine einzelne Unterseite vollstĂ€ndig gelesen wird, ist gering.
Deshalb:
- Inhalte bĂŒndeln, z.âŻB. in einem Ratgeber oder Content-Hub
- intern verlinken â mit sprechenden Linktexten
- ein klares, thematisches GerĂŒst schaffen
Das erleichtert den Modellen das Erfassen, Einordnen und Verwerten der Inhalte.
Risiken, Grenzen und offene Fragen
LLMO ist ein spannendes Feld â aber keine exakte Wissenschaft. Klassische SEO bezeichnete Karl Kratz treffend als: «Professionelles Zocken gegen eine Blackbox, die morgen weg sein kann.» Vermutlich lĂ€sst sich das eins zu eins auf LLMO ĂŒbertragen.
Wer Inhalte oder Marken sichtbar machen will, bewegt sich in einem System, das sich laufend verĂ€ndert. Vieles ist möglich, einiges nötig â vieles bleibt aber unklar.
Training â RealitĂ€t
Die Trainingsdaten grosser Sprachmodelle sind nicht öffentlich â weder bei GPT, Claude, Gemini noch Mistral. Welche Inhalte wirklich eingeflossen sind? Unbekannt. Selbst eine starke Online-PrĂ€senz garantiert nicht, Teil eines Foundational Models zu sein.
Ein Beispiel: In einem Test zeigte sich, dass im Common Crawl zwar einzelne Seiten von sbb.ch enthalten sind â aber keine einzige von admin.ch. Die wohl offiziellste Website der Schweiz fehlt in einem Datensatz, der nachweislich von vielen LLMs zum Training verwendet wird.
Und das, obwohl Common Crawl riesig ist: ĂŒber 250 Milliarden Seiten, gesammelt seit 2007, frei verfĂŒgbar, zitiert in ĂŒber 10â000 wissenschaftlichen Publikationen â und jeden Monat kommen 3 bis 5 Milliarden neue Seiten hinzu [https://commoncrawl.org/].
Ist das fragwĂŒrdig? Vielleicht. Eines ist aber klar: Es ist einfach so.
Einfluss auf Antworten lĂ€sst sich also nicht direkt nehmen â sondern nur indirekt ĂŒber das, was öffentlich verfĂŒgbar, auffindbar und maschinenlesbar ist.
Im Fall von admin.ch dĂŒrften die Infos letztlich ĂŒber die andere Datenquellen wie Wikipedia, Reddit, Stack Overflow oder Medienpartnerschaften reingekommen sein, die explizit fĂŒr Trainingszwecke genutzt oder lizenziert wurden.
Kein Konsens â keine Kontrolle
LLMs nennen, was sie fĂŒr wahrscheinlich und passend halten. Das bedeutet:
- Es lÀsst sich nicht erzwingen, genannt zu werden.
- Es lÀsst sich nicht kontrollieren, wie etwas genannt wird.
- Es lĂ€sst sich nicht verhindern, dass Mitbewerber auftauchen â auch wenn die Inhalte besser wĂ€ren.
Die Modelle funktionieren probabilistisch, nicht gerecht.
Sichtbarkeit ist flĂŒchtig
Heute genannt â morgen ignoriert? Das kann passieren. Prompt-Antworten basieren nicht auf festen Rankings, sondern auf Kontext, Modellversion, Zeit und Zufall. Einzelne Treffer können trĂŒgen.
Selbst bei vollkommen identischen Prompts sind Wiederholungen erforderlich â viele AI-Modelle nutzen Temperatur oder Randomisierung. Sichtbarkeit muss ĂŒber viele DurchlĂ€ufe aggregiert werden, um belastbare Aussagen zu treffen.
LLM Visibility Monitoring hilft, Muster zu erkennen. Aber es gibt (noch) keine stabile Metrik wie «#1 bei Google» oder «in den Top 10 bei Bing».
Aufwand vs. Einfluss
Viele Massnahmen zur LLM-Optimierung kosten Zeit, Geld und Know-how: bessere Inhalte, gezielte PR, saubere Technik, Tests und Monitoring. Der Einfluss? Bleibt oft indirekt â und nicht immer messbar.
Gerade bei kleineren Themen oder Nischen dĂŒrfte sich der Aufwand lohnen. In grossen MĂ€rkten dagegen dominieren oft jene mit stĂ€rkerer MedienprĂ€senz, PR oder Marke. Aber ehrlich: War es im klassischen SEO wirklich anders? Nein.
Missbrauch & Ethik
LLM-Quellenoptimierung wirft auch Fragen auf:
- Wo liegt die Grenze zwischen Optimierung und Manipulation?
- Was, wenn gezielt Inhalte fĂŒr KI (um)geschrieben werden, um Aufmerksamkeit oder eine bestimmte Antwort zu erzwingen?
- Was, wenn KI bevorzugt nennt, was oft genannt wird â und damit die Grossen noch grösser macht?
Das Feld ist jung. Noch gibt es keine Standards, keine Ethikrichtlinien, keine «LLMO-Guidelines» wie bei Google. Erste «Black Hat LLMO»-Taktiken sind bereits beobachtbar â etwa durch gezielte ErwĂ€hnungen in Trainings-relevanten Foren oder massenhaft gekaufte und manipulierte Reddit-BeitrĂ€ge. Das Ganze fĂŒhlt sich Ă€hnlich an, wie in der SEO vor 15 oder 20 Jahren.
Und jetzt?
LLMO ist aus Sicht von iqual eine der spannendsten Entwicklungen im digitalen Marketing seit Jahren. Endlich verĂ€ndert sich wieder etwas grundlegend. LLMO ist noch nicht laut, nicht ĂŒberall sichtbar â aber mit wachsendem Einfluss auf Sichtbarkeit, Wahrnehmung und Wettbewerb. Wer Inhalte erstellt, kommuniziert oder gefunden werden will, kommt an Large Language Models nicht mehr vorbei.
Das bedeutet nicht, dass Strategien sofort umgeworfen oder hektisch neue Tools eingefĂŒhrt werden mĂŒssen. Nicht jedes Unternehmen muss jetzt schon LLM-optimieren, Prompts testen oder Sichtbarkeitsdaten tracken. Aber es lohnt sich, die Mechanismen zu verstehen â und dort aktiv zu werden, wo es sinnvoll ist. Denn eines zeichnet sich ab: Wer versteht, wie LLMs Inhalte auswĂ€hlen und verwenden, wird kĂŒnftig eher Teil von Antworten sein.
Wir bei iqual beobachten, testen und experimentieren â und lernen tĂ€glich dazu. Denn vieles spricht dafĂŒr, dass Sichtbarkeit kĂŒnftig anders funktioniert als bisher. Oder aber LLMO wird das neue SEO. Mit beidem können wir als LLMO-Agentur sehr gut leben. :)