SEO und AI: Wie wird sich die Suchmaschinenoptimierung verändern?

Einfluss von AI auf SEO: Der Versuch einer Prognose

Olivier Blattmann

Olivier Blattmann

CKO und Co-Founder, SEO Expert

Veröffentlicht am: 13.08.2023

Lesedauer

30 Minuten

Wie verändert der Einsatz von AI-Tools die klassische Suchmaschinenoptimierung? Werden SEO-Spezialist*innen nun obsolet? Wir beantworten die wichtigsten Fragen zum Thema SEO und AI!

Keine Zeit zum lang Lesen? Hier das Wichtigste in Kürze:

  • Large Language Models (LLMs) wie OpenAI's ChatGPT könnten klassische Suchmaschinen für informative und investigative Suchanfragen teilweise ersetzen, indem sie direkt oder dialogisch Antworten bereitstellen.
  • Trotzdem behalten Suchmaschinen wie Google Vorteile bei transaktionalen Suchanfragen durch aktuelle Informationen und Produktlisten.
  • Google bleibt mit einem Marktanteil von über 90%, langjähriger Erfahrung und hochentwickelten Rankingalgorithmen dominant, während Alternativen wie Bing in der Schweiz bisher nicht marktbedeutend sind.
  •  SEO-Spezialist*innen und Content Creator müssen ihre Strategien anpassen und auf nutzerzentrierten Content fokussieren; LLMs können dabei helfen, den Content zu optimieren.
  •  Es bestehen Herausforderungen bei der Monetarisierung von LLMs und der Integration von Werbung, sowie Bedenken hinsichtlich der Quellenangabe und des Schutzes von Inhalten gegen die Verwendung durch LLMs.

Könnten Large Language Models (LLMs), wie OpenAI's ChatGPT, klassische Suchmaschinen ersetzen und welche Rolle spielt Google in Zukunft noch? Wie verändert der Einsatz von künstlicher Intelligenz SEO-Bemühungen und die Content-Erstellung? Und welche Herausforderungen und Bedenken gibt es in diesem Zusammenhang mit der neuen Ära der AI-unterstützten Suchmaschinen?

Dies sind nur einige der Fragen, welche die Branche momentan bewegen. In meinem Beitrag nehme ich Stellung zu ihnen und ordne die Thematik gemäss aktuellen Wissensstand für euch ein.

Wird Google wegen AI überflüssig?

Sprechen wir als erstes den Elefanten im Raum an. Seit dem Erscheinen von Chat GPT-3.5 werde ich des Öfteren gefragt, ob Modelle, wie OpenAI ChatGPT und andere LLMs klassische Suchmaschinen, wie Google, überflüssig machen. Zugegeben, denselben Gedanken hatte ich nach den ersten Tests von ChatGPT auch. Doch schon bald realisierte ich, dass dies differenziert betrachtet werden muss. Ein aus meiner Erfahrung guter Einstieg und Ansatz ist, bei den Usern zu beginnen. Diese tätigen grundsätzlich vier Arten von Suchanfragen: 

  1. Informationale (ich will etwas wissen)
  2. Investigative (ich suche nach vergleichenden Informationen VOR einem Kauf)
  3. Transaktionale (ich will etwas kaufen)
  4. Navigationale (ich will wohin)

Zur Vervollständigung sei erwähnt, dass es noch eine Vielzahl weiterer Suchanfragen gibt, wobei vielleicht Infotainment (z.B. «Lustige Katzenvideos») als einzige weitere Art in relevanter Menge vorkommt. 

Alle anderen Suchanfragen lassen sich meist auf eine der genannten Arten zurückführen oder kombinieren. Für die nachfolgenden Ausführungen konzentriere ich mich deshalb auf die vier Grundarten.

AI und die informationale Suche

Für eine ideale User Experience ist es durchaus vorstellbar, dass informationale Suchanfragen direkt oder im Dialog mit einem LLM beantwortet werden.

Zu Ende gedacht bedeutet das, dass die bisherigen Antworten von Suchmaschinen mit den typischen zehn blauen Links zu Webseiten unnötig werden. Das umständliche Suchen der Antwort irgendwo auf der verlinkten Seite entfällt ebenso (jetzt abgesehen von einem markierten Textfragement bei einer Suche mit Googles Chrome).

Voraussetzung für diese neue Art der Konsumation von Suchergebnissen wäre aber die Korrektheit der Informationsbasis, welche für die gelieferten Antworten verwendet wird.

Antwort von OpenAI ChatGPT auf eine Frage

OpenAI Chat GPT-4 zur Frage nach der Aktualität der Datenbasis.

 

Realität ist momentan aber, dass AI-basierte Textgeneratoren, die mit historischen Daten trainiert wurden, hinsichtlich Aktualität der Antworten (bislang) limitiert sind. So stehen OpenAI in Chat GPT-3.5 und GPT-4 bekanntlich nur Informationen bis September 2021 zur Verfügung. Ob sich das in absehbarer Zukunft ändert oder systemimmanent noch längere Zeit eine Herausforderung darstellt, wird sich zeigen.

AI und investigative Suche

Ähnliches gilt für investigative Suchanfragen. Hier ist sogar denkbar, dass mittels LLM generierte Antworten, z.B. ein Vergleich von zwei Produkten oder eine Zusammenfassung von Reviews zu einem Produkt, die User Experience massiv vereinfacht und verbessert. So kann dieser AI-generierte Content so gut sein, dass ein Besuch einer oder sogar mehrerer Webseiten nicht mehr nötig ist. 

Ist das nun das Ende von Google und anderen grossen Suchmaschinen? Nein, ganz und gar nicht. Am 10. Mai 2023 zeigte uns Google testweise, wie eine zukünftige Google SERP (Search Engine Result Page), oder wie Google sie neu nennt, die Search Generative Experience (SGE) mit ihrem eigenen LLM, Google Bard, aussehen könnte. [1] 

 

Google Bard ist seit dem 13.07.2023 nun auch in der Schweiz verfügbar, die SGE des Google Search Labs jedoch ausserhalb der USA noch nicht.

Mittels VPN ist es möglich, sich als User aus den USA auszugeben und sich in den Google Search Labs auf die Warteliste für die SGE einzutragen [2]

Auf den ersten Blick wirkt die Google SGE beeindruckend. Eine Art farbiges ChatGPT kombiniert mit allem, was man von Google kennt. Alles auf einen Blick. Der persönliche digitaler Assistent. Und das alles direkt in der von der allermeisten präferierten Suchmaschine 

Screenshot aus Google Labs

Google Search Generative Experience des Google Search Labs in der Schweiz noch nicht verfügbar.

Aber: Systematische Reviews zeigen, dass Google hier noch nachbessern muss, um den geschürten Erwartungen zu entsprechen. So werden bei einzelnen Anfragen Ergebnisse in der Antwort eins zu eins von Webseiten kopiert und nicht, wie versprochen und bei der Konkurrenz von ChatGPT oder Bing auf Knopfdruck, (neu) erstellt. Ebenso ist die Redundanz der angezeigten Informationen manchmal gross und der Mehrwert der durch die AI generierten Antwort damit gering [3].

Wie auch bei OpenAI ChatGPT muss man die Informationen immer prüfen. Eine passende Anekdote dazu: Das Sprachmodell Google Bard weiss offensichtlich nicht, dass es in der Schweiz erst seit Mitte 2023 verfügbar ist.
 

Google hat in Bard eine Sprachmodell basierend auf AI integriert. Voraussetzung für die Nutzung ist ein Google Konto. Das Sprachmodell weiss nicht, seit wann es in der Schweiz verfügbar ist. 

Google Bard steckt noch in der Entwicklung und lernt ständig dazu.

Genau wie OpenAI ChatGPT schreibt das Sprachmodell ohne weitere Anweisung im Prompt sehr ausführlich und es ist höflich, wenn man es auf seine Fehler hinweist.

AI und navigationale Suche

Damit verbleiben zwei Typen von Suchanfragen. Kümmern wir uns gedanklich zuerst um die navigationalen Suchanfragen. User wollen irgendwohin, um auf einer Webseite etwas zu machen. Aus reiner Bequemlichkeit geben sie aber nicht die Domain, eine Webseite bzw. deren URL ein, sondern ein paar treffende Suchbegriffe.

Ja, hier sind zehn blaue Links nach wie keine schlechte Antwort. Doch wohin führt es, wenn wir das noch ein bisschen weiterdenken? Schon seit vielen Jahren und mit zunehmender Entwicklung der Rankingalgorithmen sind Suchmaschinen immer besser in der Lage, solche Anfragen eindeutig zu erkennen. Damit könnte beim Absenden der Suchanfrage in einem solchen Fall direkt der bereits seit langem existierende, aber von vielen Usern selten oder noch gar nie genutzte «Auf gut Glück!» Button bei Google ausgelöst werden.  Dieser hat zur Folge, dass die Suchmaschine direkt die als #1 rankende Website aufruft. Ohne Ads. Ohne neun weitere blaue Links. 

 

In 90, ja vielleicht sogar 99, von 100 Fällen wäre ein direkter Seitenaufruf wohl die Lösung mit der besten User Experience.

Schade nur um das ganze Geld, das Google nicht mehr verdienen kann Trafficpotenzial für konkurrenzierende Websitebetreiber, weil sie oberhalb der organischen Suche keine Google Ads Textanzeigen zu Markennamen der Mitbewerber mehr einbuchen können. Ich war noch nie Fan davon, weil dies zu einem künstlichen Wettbewerb mit fremden Markennamen führt, bei dem letztlich vor allem ein Dritter, nämlich der Suchmaschinenbetreiber, gewinnt. Aber das ist ein anderes Thema…

Screenshot von Google Button auf Gut Glück

Wohin User wohl wollen, wenn sie diesen Suchbegriff eingeben? Ob da zehn blaue Links die richtige Antwort sind? Oder nicht vielmehr ein «Auf gut Glück!». Apropos: Wann hast du diesen Button das letzte Mal geklickt?

AI und transaktionale Suche

Verbleiben also die klassischen transaktionalen Suchanfragen. Wer ein Produkt kaufen oder eine Dienstleistung nach einer Informations- und Investigationsphase kaufen will, braucht in erster Linie ein passendes Angebot bzw. einen Link darauf. In solchen Fällen haben Suchmaschinenbetreiber einen klaren Vorteil. Durch Scraping, Indexieren und Bewerten von Informationen haben sie stets aktuelle Suchergebnisse. Im Fall von Google mit Google Shopping sogar eine passende Produktsuchmaschine, die von Website-Betreibern gefüttert und aktuell gehalten wird. Ja, hier haben sie einen deutlichen Vorteil vor den AI-basierten Textgeneratoren oder Chats. 

Es stellt sich die Frage, wie lange Google solche transaktionalen Anfragen noch auf die Shops und Websites verteilt. Schauen wir uns die Bestrebungen von grossen Social Media Plattformen an, sehen wir Tendenzen zur direkten Abwicklung der Transaktion oder von Anfragen. Social Commerce und z.B. Linkedin Lead Gen Forms benötigen über kurz oder lang lediglich nur noch Produktfeeds und eine Liste an relevanten Dienstleistungen eines Unternehmens. Google könnte folglich, analog zu Google Hotels in den USA, viel mehr Prozesse übernehmen.

Google SGE vermischt informationale und transaktionale Antworten zusammen mit Google Shoppinganzeigen zu einem Ganzen [4].

 

Eine nächste Hypothese: Google wird von der Suchmaschine gänzlich zum Information- und Service Provider und später vielleicht auch zum Marktplatz. Erste Beispiele zeigen, wohin die SGE führt, nämlich zu einer Vermischung zwischen informationalen und transaktionalen Antworten, wobei die Google Shopping-Anzeigen eine noch viel grössere Bedeutung kriegen.

Klassische Suchmaschinen werden also nicht verschwinden. Ganz im Gegenteil. Sie werden sich aber anpassen (müssen).

Das Nutzererlebnis wird nach vielen Jahren und gefühlt tausenden von Mikrooptimierungen nun sprunghaft verändert. Auf der anderen Seite spricht, nebst dem Hype und der Begeisterung für alles Neue, einiges für die etablierten Suchmaschinen und insbesondere Google (da ist der Marktanteil von heute weit über 90% in der westlichen Welt.)

Selbst wenn eine alternative Lösung (temporär) gefühlt bessere Resultate liefert, sind die Wechselhürden in der breiten Masse sehr gross. Damit hat Google nebst einem Druck nun reagieren zu müssen letztlich doch eine Art Schon- bzw. Übergangsfrist.

Was ist mit AI und Bing?

Oft höre ich die Frage: «Und was ist mit Bing, der Suchmaschine von Microsoft, welche ChatGPT-4 direkt integriert hat?» 

Bing hat in ihrer Suche ChatGPT-4 von OpenAI direkt integriert und weiss, seit wann es ein Sprachmodell basierend auf AI nutzt. Voraussetzung ist die Nutzung des Browsers Microsoft Edge und ein Bing-Konto.

Ja, die aktuelle mediale Aufmerksamkeit ist durch die milliardenhohen Investitionen von Microsoft in OpenAI gross. Ebenso das Interesse an einer echten Alternative zu Google. Zumindest nehme ich das in meiner Informationsblase so wahr.

Die reinen Statistiken sprechen jedoch eine andere Sprache. Rund ein halbes Jahr vor dem stark antizipierten und im Vorfeld viel diskutierten Launch von Chat GPT3.5hatte Bing einen Marktanteil von 5.38% in der Schweiz. Ein halbes Jahr danach liegt er noch bei 4.6%.

Nüchtern betrachtet hat Bing also innert Jahresfrist deutlich verloren. Google konnte währenddessen seinen Marktanteil zu Lasten von allen anderen Suchmaschinen steigern. So sehr sich viele einen echten Wettbewerb unter den Suchmaschinen wünschen, so bleibt dies im Moment ein Traum. 

Verteilung der Marktanteile von Suchmaschinen in der Schweiz im Juni 2022. [5]

Verteilung der Marktanteile von Suchmaschinen in der Schweiz im Juni 2023. [5]  

Wie wird es mit Google und künstlicher Intelligenz weitergehen?

Meine aktuelle Prognose ist, dass Google seine Marktdominanz halten und noch weiter ausbauen wird. Denn nebst den schon genannten Vorteilen kommen zwei weitere dazu: 

Vorteil 1: Information Retrieval

Google weiss seit über 25 Jahren, wie Crawling funktioniert. Ihre Crawler und Algorithmen durchsuchen jede Sekunde Abermillionen von Webinhalten. Diesen und weitere Prozesse in der Disziplin des Information Retrieval und zum Betrieb einer Suchmaschine haben sie so weit getrieben, wie noch nie ein Unternehmen zuvor. Wie sie das ganz genau machen, ist und bleibt ein milliardenschweres Firmengeheimnis. Sie bieten aber immerhin mit animierten und hübsch gemachten Informationen hierzu einen spannenden Einblick [6]. Google hat also nebst dem Erfahrungsvorsprung einen teilweise fast in Echtzeit aktualisierten Datensatz an Informationen im sichtbaren bzw. relevanten Internet der ganzen Welt. 

Vergleichen wir das mal mit anderen Anbietern, die nicht als Suchmaschine gestartet sind:

  • Nicht öffentlich bekannt ist, woher OpenAI seine Daten hat. [7]
  • Von den meisten anderen AI-basierten Textgeneratoren ist bekannt, dass sie nicht die finanziellen oder technischen Ressourcen haben, um das komplette Internet selbst zu crawlen und ihre Informationen aktuell zu halten. Also basieren sie in den meisten Fällen auf einem einzigen Datenset, dem Common Crawl, der alle 1-2 Monate aktualisiert wird. [8]

Meine weiterführenden Recherchen zeigten mir, dass sich Google an diesem Projekt zwar beteiligt und mit ihrer Erfahrung den Common Crawl bereinigen und den sogenannten Google C4 Datensatz zur Verfügung stellen (C4 steht dabei für «Colossal Clean Crawled Corpus»). [9] Dieser wird ebenfalls von einigen Anbietern genutzt. Es stellt sich jedoch die Frage, ob Anbieter, die auf Common Crawl oder C4 basieren, ihre Daten überhaupt mit der aktuellsten zur Verfügung stehenden Version aktualisieren und wenn ja, wie häufig.

Vorteil 2: Ranking von Inhalten

Google hat auch in der Bewertung von Information einen uneinholbar scheinenden Vorsprung. Mit täglich weiter optimierten und längst auch mit AI-unterstützten Rankingalgorithmen sind sie in der Lage, die Relevanz von Content und Contentfragmenten zu beurteilen sowie Entitäten und Zusammenhänge zu erkennen [10]. Inwiefern kann nun ein mit Text trainiertes Modell Antworten liefern, die z.B. einem Konzept von E-E-A-T [11] genügen?

Die Antwort ist einfach: Eigentlich gar nicht. Dafür wurde das Modell, im Gegensatz zum Rankingalgorithmus von Google, gar nicht erst gebaut. Selbstverständlich kann OpenAI Chat oder – etwas praktischer – über die API von OpenAI, eine Art Suchmaschine simuliert werden, indem beispielsweise nach den typischen «zehn blauen Links» gefragt wird. Oder, wie dies der SEO-Toolanbieter Sistrix unternahm, mit einer Frage nach einer Empfehlung für jeweils 10 Marken zu 10'000 generischen Keywords aus dem Produktumfeld [12]. Die Ergebnisse basierend auf OpenAI decken sich zum Teil mit denjenigen der Top Marken auf Amazon – grundlegen falsch sind die Empfehlungen also nicht.

In Zukunft werden wir möglicherweise also nicht nur SEO-Controlling für Google, Amazon und andere Suchmaschinen haben, sondern mit grösster Wahrscheinlichkeit auch für Sprachmodelle. Bis eine konsistente Umsetzung seitens Suchmaschinen und Toolanbieter erfolgt ist, lohnt es sich, die für ein Unternehmen zentralen Suchbegriffe einfach mal in den favorisierten Sprachmodellen einzugeben und nach einer Empfehlung für Anbieter zu fragen. 

Lustige Anekdote am Rande:

Schön, wenn es dir dann so ergeht, wie einem Kunden von uns, der nicht nur Textinhalte von sich wiederfand, sondern von OpenAI auch gleich noch eine Empfehlung für sein Unternehmen erhielt. Leider sind die Ergebnisse naturgemäss nicht konsistent, denn bei der nächsten Abfrage kamen komplett andere Resultate raus. Typisch für ein generatives Sprachmodell, das nahezu nie genau dasselbe zweimal hintereinander ausspuckt. 

Und damit ist auch etwas anderes klar: Obschon OpenAI Chat nicht als Suchmaschine entwickelt wurde, kann sie solche Aufgaben einigermassen zufriedenstellend lösen.

Das alleine ist beeindruckend, aber gleichzeitig stellen sich Fragen, nach welchen Kriterien die Reihenfolge zustande kam. Ob OpenAI plant, für solche Anwendungen Rankingalgorithmen zu ergänzen, ist unklar. Vorerst kümmern sich sie sich unter anderem darum, das Halluzinieren in den Griff zu kriegen [13].  

Auf der anderen Seite stellt sich die Frage, ob Google in der Lage ist, ihre AI-basierte Content Generierung mit ihrem Rankingalgorithmus zu kombinieren. Wenn ja, ist dies quasi die Quadratur des Kreises. Und wenn sich dies durchsetzt, dann würden sie ihre Marktstellung nicht nur halten, sondern sogar weiter ausbauen können.

Was könnte Google die Marktführerschaft kosten?

Irgendwo im Hinterkopf wartet seit den ersten Diskussionen über das Thema die folgende Frage auf eine Antwort: «Wo genau werden in einer für die User idealen Search-Experience die klassischen vier bzw. sieben Google Text-Ads integriert?» Die illustrativen Beispiele von Google mit passenden Shopping- oder Hotel-Ads sind wunderschön und nahtlos in eine Customer Journey integriert [14].

Doch was ist, wenn es sich um Dienstleistungen handelt und keine physischen Produkte, wie wenn z.B. jemand «Internetagentur Bern» googelt? Oder wenn eine Ad nur am Rande zu einer Suchanfrage passt und auch nicht so viele Anbieter auf diese Keywords bieten? Dies ist bei investigativen Suchanfragen, wie «Was kostet YouTube Werbung» und noch viel häufiger bei informationalen Suchanfragen, wie «Was sind Mockups» der Fall. Je nach Suchbegriff dominieren Wikipedia, Lexika oder Medienhäuser mit umfassenden Informationen zu ganzen Suchwolken die Top 10 oder gar die Top 30 in den heutigen SERPs.

Mit SEO sind in solchen Fällen mit einer einfachen Unternehmenswebsite keine Rankings oder Klicks zu erzielen. Mit SEA hingegen konnte bislang fast jeder Websitebetreiber zum Teil beeindruckende Zahlen realisieren. So kann ich mich lebhaft an ein Beispiel mit dem generischen und informationalen Begriff «Muttertag» erinnern, welcher einem kleinen Schmuck-Online-Shop viele Google Ads Klicks und tatsächlich auch Neukunden und Umsatz mit deutlich positivem ROAS bescherte. Wie dies auf natürliche Art und Weise in ein Bard integriert werden soll, weiss ich heute, ehrlich gesagt, nicht.

Wie sieht das mit Werbung in den LLMs aus?

Zusammengefasst werden wir uns in naher Zukunft in fast menschlicher Art und Weise mit Suchmaschinen unterhalten. Je nach Art der Suchanfrage werden sich die Antworten unterscheiden. Manchmal wird via LLM in Echtzeit passender Content generiert und sogar eine komplexe Frage direkt und sinnvoll beantwortet. Manchmal werden mir Produkte und Dienstleistungen gezeigt, die ich sofort und vielleicht direkt auf Google kaufen oder buchen kann. Und manchmal werden mir direkt passende Webseiten geöffnet. 

Meine Hypothese lautet, dass das Usererlebnis dabei, ausser bei Antworten, bei welcher Produkte oder Dienstleistungen involviert sind, kaum durch Ads unterbrochen wird. Wie ich zu dieser Hypothese komme?

Erstens, weil Google in Bard im Gegensatz zur normalen Suche auf Desktop und Mobile (noch) keine Ads integriert hat [15].

Google Suchanfrage und Ergebnis in SGE ohne Ads

Eine typische Suchanfrage, zu welcher im Normalfall Google Ads ausgespielt werden, hat in der SGE keine Suchanzeigen. [16]

Dieselbe Suchanfrage in der bekannten Google SERP, zu welcher vier Google Ads ausgespielt werden. [17] 

Zweitens, weil ich Parallelen sehe zur bis heute schwierigen Monetarisierung von Voice User Interfaces , also z.B. bei sprachgesteuerten smarten Lautsprechern. So wurden sowohl bei Google, als auch bei Amazon, in diesem Bereich in der Summe in den letzten Jahren über zehntausend Arbeitsplätze gestrichen. Die naheliegende Antwort auf das warum lautet: Weil es keine Möglichkeit gibt, in einer Sprachantwort auf nützliche Art und Weise Werbung einzufügen, welche die User nicht nervt. 

  • «Hey Google, wo kann ich in Bern gut italienisch essen gehen?» Antwort: «Ich antworte dir gerne, zuvor möchte ich dir aber noch vier Werbungen unserer Webetreibenden vorlesen. 1. Thaifoodkurier Bern, Ihr Spezialist für thailändisches Essen…» 
  • Oder: «Hey Google, mein Hund hat zwei Tafeln Schokolade gegessen! Wie ist die Nummer des Tiernotarztes in Bern?» Antwort: «Klar! Hier zuerst noch vier spannende Ads: 1. Chocolat Frey, ihr Schweizer Schokoladenhersteller…» 

Klar, die Beispiele sind etwas gesucht. Aber das Grundproblem wird klar. Eine auf einem LLM basierende Antwort ohne Werbung wäre in beiden Fällen die geeignetere Lösung.

Ohne Werbung müssen alternative Geschäftsmodelle her und diese sind nicht so einfach zu finden. Dies gilt für sprachgesteuerte smarte Lautsprecher und meines Erachtens aber in ähnlicher Art und Weise bei einer natürlichen Kommunikation mit einem auf Text basierten Kommunikation mit einem LLM.

Als UX-Designer bei Google zu arbeiten, dürfte im Moment sehr spannend sein. Eine Frage dürfte lauten: «Wie integrieren wir Ads-Textanzeigen in einer Chat-artigen Suche in einer Art und Weise, dass das Usererlebnis perfekt ist und wir gleichzeitig noch mehr überhaupt etwas  verdienen können?» 

Gelingt dies nicht, könnte das einer der Hauptgründe für Veränderungen im Markt der Suchmaschinenanbieter einläuten. Daran dürften die Aktionäre von Googles Mutterhaus Alphabet kein Interesse haben.

So oder so: Es ist zum ersten Mal seit vielen Jahren wieder spürbare Dynamik im Markt und das ist spannend. 

Werden SEO-Expert*innen nun arbeitslos?

Auch bei der Frage, ob SEO-Expert*innen und Content Creator nun arbeitslos werden, muss differenziert werden. Während für SEOs sich das Feld vergrössert und nun nicht nur klassische Suchmaschinen im Visier ihrer Bemühungen stehen, sondern auch LLMs, sieht es bei Content Creator etwas anders aus. Spätestens mit dem allerersten Panda Update im Jahr 2011 wurde klar, dass Google Seiten mit hoher Contentqualität bevorzugt.  Dazu veröffentlichten sie eine Art Manifest, welche die Branche auch Jahre danach noch beschäftigt. [18]

Doch wie so häufig, klaffen Anspruch und Realität auseinander. So gibt es bis heute Webseiten, die augenscheinlich nicht mit der Absicht der Userorientierung oder einem Anspruch von hoher Contentqualität erstellt werden. Solche Seiten haben es zum Glück immer schwieriger, ein Topranking zu erzielen.

Content Creator werden von Google angehalten, hilfreiche, userorientierte und relevante Informationen zu liefern, welche den Kriterien von E-A-T (Expertise, Authoritativeness und Trustworthiness) genügen. Im Dezember 2022 kam zudem die Erfahrung hinzu, also die Experience, womit das Konzept nun Double-E-A-T oder E-E-A-T (Experience, Expertise, Authoritativen-ess und Trustworthiness genannt wird. [11] 

  • Wer erstellt heute immer noch Content, der einzig und alleine die Aufgabe hat, in Suchmaschinen zu ranken?
  • Wer konsumiert ernsthaft Inhalte niedrigster Qualität, deren Texte kaum lesebar sind, die ohne erkennbare Recherche und Expertise in höchster Eile aus ominösen Quellen zusammengestrickt wurden oder die günstig bei einem der einschlägig bekannten Contentprovider beschafft wurden?
  • In welcher Situation ist ein auf exakt 3% Keyworddichte optimierter Text – also entsprechend der Standardvorgabe in vielen SEO-Tools – wirklich die passende Antwort auf eine komplexe Suchanfrage zu einem sensiblen Thema? 

Mit etwas Erfahrung und/oder Nachdenken kommen alle irgendwann zur Erkenntnis: Solchen Content liest niemand. Nicht einmal Suchmaschinen. Und ein Topranking gibt es dafür erst recht nicht. Meistens zumindest.

Die gute Nachricht ist: Dieser Content-Müll verliert nun endgültig seine Daseinsberechtigung. Die doppelt schlechte Nachricht lautet: Produzenten geringer Contentqualität müssen sich einen neuen Job suchen oder umdenken. Und leider gibt es auch nicht nur positive Nachrichten für diejenigen, die genau das Gegenteil machen.

Das Dilemma der Content-Creator: Wie werden ihre Inhalte verwendet?

Content Creator, die mit unendlich viel Herzblut und Leidenschaft user-zentrierte Inhalte in bislang unerreichter Qualität produzieren, kommen in ein Dilemma. Der Grund dafür ist simpel: ChatGPT, Bard und andere LLM zitieren ihre Quellen nicht oder nicht vollständig. Und wenn doch, ist es möglich, dass sie Quellen fabrizieren. [19]  

Wenn ein Text aus unzähligen anderen Texten generiert wird, ist es systemimmanent unmöglich, alle Quellen zu listen. In Google Bard werden hierzu immerhin jeweils einige passende angezeigt.

Noch schlimmer als die teilweise fehlende oder lückenhafte Angabe von Quellen ist jedoch, dass Websitebetreiber mit öffentlichen Webinhalten eigentlich keine Möglichkeit haben, zu verhindern, dass ihre Informationen zum Training des Modells verwendet werden. Der Common Crawl Bot wäre theoretisch schon z.B. über den User Agent CCBot in der robots.txt ganz einfach aussperrbar. [20]

Das sähe dann folgendermassen aus:
User-agent: CCBot
Disallow: /

 

Mit diesem Eintrag sperrt man aber nicht nur den Crawl, sondern auch die Indexierung in LLMs. Wer  also damit leben kann, in vielen LLM gar nicht erst enthalten zu sein, kann so den Crawl seiner wertvollen Informationen verhindern. Ebenso gibt es Tools, um zu prüfen, ob eine Website aktuell im Google C4 Datensatz enthalten ist und wie viel davon. [7]

Es ist aktuell jedoch nicht bekannt mit welchem Crawler Google oder OpenAI an ihre Informationen kommen. Es gibt Vermutungen, dass Google dafür nicht den regulären Googlebot verwendet, sondern einen neuen Bot namens GoogleOther. [21] Doch dies sind nur Spekulationen. 

Was wäre, wenn Google nun doch den regulären Bot braucht, wie für die Resultate in der Suchmaschine? Will ich verhindern, dass meine mit Herzblut und unendlich viel Schweiss und Aufwand erstellten Content Diamanten für Bard als Trainingsdaten genutzt werden, so blocke ich ganz einfach den Googlebot über die robots.txt. Doch damit verhindere ich wiederum, dass ich grundsätzlich indexiert werden kann. Ups!

Und schon wieder sitzt Google am längeren Hebel. Getreu dem Motto: «Wenn du mir nicht deine wertvollsten Assets gibst, werde ich dich auch nicht mit Rankings und Traffic belohnen. Wenn du es aber tust, kann und werde ich deinen Content dazu nutzen, dass ich Fragen selbständig beantworte und du im dümmsten Fall gar nichts davon hast.» 

Ich kann mich erinnern, dass Bilderdatenbanken schon mal juristisch gegen Google vorgehen wollten, weil Google mit einem Update von Google Photos deren Trafficzahlen auf einen Bruchteil reduzierte. Ähnliches gilt bei der ewigen Diskussion rund um Newspublisher und wer nun welche Inhalte wann anzeigt, wer wie davon profitiert und welche Rolle Ads rund um diese News spielen.

Für juristischen Fragen verweise ich auf Anfrage gerne an Domenig und Partner, unsere Anwaltskanzlei in Bern, mit welcher wir einen Datenschutzworkshop entwickelt haben. Wer keine Beratung sucht, sondern nur eine gute Zusammenfassung zum aktuellen Stand der juristischen Schauplätze, dann erwähne ich gerne diesen Artikel.

Hilft ein neues Meta-Tag weiter?

Nicht zuletzt scheint nun auch die Diskussion lanciert, ob robots.txt tatsächlich schon das Ende der Fahnenstange ist. Denn letztlich geht es hier nicht um ein Crawling-Verbot für die Bots vom LLM, sondern um klare Anweisungen, wie Inhalte (weiter-)verwendet werden dürfen. Und dafür gibt es gedanklich Ansätze, wie ein neues Meta-Tag für Copyrights. [22] Ich bin selbst gespannt, wie die juristischen und technischen Diskussionen hierzu weitergehen.

Was ist heute bereits mit AI im SEO möglich?

Schlechter Content, der nicht rankt, lässt sich mit geeigneten Prompts inhaltlich umschreiben oder formell fast ohne Aufwand optimieren. Für letzteres ist aus meiner Sicht beispielweise nicht OpenAI am besten geeignet, sondern DeepL mit ihrem Dienst DeepL Write.

Ebenso können AI-basierte Contentgeneratoren mit der Aufgabe Content hilfreicher und userorientierter zu verfassen, etwas anfangen. Damit ist die Zeit von schnell und günstig erstelltem, aber schlechtem, Content – endlich – vorbei.

Ich selbst nutze LLMs im Bereich der Suchmaschinenoptimierung intensiv, aber auch in der Lehre und sogar privat. Manchmal nur zur Ideenfindung. Oder um mir eine Frage zu beantworten, bei der ich erfahrungsgemäss mit Google keine klare Antwort erhalte. Oder ich lasse mir einen Text generieren aus Stichworten, z.B. für eine Fallstudie für Studierende, für eine Mail, eine PowerPoint-Folie oder einen Prompt zur Generierung von geeigneten Bildern. 

In Kundenprojekten lohnt sich AI im Bereich SEO unter anderem bei repetitiven Arbeiten, wie dem Generieren von passenden SERP-Snippets, wie Title und Description, aber auch für H1 und kurze Intro Texte bspw. in einem Online-Shop oder bei einem (Re-)Launch einer Website.

Zwingend für mich ist in so einem Fall dann die von OpenAI angebotene API. So lassen sich bereits mit einem Google Sheet innert Minuten für zig Webseiten zum Content und Fokus Keyword passende SERP-Snippets produzieren.

Hierbei lernen wir bei der iqual im Moment, Prompting so zu nutzen, dass das Modell das tut, was wir wollen. Und dass es nicht zu Halluzinieren beginnt oder Anweisungen ignoriert.

Persönlich nutze ich manchmal einen Trick und bitte um eine Einschätzung einer Wahrscheinlichkeit, mit der OpenAI sicher ist, dass die Informationen korrekt sind. So habe ich festgestellt, dass ich mit Antworten unter 80 oder 90% bereits sehr vorsichtig sein muss. Oder ich lasse OpenAI die generierten Informationen nach bestimmten Gesichtspunkten prüfen. So korrigiert das Modell sich selbst, was ich sehr nützlich finde.

Anekdote 2: 
Und trotz allen Vorteilen: Für das Schreiben dieses Beitrages habe ich keinerlei LLM genutzt. Warum nicht?

Ich möchte diese neuen Sprachmodelle nicht mehr missen, um mich inspirieren zu lassen, inhaltliche Strukturen zu entwickeln oder bei einem gut dokumentierten Thema, das ich selbst nicht so gut kenne, einen ersten Gesamtüberblick zu kriegen. Auch für beim Umformulieren von Texten spare ich enorm viel Zeit. Dank jahrelanger Erfahrung, schier unendlicher Informationsflut und vielen Diskussionen in jüngster Zeit hatte ich aber so viel Inspiration und Information im Kopf, dass ich diesen Artikel für mich selbst für die kognitive Auseinandersetzung, das Verstehen und das gedankliche Weiterspinnen nutzte. Externe Inputs brauchte ich also nicht und die meisten der verwendeten Quellen kannte ich bereits auswendig und musste sie nicht mehr recherchieren, sondern nur noch zusammentragen. Und umformulieren wollte ich es nicht, da dies eine persönliche Stellungnahme von mir ist, ungefiltert und von meiner Kollegin redigiert. 

Nachteile von AI generiertem Content

Ob der durch AI optimierte Content letztlich relevant ist, ist eine andere Frage. Der implizite Vorwurf lautet, dass mit bestehenden Texten trainierte Sprachmodelle nichts Neues beitragen können. Der zündende Funke, die Inspiration, das zusätzliche Puzzleteil, das fehle.

Das ist wohl richtig. Doch ist das in jedem Fall schlimm und der generierte Inhalt somit irrelevant? Wenn die Struktur und Lesbarkeit top ist, der Aufbau userorientiert und der Inhalt hilfreich aber sonst nichts Anderes drin steht, als bei vielen anderen Quellen auch? Vermutlich nicht. Denn wer hat schon alle dazu passenden Millionen von Webseiten und Informationen gelesen?

Um die Zielgruppe eines Artikels mit dem Titel «Einführung in die Suchmaschinenoptimierung» zu erreichen, muss das Rad ja auch nicht neu erfunden werden. Auf der anderen Seite stellt sich die Frage, ob so ein Artikel überhaupt noch eine Daseinsberechtigung hat

Ein weiterer Nachteil ist damit auch klar: AI generierte Inhalte werden nicht dazu beitragen, die Content Flut einzudämmen, sondern diese in der nächsten Zeit sogar noch verstärken.

Rankt der mit AI generierte Content?

  • Ich selbst habe die Erfahrung gemacht, dass Content, der mit einfachsten Prompts, wie «Erstelle Content für eine Webseite zum Thema X», ohne jegliche weitere Kontextinformationen grosse Mühe hat, überhaupt in den Index von Google zu kommen.
  • Demgegenüber ranken Seiten top, die mit Herzblut und unter Zuhilfenahme von intelligenteren Prompts und Kontextinformationen optimiert und aus der Sicht von Autor*innen mit entsprechender Expertise angereichert wurden.

Fähige Content Creator und SEOs können mit AI also noch bessere Texte schreiben. Und diese ranken. Das entspricht auch den Erfahrungen von anderen und im Grundprinzip auch den Vorgaben von Google. So kommt auch Johannes Beus von Sistrix zum Schluss: «Gelingt es Google, dass Autoren mit den unter ihren Namen veröffentlichten Inhalten maschinenlesbar für die Qualität einstehen, kann der Suchmaschine der Weg der Content Erstellung am Ende egal sein – solange die Qualität stimmt.» [23]

Dem kann ich momentan nichts Weiteres anfügen.

Wie erlebst du die aktuelle Situation? Spannend und lehrreich? Oder doch eher herausfordernd oder sogar überfordernd bis frustrierend? Was ist deine Meinung zu meinen Schlussfolgerungen und Hypothesen? Hast du allenfalls Fragen? Dann melde dich gerne bei mir. Wenn viele Inputs kommen, werde ich gerne diesen Artikel laufend aktualisieren und erweitern oder einen zweiten Teil schreiben.

Ein Disclaimer

  • Ich bin Suchmaschinenoptimierer. Seit 2004.
  • Ich kann, im Gegensatz zu einigen bekannten TV-Orakeln, die Zukunft nicht voraussagen.
  • Alles, was ich hier schreibe, dokumentiert lediglich den aktuellen Stand meines Irrtums. Aber ich lese täglich Neues und lerne.

Wenn ihr weitere spannende Inputs, Anmerkungen oder Kritik zum Inhalt habt, dann nutzt doch gerne die Kommentar-Funktion. Ich freue mich, von euch zu hören!

Literaturverzeichnis

Deine Ansprechperson

Dr. Olivier Blattmann
BERATUNG

Dr. Olivier Blattmann

CKO und Co-Founder

Du willst noch mehr zum Thema künstliche Intelligenz in der Suchmaschinenoptimierung erfahren? Du wünscht dir eine Einführung in das Thema für dein Unternehmen oder fragst dich, welche Massnahmen du jetzt ergreifen musst, um am Ball zu bleiben? Dann nimm doch unverbindlich mit mir Kontakt auf, ich berate dich gerne!

Neuen Kommentar hinzufügen