GAIO, LLMO, AIO? Egal! Optimierung für ChatGPT & SGE erklärt

GAIO und LLMO - Optimierung für Chatbots

Das Wichtigste in Kürze:

  • Definition: Verschiedene Begriffe wie GAIO und LLMO beschreiben die Optimierung von Webseiten für Sprachmodelle und durch generative KI erweiterte Suchmaschinen, um deren Auffindbarkeit zu erhöhen. GAIO zielt darauf ab, Unternehmen dabei zu helfen, ihre Marke, Leistungen und Produkte in den Ausgaben führender Generative Engines, wie z. B. ChatGPT, Google Gemini und Google SGE, prominent zu platzieren.
  • Wichtigkeit von Retrieval Augmented Generation (RAG): RAG ist ein Framework zur Verbesserung der Qualität von LLM-erzeugten Antworten. Das Modell wird dabei auf externen Wissensquellen basiert, um die interne Darstellung von Informationen des LLM zu ergänzen. So muss ein Sprachmodell auch nicht laufend neu trainiert werden.
  • Optimierung für externer Wissensquellen: Es ist effektiver, die Auffindbarkeit deiner Inhalte in externen Wissensquellen zu verbessern, die von Sprachmodellen als Referenz genutzt werden, anstatt zu versuchen, die Trainingsdaten der Modelle direkt zu beeinflussen.
  • Adaption von SEO-Strategien: Für eine effektive OnPage-GAIO sollten Inhalte relevant und passend formatiert sein, um in KI-erweiterten Suchmaschinen und bei Sprachmodellen als zuverlässige Antworten hervorzustechen. Im Kontext OffPage-GAIO ist die Teilnahme an Datenbank- und Aggregator-Websites sowie effektive Online-PR essenziell.

Generative Erfahrungen kommen – ganz egal, ob deine digitale Marke bereit dafür ist:

  • Google SGE soll anscheinend knapp nach der Google I/O am 14. Mai 2024 ausgerollt werden.
  • Mehr und mehr Chatbots neben ChatGPT, wie z. B. Google Gemini und Anthropics Claude, sprießen aus dem Boden.
  • ChatGPT stellt seit 29. März 2024 Links prominenter dar.

Es ist also höchste Zeit, dass du dich aktiv mit der Optimierung für Sprachmodelle und Chatbots beschäftigst. In diesem Ratgeber lernst du:

  • warum die Optimierung für Sprachmodelle häufig missverstanden wird
  • wieso SEO nicht stirbt, sondern sogar noch wichtiger geworden ist
  • warum Retrieval Augmented Generation die Zukunft ist
  • und welche konkreten Schritte du umsetzen musst, um mehr Traffic über Chatbots zu bekommen.

Bereit?

Mehr über KI, SEO und Content-Marketing:

Was ist GEO, LLMO oder GAIO?

Typische Definition aus dem Internet

LLMO steht für Large Language Model Optimization (Optimierung für Sprachmodelle). Der Begriff beschreibt eine Reihe von Maßnahmen, um die Antworten von Chatbots, wie z. B. ChatGPT und Google Gemini, oder LLM-basierten generativen Erfahrungssystemen, wie Google SGE und Perplexity AI, zu beeinflussen.

Eines solltest du zu dieser Definition wissen:

Es gibt aktuell noch keinen einheitlichen Begriff für diese Praxis. Gängig sind derzeit:

  • Large Language Model Optimization (LLMO),
  • Generative Artificial Intelligence Optimization (GAIO)
  • Artificial Intelligence Optimization (AIO)
  • Answer Engine Optimization (AEO)
  • und Generative Engine Optimization (GEO).

Jeder dieser Begriffe beschreibt unterschiedliche Ansätze und Umfänge.

Unsere Definition

GAIO zielt darauf ab, Unternehmen dabei zu helfen, ihre Marke, Leistungen und Produkte in den Ausgaben führender Generative Engines, wie z. B. ChatGPT, Google Gemini und Google SGE, prominent zu platzieren.

Warum ist die Definition schwierig?

Die Trainingsdaten eines Sprachmodells sind zwar beeinflussbar, aber dies müsste im großen Stil erfolgen, um einen Effekt zu sehen. Das wird für Unternehmen aus meiner Sicht kaum möglich und nicht lukrativ sein. Aus diesem Grund lasse ich diesen Aspekt bewusst weg.

Der Optimierungshebel liegt aus meiner bisherigen Erfahrung in Retrieval Augmented Generation …

Retrieval Augmented Generation (RAG)?

Große Sprachmodelle treffen bei manchen Fragen den Nagel auf den Kopf, ein anderes Mal geben sie zufällige Informationen aus ihren Trainingsdaten wieder. Wenn sie gelegentlich so klingen, als hätten sie keine Ahnung, was sie sagen, dann liegt das daran, dass sie tatsächlich keine haben.

LLMs wissen, wie Wörter statistisch zusammenhängen, aber nicht, was sie bedeuten.

Was ist Retrieval Augmented Generation (RAG)?

RAG ist ein Framework zur Verbesserung der Qualität von LLM-erzeugten Antworten: Das Modell wird auf externen Wissensquellen basiert, um die interne Darstellung von Informationen des LLM zu ergänzen.

Die Implementierung von RAG in einem auf LLM basierenden Frage-Antwort-System hat zwei Hauptvorteile:

  • Das Modell hat Zugang zu aktuellen, zuverlässigen Fakten.
  • Benutzer*innen können auf die Quellen des Modells zugreifen. So können dessen Aussagen auf Genauigkeit überprüft werden – und sind somit vertrauenswürdiger.

RAG reduziert auch die Notwendigkeit, das Modell kontinuierlich mit neuen Daten zu trainieren und seine Parameter zu aktualisieren, wenn sich etwas ändert.

RAG praxisnah erklärt

In einem statischen LLM wie GPT-4 zu erscheinen, könnte wertvoll für die Sichtbarkeit deiner Marke sein, wird jedoch keinen Traffic auf deine Website lenken.

Plattformen, die mit dem Internet verbunden sind, verbessern die Ausgabe von LLMs, indem sie aktuelle, relevante Inhalte aus Suchmaschinenindizes abrufen (externe Wissensquelle). Dieser Prozess wird als RAG bezeichnet.

Es ist die Kombination der Leistung des LLM mit einer Auswahl von hochrelevanten Inhalten aus dem Internet, die es dem Chatbot ermöglicht, eine aktuellere und faktisch genauere Ausgabe zu produzieren.

Was du jetzt verstehen solltest:

Sprachmodelle und darauf basierende Chatbots brauchen aufgrund ihrer Funktionsweise immer eine Suchfunktion, um aktuelle und korrekte Antworten zu liefern. Deswegen nutzt auch ChatGPT die Bing-Suche. SEO wird also nicht weniger relevant, sondern gewinnt eine neue Sparte.

Wie die Zukunft von SEO in einer KI-Welt genau aussieht, erfährst du in unserem ausführlichen Ratgeber „Ist SEO tot?

Ein Beispiel für RAG

Wie Retrieval Augmented Generation in der Praxis aussehen kann, zeigen dir die folgenden Screenshots:

Chatverlauf aus ChatGPT als Beispiel für RAG
ChatGPT 4: Welche Firmen betreut Evergreen Media AR GmbH?

Diese Informationen sind nicht Teil der Trainingsdaten von GPT-4. ChatGPT hat diese Informationen stattdessen über Bing gesucht und dann über das Sprachmodell ausformuliert.

Und noch ein Beispiel von Google Gemini:

Google Gemini: Welchen Unternehmen betreut Evergreen Media?

Diese Antwort konnte ich beeinflussen durch ein paar strukturierte Informationen im Footer (keine strukturierten Daten).

Wie zu Beginn erwähnt, stellt ChatGPT seit Kurzem Links noch klarer dar, was das Traffic-Potenzial erhöht.

Kann für Sprachmodelle mit RAG optimiert werden?

Die Optimierung für RAG-LLMs ähnelt der Optimierung für Featured Snippets, allerdings mit mehr Variablen und weniger Vorhersehbarkeit. Der Erfolg hängt davon ab, das Format und die Relevanz des bestehenden, leistungsstarken Inhalts zu (über)treffen.

Lerne mehr über KI & SEO auf unserem YouTube-Kanal!

✓ über 22.000 Abonnenten ✓ min. ein neues Video pro Woche ✓ geballtes Praxiswissen

Grundsätze der Optimierung für Sprachmodelle

1. Es ist zwar theoretisch möglich, die Trainingsdaten von LLMs zu beeinflussen, aber das müsste in einem extrem großen Stil passieren.

Zum einen wird dies für Unternehmen kaum möglich sein, zum anderen sind die Ergebnisse nicht kontrollierbar. Mehr dazu lernst du in diesem Artikel von Olaf Kopp.

2. Sprachmodelle werden nicht laufend komplett neu trainiert, sondern nutzen RAG, um aktuelle Informationen liefern zu können.

Der Hebel für Unternehmen ist nicht die Manipulation der Trainingsdaten eines LLMs, sondern die Verbesserung der Auffindbarkeit in der jeweiligen externen Wissensquelle.

3. Bei der Optimierung für Sprachmodelle und Chatbots geht es um Antworten statt URLs.

Bei SEO splitten wir Seiten nach Suchintention und Keywords auf – bei GAIO dreht sich alles um Antworten.

Es kann sein, dass Themenseiten wieder an Bedeutung gewinnen. Immerhin ist der kleinstmögliche Teil bei Chatbots und KI-erweiterten Suchmaschinen nicht die URL, sondern die Antwort.

4. Wir optimieren unsere Auffindbarkeit in den jeweiligen externen Wissensquellen für RAG.

Konkret bedeutet das:

  • Für ChatGPT optimieren wir auf die Bing-Suche.
  • Für Gemini und SGE optimieren wir auf die Google-Suche.

Wer eine hohe Auffindbarkeit in Suchmaschinen genießt, wird diese Sichtbarkeit in Chatbots übertragen.

5. Nutzereingaben bei Chatbots sind komplexer und haben mehr Nuancen, wodurch Keyword-Recherchen und Antwortabdeckung sich ändern müssen.

Klassische Keywords werden meiner Meinung nach nur Säulen darstellen, zu denen wir passende Fragen und Antworten liefern.

Die richtigen Fragen finden wir u. a. über:

  • „Nutzer fragen auch“ oder People Also Ask (PAA)
  • Follow-up-Fragen aus Konversationen mit Google, SGE, Bing, ChatGPT und Perplexity
  • Kundenbefragungen
  • Vertrieb
Du willst am Puls der Zeit bleiben und in einer KI-Welt gewinnen? Dann abonniere jetzt gleich unseren Newsletter.

OffPage-GAIO

Konkret geht es abseits der eigenen Website um:

  • Datenbank-Websites: z. B. Crunchbase, sortlist oder FirmenABC
  • Wissensaggregatoren: große, moderierte UGC-Websites wie z. B. Reddit, LinkedIn, YouTube und Wikipedia
  • große Publisher wie z. B. The Verge, Financial Times oder Forbes

Unser Ziel:

  • Wir gewinnen Sichtbarkeit, weil unsere Erwähnung auf diesen Plattformen durch RAG direkt aufgegriffen wird. Ein Beispiel: Wir landen in einer Aufzählung der besten GAIO-Agenturen Deutschlands.
  • Wir schaffen es über diese Plattformen in die Trainingsdaten der LLMs.

Was musst du beachten?

Die jeweilige externe Website/Plattform darf den betreffenden Bot nicht geblockt haben, wenn wir sie für die Optimierung nutzen wollen.

Hier findest du eine Liste von großen Websites und welche Bots sie geblockt haben. Und hier noch eine Liste mit Domains, denen Google vertraut.

Datenbank-Websites
Was ist das?Datenbank-Websites sind klassische Aggregatoren mit irgendwelchen Listings, z. B. Firmenverzeichnisse, Bewertungsplattformen etc.
Beispielesortlist.de
Was tun?– Ein vollständiges Profil zu deiner Marke anlegen.
– Möglichst im Ranking der Plattform aufsteigen: z. B. weit oben auf der Seite „Beste SEO-Agenturen in Innsbruck“ aufscheinen.
Wissensaggregatoren
Was ist das?Auf diesen Plattformen kannst du Content publizieren, der moderiert wird.
Beispieleyoutube.com
wikipedia.org
Was tun?– Aktiv als Marke auf den Plattformen teilnehmen.
– Das Spiel der jeweiligen Plattform gut spielen: z. B. einen beliebten YouTube-Kanal aufbauen.
Große Publisher
Was ist das?Zeitungen, Magazine etc.
Beispieletheverge.com
forbes.com
Was tun?– Sponsored Content publizieren lassen, um dir deinen Platz zu erkaufen.
– Mit Online-PR-Kampagnen Journalisten überzeugen, über deine Marke zu berichten.

Deswegen poche ich gerade auch so auf das Thema digitale PR. Linkbuilding ist schön und gut, aber minderwertige Artikel aus Private Blog Networks helfen dir hier nicht.

Wenn du bei KI-erweiterten Suchmaschinen und Sprachmodellen Sichtbarkeit generieren willst, musst du immer und immer wieder bei großen Publishern erwähnt werden. Ich sage explizit erwähnt, denn es geht nicht um Backlinks.

Es geht um Prominenz für direkte Abfragen (ChatGPT über Browsing, also RAG) und ausreichend Erwähnungen, um evtl. in den Trainingsdaten hervorzustechen.

Du willst deine digitale Marke perfekt positionieren?

Mit Digital PR steigern wir deine Sichtbarkeit bei Chatbots wie ChatGPT und Google Gemini.

OnPage-GAIO

Manche werden dir jetzt empfehlen, auf einzelne Antworten zu optimieren. Ich bezweifle, dass dies langfristig der sinnvollste Weg ist.

Nehmen wir den Fall Google SGE.

iPullRank schreibt über seine Experimente:

The more saturated the topic or vague the query, the more volatility we’ll see in the results day to day.

Garret Sussman, iPullRank, 6. Februar 2024

Das klingt weder nach einer nachhaltigen Strategie noch nach einer guten Zeitinvestition. Wir wollen alle unsere Inhalte nach GAIO-Best-Practices optimieren und so die Wahrscheinlichkeit erhöhen, in Chatbots aufzuscheinen.

Sinnlose Kleinstarbeit bleibt sinnlos.

Dein Framework

  • Es geht immer um Relevanz und Format. Fließtext-Gelaber ist der Feind.
  • Wir bauen um unsere klassischen Keywords herum Fragen und Antworten auf.
  • Anstatt User*innen einen 4.000-Wörter-Artikel über die Kalorien von Äpfeln zu liefern, geben wir ihnen die Antwort schnell und einfach.

Sprache

  • Verwende einfache, klare und informationshaltige Sprache (denk daran, was in Featured Snippets funktioniert).
  • Erkläre Fachbegriffe in strukturierter Form, kurz und knackig.

Struktur

  • Achte darauf, Inhalte so aufzubereiten, dass sie sich für Antworten eignen (dabei kommt es auf das Sprachmodell an):
    – Länge
    – Formatierung
    – Informationsdichte
  • Nutze strukturierte Daten.
  • Nutze bekannte Modelle wie Vor- und Nachteile, Vergleiche etc., um gute Antworten zu liefern.
  • Bündle Themen auf einer URL (das widerspricht den aktuellen Best Practices, wo wir alles nach Suchintentionen auftrennen).
  • Orientiere dich bei der Strukturierung deiner Website daran, wie das LLM dein Thema strukturiert.

Inhalt

  • Sieh dir an, was aktuell als Antwort ausgeliefert wird, und lerne daraus hinsichtlich Format und Relevanz.
  • Stelle einzigartige Informationen oder Daten bereit, die nicht in den bisherigen Trainingsdaten oder auf anderen Webseiten zu finden sind (Information Gain).
  • Füge Zitate hinzu (z. B. von bekannten Expert*innen oder einer Einrichtung).
  • Ergänze deine Inhalte mit Statistiken und quantitativen Daten.
  • Füge Quellenangaben von autoritativen Quellen hinzu.

Aufbereitung

  • Sammle User Generated Content (UGC) und stelle die Einblicke in einer zitierbaren Form dar, also als hilfreiche Antwort.
  • Starte Long-Form-Content mit einer Kurzzusammenfassung der wichtigsten Punkte bzw. Key Takeaways.
Founder, CEO

Alexander ist Gründer der Agentur und SEO-besessen seit 2009.

Kommentieren

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert


Diese Beiträge könnten dich auch interessieren
KI & SEO
KI, ChatGPT & SEO: KI-gestützte Suchmaschinen­­optimierung
Zuletzt aktualisiert: 27. Juni 2023 · 10 Min. Lesedauer
SEO ist tot
Ist SEO tot in 2024? Die Zukunft von SEO in einer KI-Welt
Zuletzt aktualisiert: 30. Oktober 2023 · 8 Min. Lesedauer
KI-Texte schreiben
KI-Texte schreiben: KI-Textgeneratoren für Content-Marketing
Zuletzt aktualisiert: 18. Juli 2023 · 16 Min. Lesedauer
SEO-Manager
SEO-Manager: Aufgaben, Gehalt, Fähigkeiten (KI!)
Zuletzt aktualisiert: 29. September 2023 · 11 Min. Lesedauer
KI-Studie 2024
KI-Studie 2024 (inkl. PDF): Zahlen & Fakten aus D-A-CH
Zuletzt aktualisiert: 21. Februar 2024 · 2 Min. Lesedauer
seo-strategie
SEO-Strategie 2024: in 8 Schritten zu höheren Rankings bei Google
Zuletzt aktualisiert: 16. Januar 2024 · 17 Min. Lesedauer
NEU: Jetzt "KI-Studie 2024" downloaden!