RAG-System: Wie Retrieval Augmented Generation Ihr Unternehmen mit erweiterter KI / AI unterstützt

Unter Retrieval Augmented Generation (RAG) versteht man das Ergänzen der Vektor-Datenbank eines Large Language Models (LLM) um externe Datensätze, die die statischen Trainingsdaten des Modells erweitern. Dadurch kann der Output eines LLM auf die eigenen Bedürfnisse zugeschnitten und Lücken in den Trainingsdaten in Bezug auf den angestrebten Use Case geschlossen werden. Für RAG-Systeme gibt es im Arbeitsalltag diverse Anwendungsfälle, die interne Prozesse verkürzen und optimieren. Wie genau RAG-Systeme funktionieren, wie man sie umsetzen kann und welche praktischen Anwendungsgebiete es dafür gibt, erfahrt ihr hier.

LLMs und Vektor-Datenbanken

Um die Funktionsweise von RAG-Systemen zu erläutern, ist es vorab wichtig, die Begriffe Large Language Model und Vektor-Datenbank zu verstehen. Large Language Models sind eine Art Algorithmus, der Deep-Learning-Techniken und große Datensätze verwendet, um Inhalte zu verstehen, zusammenzufassen, zu generieren und vorherzusagen. Gefüttert werden diese Modelle mit den sogenannten Trainingsdaten, auf deren Basis der Output generiert wird. Als Schnittstelle zwischen Nutzer und LLM fungieren sogenannte KI-Chatbots wie ChatGPT, Google Gemini und Google AIOs (das Optimieren auf Platzierungen in Chatbots nennt man übrigens LLMO). Je ausführlicher und detaillierter die Trainingsdaten, desto leistungsfähiger das Modell. Zum Vergleich: ChatGPT 3 wurde mit 175 Milliarden Parametern gefüttert, während ChatGPT 4 mit 100 Billionen Parametern gefüttert wurde. Entsprechend leistungsfähiger ist ChatGPT 4.

Die hier erläuterten Trainingsdaten werden über ein KI-basiertes Einbettungsmodell auf Basis ihrer Bedeutung und ihres Kontextes in Vektor-Embeddings, also mehrdimensionale Punkte in einem Koordinatensystem, umgewandelt. Mithilfe der Vektoren lassen sich unterschiedliche Datentypen wie Bilder, Dokumente oder Audio-Dateien miteinander vergleichen, da die Assets als Vektoren im mehrdimensionalen Raum dargestellt werden können.

Somit sind alle Dateien trotz ihrer unterschiedlichen Ausgangssituation dem gleichen mathematischen System untergeordnet, was sie beispielsweise über den euklidischen Abstand oder die Kosinus-Ähnlichkeit vergleichbar macht. Je näher sich die Assets im vektoriellen Raum sind, desto ähnlicher sind sie sich bezüglich ihrer semantischen Bedeutung.

Vom LLM zum RAG-System

Als Basis für jedes RAG-System fungiert ein LLM. RAG-Systeme sind im Endeffekt nichts anderes als LLMs, deren standardmäßige Vektor-Datenbank um weitere Daten ergänzt wurde. Als Beispiel: Wenn mein RAG-System als Kochassistent fungieren soll, könnte man ein gutes Kochbuch als PDF in die Trainingsdaten integrieren. Frage ich das System nun nach Rezeptvorschlägen, wird bevorzugt ein Rezept aus dem in der Vektor-Datenbank hinterlegten Kochbuch geliefert.

Ein etwas komplexeres Beispiel wäre ein Onboarding-System für neue Mitarbeiter in einem Unternehmen. Man könnte hier diverse interne Unternehmensdokumente integrieren, die nicht in den üblichen Trainingsdatensätzen von LLMs enthalten sind. Über das RAG-System könnten diese Dokumente auf Basis eines Systemprompts aufbereitet und neuen Mitarbeitern, abhängig von ihrer Rolle, bereitgestellt werden.

Etablierte Beispiele für RAG-Systeme sind Custom-GPTs, also konfigurierte Versionen von ChatGPT. Mit dieser Funktion erlaubt es OpenAI, dass man auf Basis des LLMs separate Vektor-Datenbanken anlegt und eine spezifische Aufgabe für den Assistenten definiert. So gibt es beispielsweise öffentliche Custom-GPTs, die beim Programmieren oder der Datenanalyse unterstützen.

RAG-Systeme entwickeln

Um ein RAG-System für die eigenen Zwecke zu entwickeln, sollte man zunächst den Use Case definieren. Wobei genau soll mich das System unterstützen?

Sobald der Use Case geklärt ist, sollte man sich auf ein Tool bzw. LLM festlegen. Die einfachste Variante wäre wohl ein Custom GPT; hier gibt es allerdings Bedenken bezüglich Datenschutz. Möchte man das RAG-System beispielsweise auf der eigenen Website öffentlich zugänglich machen, sollte das Tool DSGVO-konform sein. Hierfür wäre ein herkömmlicher Custom GPT nicht ausreichend. Als Workaround bieten sich KI-Plattformen wie Localmind an, welche die LLM-Software auf in Deutschland befindlichen Cloud-Servern hosten.

Im nächsten Schritt gilt es, die benötigten Trainingsdaten in einem passenden Dateiformat zu kompilieren und hochzuladen. Welche Assets genau benötigt werden, hängt vom jeweiligen Use Case ab.

Im vierten Schritt muss nun der Systemprompt erstellt werden. Hier wird definiert, welche Aufgaben der Assistent hat, wie er mit den Trainingsdaten und dem Input des Nutzers umgeht, welche Workflows bedient werden sollen etc. Der Systemprompt ist entscheidend für den Erfolg oder Misserfolg der Anwendung.

Letzter Schritt: Testing. Nachdem das RAG-System funktionsfähig ist, gilt es, den angepeilten Use Case in möglichst vielen verschiedenen Variationen von möglichst vielen verschiedenen Nutzern testen zu lassen. Früher oder später werden Unstimmigkeiten auftauchen, welche die Basis für eine erneute, sukzessive Anpassung des Systemprompts und der Trainingsdaten sind. Erst wenn nach mehreren Testläufen keine größeren Fehler mehr auftreten, ist das RAG-System fertiggestellt.

Anwendungsgebiete für RAG-Systeme

Das wohl relevanteste Anwendungsgebiet für RAG-Systeme ist die Content-Erstellung. Durch die Integration eines optimierten RAG-Systems in die Content-Erstellung lassen sich bestehende Workflows deutlich effizienter gestalten, bei gleichbleibender Qualität der Inhalte. Dabei kann das System nicht nur für komplette Fließtexte, sondern auch für einzelne Absätze oder SEO-Tags wie Meta-Titles und -Descriptions verwendet werden. Weiterhin können beispielsweise Briefings automatisch vertextet, bestehende Inhalte auf Lücken analysiert oder Abgleiche des eigenen Keyword-Sets mit dem der Konkurrenz durchgeführt werden. Dabei kann die große Schwäche von KI-Texten bezüglich Qualität, die immer gleiche Datengrundlage, durch eine personalisierte Vektor-Datenbank umgangen werden. Dieses Vorgehen hat allerdings den Nachteil, dass RAG-generierte Texte aufgrund der Halluzinationsprobleme von LLMs immer von Menschen auf Korrektheit gegengeprüft werden müssen. Selbst mit diesem zusätzlichen Schritt könnte der Zeitaufwand allerdings massiv reduziert werden.

Ein zweites Anwendungsgebiet stellen personalisierte KI-Chatbots dar. Diese können extern (beispielsweise auf der Firmen-Website) oder auch intern (beispielsweise zum Anlernen neuer Mitarbeiter) genutzt werden. Insbesondere für große Unternehmen sind Chatbots auf der eigenen Website schon länger Standard, da man hiermit Ressourcen sparen kann. Durch den Wechsel von traditioneller Chatbot-Technologie auf KI-Chatbots hat sich deren Qualität massiv gesteigert, und die Umsetzung wird auch für kleinere Unternehmen erschwinglich.

RAG-Systeme von seowerk

Sofern ihr Interesse an einem für euer Unternehmen zugeschnittenen RAG-System habt, tretet mit uns in Kontakt! Wir beraten euch gerne bezüglich Use Cases und setzen das RAG-System für euch um. Auch für andere Online-Marketing Leistungen stehen wir euch zur Verfügung.

Quellen

Interne Links

  |  
Sichtbarkeit entsteht dort, wo Vertrauen, Relevanz und digitale Präzision aufeinandertreffen. Wir entwickeln SEO-Strategien, die Ihre Organisation gezielt in Suchmaschinen und AI-Systemen positionieren – strategisch relevant, diskret gestaltet und abgestimmt auf sicherheitskritische Zielgruppen.
Weiterlesen
  |    |  
Patienten und Fachkräfte entscheiden online – wir zeigen, wie Sie mit strategischem, rechtssicherem Gesundheitsmarketing in der digitalen Suche überzeugen und Ihre Einrichtung nachhaltig sichtbar und erfolgreich machen.
Weiterlesen
  |    |  
GEO, LLMO, AIO – so funktioniert Sichtbarkeit im KI-Zeitalter. Wir zeigen, wie du Inhalte strategisch für generative Suchsysteme optimierst und deine Marke in der Welt der Antwortmaschinen positionierst.
Weiterlesen
  |    |  
Von der Website bis zu Google Ads – mit unserer branchenerfahrenen Agentur gewinnen Sie online mehr Vertrauen, mehr Sichtbarkeit und mehr qualifizierte Patientenanfragen
Weiterlesen
  |    |  
Sichtbarkeit entscheidet über den Erfolg in der Schönheitschirurgie. Wir zeigen, wie digitales Marketing Vertrauen schafft, neue Patienten gewinnt und Ihre Praxis nachhaltig positioniert – mit Strategie, Fachkenntnis und rechtssicherer Umsetzung.
Weiterlesen
  |    |  
AI-SEO für Kieferorthopädie: So machen Sie Ihre Praxis sichtbar in ChatGPT, Gemini & Perplexity. Mit GEO, AIO & LLMO steigern Sie Vertrauen, Reichweite – und gewinnen neue Patienten über moderne KI-Kanäle.
Weiterlesen
  |    |  
Klassisches SEO reicht nicht mehr – generative KI verändert die Suche grundlegend. GEO zeigt, wie Sie Inhalte so gestalten, dass sie von ChatGPT, Gemini & Co. verstanden, zitiert und bevorzugt ausgespielt werden.
Weiterlesen
  |    |  
„GAIO verstehen und anwenden: Wie Sie Inhalte so strukturieren, dass generative KI-Systeme sie erkennen, einordnen und als vertrauenswürdige Quelle nutzen.“
Weiterlesen
  |    |  
KI verändert die Sichtbarkeit im Web. Mit AIO optimierst du Inhalte für Chatbots, Sprachassistenten und generative Systeme – und bleibst in einer neuen Suchrealität sichtbar und relevant.
Weiterlesen
  |    |  
Die Zukunft heißt AEO: Wer heute sichtbar bleiben will, muss in KI-Antworten vorkommen. Unsere Blogserie erklärt, wie Sie Inhalte strukturiert, vertrauenswürdig und KI-freundlich gestalten – mit echtem Wettbewerbsvorteil.
Weiterlesen
  |    |  
Digitale Sichtbarkeit entscheidet, ob Ihre Tierarztpraxis online wahrgenommen wird. Wir entwickeln Strategien, die Suchmaschinen, KI-Systeme und Social Media gezielt bespielen – fachlich fundiert, empathisch kommuniziert und exakt abgestimmt auf die Erwartungen moderner Tierhalterinnen und Tierhalter.
Weiterlesen
  |    |  
Gemini ersetzt die Linkliste durch direkte Antworten. Lernen Sie, wie GEO, AEO und LLMO zusammenwirken, damit Ihre Inhalte von Googles KI erkannt, verstanden und in den Overviews prominent ausgespielt werden.
Weiterlesen
Kontakt
Leichte Sprache
crossmenu linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram