Retrieval Augmented Generation (RAG) verstehen

Was ist Retrieval Augmented Generation (RAG)?

Retrieval Augmented Generation (RAG) ist eine Technik, die die Genauigkeit und Relevanz der Ergebnisse von Large Language Models (LLMs) verbessert. Dies geschieht durch die Kombination von Daten aus externen Informationsabrufsystemen mit LLMs; letztere können jedoch oft erheblich veraltet sein. 

Das Wissen von ChatGPT reichte beispielsweise kürzlich nur bis Anfang 2022. Ohne die Erweiterung durch andere Programme wären die Antworten von ChatGPT auf aktuelle oder neue Themen nicht verlässlich. RAG ist eines dieser Programme, die dabei helfen, die Lücken generativer KI-Modelle zu schließen.   

RAG wird häufig eingesetzt, um die Relevanz und Zuverlässigkeit einer Vielzahl von LLM-Ausgaben zu erhöhen. Zu diesen Ausgaben zählen unter anderem Kundendienstsysteme, Support-Chatbots, Projektmanagement-Frameworks und Q&A-Systeme.

Wie Retrieval Augmented Generation funktioniert

LLMs sind nicht nur oft veraltet, sondern auch darauf trainiert, Daten zu extrapolieren, wenn keine Daten verfügbar sind. Dieser Vorgang wird als „Halluzination“ bezeichnet und kann zu völlig falschen, auf den ersten Blick jedoch legitim erscheinenden Informationen führen. 

Diese Probleme können durch die Retrieval Augmented Generation gelöst werden. Dabei wird die Wissensdatenbank eines LLMs mit Informationen aus externen Retrieval-Systemen erweitert. Die externen Daten liefern aktuelle Informationen und ergänzen somit den Kontext. Dadurch ist das LLM in der Lage, ein tieferes Verständnis für Fakten zu bestimmten Themen oder Fragen zu entwickeln. Mit RAG lassen sich präzise und relevante Ergebnisse erzielen, ohne dass das LLM neu trainiert werden muss. Dies kann besonders hilfreich sein, wenn Sie ein LLM mit den Daten Ihres eigenen Unternehmens trainieren. 

Zur Veranschaulichung der Funktionsweise von RAG betrachten wir ein System wie ChatGPT, das Benutzeranfragen beantwortet. Sobald ein Benutzer eine Frage eingibt, tritt das System in Aktion. Der (vereinfachte Prozess) läuft wie folgt ab:

  • Informationsabruf – Das KI-System überträgt die textbasierte Anfrage an ein Modell, das sie in Maschinencode umwandelt. Dieser ist numerisch und wird manchmal auch als Vektor bezeichnet. Der Vektor vergleicht seinen Code mit einem maschinell erstellten Index externer Informationsquellen wie Webseiten, Datenbanken und anderen Wissensdatenbanken, die bereits vorhanden sind. 

  • Datenvorverarbeitung – Wenn das System in diesen externen Quellen relevante Informationen zum Suchbegriff findet, ruft es diese Daten ab, wandelt sie wieder in für Menschen lesbaren Text um und sendet sie an das LLM zurück. 

  • Datenintegration – Das LLM analysiert die abgerufenen Daten, kombiniert sie mit den Informationen seiner internen Wissensdatenbank und erstellt auf dieser Grundlage eine vollständige Antwort für den Benutzer. Einige Systeme geben auch die externen Quellen für einige der Daten in der Antwort an. 

  • Kontinuierliche Aktualisierungen – Nachdem ein Vektor erstellt wurde und die relevanten externen Daten an das LLM übermittelt wurden, kann es im Hintergrund weiterarbeiten, um kontinuierliche Aktualisierungen des Index zu erstellen. Dadurch wird gewährleistet, dass das LLM jederzeit Zugriff auf aktuelle Informationen hat.

Damit das Retrieval Augmented Generation-System wie oben beschrieben funktioniert, muss es zunächst eine Erfassungsphase durchlaufen. In dieser Phase erstellt das System einen Index oder eine Bibliothek mit externen Informationsquellen. Ein Großteil dieser Arbeit wird im Voraus erledigt; einige Retrieval Augmented Generation-Systeme können jedoch auch in Echtzeit externe Informationen und Quellen finden. Dies kann beispielsweise durch Abfragen von leicht durchsuchbaren und analysierbaren Datenbanken, durch API-Aufrufe, die dem System den Zugriff auf Daten in verschiedenen Anwendungen oder Plattformen ermöglichen, oder durch das Scraping von Webseiten erfolgen.

Warum Retrieval Augmented Generation wichtig ist

Retrieval Augmented Generation ist ein wichtiger Faktor, um die Ergebnisse von LLMs aktuell und relevant zu halten. LLMs sind zwar sehr gut, aber sie haben auch ihre Grenzen. Dazu gehören:

  • Wenn keine geeigneten Daten vorliegen, werden Antworten erfunden. 

  • Sie bieten zu allgemeine oder veraltete Informationen an. 

  • Sie wissen nicht genau, wie Sie zuverlässige Informationsquellen erkennen können. 

  • Es kann zu Verwirrung hinsichtlich der Terminologie im Trainingsprozess kommen, da verschiedene Trainingssysteme unterschiedliche Begriffe für dieselben Konzepte verwenden können. 

Ohne RAG wäre der Wissensspeicher des LLM auf einen bestimmten Zeitraum beschränkt, alternativ müsste das LLM ständig neu trainiert werden, was zeitaufwändig und kostspielig wäre. Durch RAG werden LLMs intelligenter und vielseitiger. Sie bieten insgesamt bessere Ergebnisse, von der KI-basierten Erstellung von Inhalten über komplexe virtuelle Assistenten bis hin zu versierten Chatbots im Kundenservice.

Die Rolle von Cloud Computing bei Retrieval Augmented Generation

Retrieval Augmented Generation wäre ohne die Cloud nicht möglich. Die Cloud bietet wichtige Funktionen und Merkmale, die RAG-Systeme erst richtig zur Geltung bringen. Dazu gehören: 

  • Nahezu unbegrenzte Skalierbarkeit und massive Storagekapazität – Retrieval Augmented Generation-Systeme sind auf sehr große Datensätze angewiesen. Dazu zählen etwa die gesamte Wissensdatenbank eines Unternehmens, Inhalte aus Tausenden oder Millionen von Webseiten sowie riesige Sammlungen von Online-Dokumenten. Public Cloud-Provider können jederzeit so viel Storage- und Rechenkapazität bereitstellen, wie Sie benötigen, und das System lässt sich außerdem schnell und einfach weiter skalieren. 

  • Verteilte Datenbanken und Suchfunktionen – Viele der externen Daten, die RAG-Systeme abrufen, sind unstrukturierte Daten, das heißt, sie lassen sich nicht ohne Weiteres in übersichtlichen Tabellen organisieren. Die Cloud ist ein idealer Ort, um große Mengen solcher Daten zu speichern und darauf zuzugreifen. In der Cloud sind auch verteilte Suchsysteme weit verbreitet und beschleunigen und vereinfachen den Zugriff auf und das Abrufen von Informationen aus großen Datensätzen. 

  • Hohe Performance und hohe Verfügbarkeit – Die Cloud verfügt über integrierte Funktionen, die maximale Performance und reduzierte Latenz ermöglichen. Ein hoher Durchsatz und geringe Latenz sind für Retrieval Augmented Generation unerlässlich. Die Cloud verfügt außerdem über eine Vielzahl integrierter Redundanzmaßnahmen, durch die sichergestellt wird, dass der Betrieb auch dann weiterläuft, wenn ein bestimmter Node oder Cluster ausfällt. 

  • Bereitstellung und Verwaltung von LLMs – Die Cloud ist ein optimaler Ort für das Training von LLMs. Viele Provider stellen Managed AI Services bereit, die die Bereitstellung und Verwaltung dieser Modelle noch einfacher machen.

Vorteile von Retrieval Augmented Generation für Unternehmen

Einer der größten Vorteile von RAG besteht darin, dass es die Lücke zwischen der veralteten Natur von LLMs und dem sich ständig weiterentwickelnden Zustand der menschlichen Sprache sowie des modernen Wissens effektiv und effizient überbrückt. Weitere Vorteile sind: 

  • Verbesserte Genauigkeit der LLM-Ausgaben – Bei der Retrieval Augmented Generation werden die neuesten Informationen mit dem vorhandenen Wissensstand eines LLMs kombiniert, um aktuellste und präziseste Antworten oder Ergebnisse zu ermöglichen. Dadurch steigt auch das Vertrauen der Benutzer in das System insgesamt. 

  • Verbesserte Relevanz – Das zusätzliche aktuelle Wissen von RAG hilft LLMs dabei, komplexe Nuancen in Sprache und Bedeutung zu verstehen, die ohne dieses Wissen möglicherweise nicht offensichtlich wären. 

  • Überprüfbarkeit und Transparenz von Fakten – In vielen RAG-Systemen werden externe Informationsquellen zitiert. Dadurch können Benutzer die Daten überprüfen und bei Bedarf korrigieren. Dies hilft dabei, den „Black-Box“-Charakter einiger KI-basierter Systeme zu beseitigen; bei diesen sind Benutzer oft unsicher, wie Antworten oder andere Ergebnisse generiert werden. 

  • Mehr Vielseitigkeit – Retrieval-Augmented-Generation-Systeme können LLMs eine größere Vielseitigkeit verleihen und zusätzliche Use Cases ermöglichen. Je mehr relevante externe Daten in das LLM eingespeist werden, desto detaillierter und personalisierter fallen die Ergebnisse aus.

Use Cases für Retrieval Augmented Generation

  • Chatbots – Ob es sich um einen Chatbot für das Wissensmanagement in Unternehmen handelt, den Mitarbeiter nutzen, oder um einen Chatbot für den Kundensupport: RAG-Systeme tragen dazu bei, dass die Gespräche relevant und detailliert sind. Diese Chatbots geben nicht nur einfache Antworten, sondern können auch Informationen und Situationen zusammenfassen und umsetzbare Erkenntnisse liefern. 

  • Entwurfsassistenten – Retrieval Augmented Generation-Systeme können bei der KI-basierten Erstellung von Inhalten sehr nützlich sein. Beispielsweise können sie dabei helfen, wenn ein Benutzer einen Report mit unternehmensspezifischen Informationen erstellen oder ein Journalist relevante Statistiken für einen Artikel finden muss. Dies kann Benutzern helfen, Zeit zu sparen und Inhalte effizienter zu erstellen. 

  • Forschungsassistenten – Mit RAG erweiterte LLMs können in Forschungsphasen sehr hilfreich sein, beispielsweise bei Dissertationen, in Rechtsfällen, in der medizinischen und klinischen Forschung und in vielen weiteren Bereichen. 

  • Knowledge Engines – In Kombination mit LLMs können fortschrittliche Frage-Antwort-Systeme und Wissensdatenbanken mit RAG präziser, relevanter und zeitnaher sein. 

  • Maßgeschneiderte Ideenfindung – Mit einem LLM mit Retrieval Augmented Generation können Sie das Brainstorming verbessern. Mögliche Anwendungen sind KI-basierte Empfehlungen, Einblicke in zukünftige Trends, die Identifizierung relevanter Experten und vieles mehr. Dies trägt auch zu einer besseren Entscheidungsfindung bei und hilft Ihnen, einzigartige Herausforderungen effizienter zu lösen.

Wie Nutanix Retrieval Augmented Generation unterstützt

Nutanix kennt die Herausforderungen, mit denen Unternehmen heute konfrontiert sind, während hybride Multi-Cloud-Ökosysteme zur IT-Norm werden. Wir arbeiten kontinuierlich daran, den Betrieb und die Verwaltung von Daten und Anwendungen in der Cloud zu vereinfachen – und mit einer Vielzahl von Lösungen wie der Nutanix Cloud Platform können Sie die gängigen Hindernisse überwinden, die Ihre Wettbewerbsfähigkeit einschränken.  

Da KI und LLMs für den Erfolg moderner Unternehmen immer wichtiger werden, sucht Nutanix nach innovativen Wegen, um diese Leistungsfähigkeit zu nutzen und für Sie verfügbar zu machen. Eine dieser Innovationen ist die Retrieval Augmented Generation (RAG). Wir testen derzeit RAG-Systeme in unserer internen Infrastruktur, um zu ermitteln, wie diese die KI-basierten Lösungen Ihres Unternehmens effizienter und effektiver machen können.