I-D-Media_2018_wortmarke-red-300px.png
KI-gestützte Suche mit RAG

KI-gestützte Suche mit RAG

Moderne Webseiten aggregieren Inhalte aus unterschiedlichsten Quellen für verschiedenste Zielgruppen. Mit KI-gestützter Onsite-Suche sorgst du dafür, dass deine Nutzer die für sie relevanten Inhalte finden – natürlichsprachlich und durch die KI zusammengefasst, so wie sie es von ChatGPT, Gemini & Co. gewohnt sind!

Durch die breite Verfügbarkeit von Sprachmodellen haben Nutzer sich daran gewöhnt, ihre Suchanfragen in natürlicher Sprache zu formulieren. Außerdem erwarten sie KI-generierte Zusammenfassungen, statt endloser Trefferlisten. Doch wie bekommst du ein Sprachmodell für deine DXP, dass zuverlässig deine eigenen Produkte und Dienstleistungen durchsucht, ohne sich nur auf das „Wissen“ zu verlassen, dem es trainiert wurde?

Retrieval-Augmented Generation

Mit Retrieval-Augmented Generation (RAG) steht eine fortschrittliche Technik im Bereich der Künstlichen Intelligenz zur Verfügung, die herkömmliche Sprachmodelle (LLMs) verbessert, indem sie ihnen Zugriff auf deine internen Datenquellen ermöglicht. Eine RAG-gestütztes Sprachmodell sucht vor der Antwortgenerierung nach relevanten Informationen in deinen strukturierten Datenquellen, wie Produkten, FAQs und Anleitungen, um eine präzise und faktenbasierte Antwort zu geben.

Wie funktioniert RAG?

  • Retrieval (Abruf): Der Benutzer stellt eine Frage. Das System sucht nicht im gesamten Internet, sondern gezielt in einer definierten Wissensdatenbank (z. B. Unternehmensdokumente, PDFs, Datenbanken) nach Informationen, die semantisch zur Frage passen.
  • Augmentation (Erweiterung): Die gefundenen, relevanten Textpassagen werden zusammen mit der ursprünglichen Frage an das LLM deiner Wahl übergeben. Der Prompt wird also "erweitert".
  • Generation (Erzeugung): Das LLM generiert basierend auf diesem neuen Kontext eine präzise, faktenbasierte Antwort und kann Quellen angeben.

Vorteile von RAG

  • Höhere Genauigkeit: Reduziert "Halluzinationen" (erfundene Fakten) der KI.
  • Aktualität: Ermöglicht Zugriff auf Daten, die nach dem Training des Modells entstanden sind.
  • Datenschutz: RAG-Systeme können auf Firmendaten zugreifen, ohne diese zum Training des öffentlichen Modells zu verwenden.
  • Transparenz: Antworten können mit Zitatquellen belegt werden.

KI-Framework, das die Stärken von LLMs mit Information Retrieval verbindet.

I-D Media beschäftigt sich seit vielen Jahren mit suche-zentrierten Websites. Wir implementieren für deine individuellen Anforderungen leistungsfähige Such-Technologien und generative Sprachmodelle und unterstützen dich bei der Einführung.

Ihr Ansprechpartner

Ihr Ansprechpartner

Phillip Austerfield

Produktmanager

phillip.austerfield@idmedia.com