Der rms. KI Chatbot.

ChatGPT kennt ihre Produkte nicht, unser Chatbot schon.

Der rms. KI Chatbot beantwortet Fragen ganz konkret zu ihren unternehmens- bzw. themenspezifischen Inhalten. Im Vergleich zu einer klassischen Suche können die Eingaben echte Fragen sein. Sie sind nicht auf Stichworte beschränkt, die nur Ergebnisse liefern, wenn die exakten Wörter oder definierte Synonyme in den zu durchsuchenden Daten enthalten sind. Die zugrunde liegenden Daten können komplette Webseiten, PDFs, Word-Dateien, Textdokumente oder Exporte aus Datenbanken sein. Auch eine Kombination aus mehreren Quellen ist möglich.

Direkt selber ausprobieren!

Echte Mehrsprachigkeit mit DeepL Integration, Arbeitet mit allen aktuellen LLMs, Transparente Kosten, Widget Integration, 100 % DSGVO konform,

Anwendungsgebiete

Chat auf einer Webseite

Der Chatbot beantwortet Fragen zu allen Inhalten, die auf einer Webseite zu finden sind. Diese können bei Bedarf durch PDF-Dateien oder weitere Inhalte angereichert werden. Die Antworten können Links zu Inhaltsseiten (Produkte, Angebote, Hilfe, ...) enthalten.

Suche über firmeninterne Daten

Über einen Chatbot werden firmeninterne Daten für Mitarbeitende einfach zugänglich. Die manuelle Suche in Dokumenten, Wissensdatenbanken, Supportdatenbanken etc. entfällt und der Wissenstransfer wird effizienter. Die zugrundeliegende Technologie des Chatbots kann bei Bedarf auf einem firmeninternen Server betrieben werden, wodurch kein Datentransfer auf externe Systeme stattfindet.

Support

Kundenanfragen können mit bestehenden Supportdatenbanken abgeglichen und Antworten basierend auf bisherigen Ergebnissen vorformuliert werden.

Mehrsprachigkeit in Echtzeit

Bei Bedarf können Anfragen in anderen Sprachen beantwortet werden, auch wenn die Inhalte einer Webseite nur in Deutsch verfügbar sind.

Der rms. Chatbot: Intelligente Antworten bei voller Datenkontrolle

Öffentlich zugängliche Chatbots wie ChatGPT, Gemini oder Perplexity haben gravierende Nachteile, wenn es um die Verarbeitung von individuellen Anfragen oder Anfragen zu aktuellen Themen geht: Sie können diese entweder gar nicht beantworten, da firmeninterne Daten nicht Teil ihrer Trainingsdaten waren oder diese zum Zeitpunkt des Trainings nicht zur Verfügung standen (z. B. aktuelle News). Oder sie beantworten die Fragen basierend auf allgemeinem Wissen, was zu Abweichungen oder Aussagen führen kann, die nicht direkt mit den eigenen Inhalten korrelieren. Es werden ggf. andere Markennamen genannt, Links führen auf Seiten der Konkurrenz etc.
Fragen zu firmeninternen Daten (Supportdatenbanken, interne Dokumente, Forschungsdatenbanken etc.) können in der Regel überhaupt nicht beantwortet werden.

  • Unser RAG-Ansatz kombiniert die Stärken eines großen Sprachmodells (LLM) mit Ihrer spezifischen Wissensbasis. Der rms. Chatbot sucht in Ihren Dokumenten nach passenden Informationen und formuliert die Antwort auf Basis dieses Kontexts, was folgende Vorteile bietet:
  • Präzise und unternehmensspezifische Antworten: Der Chatbot liefert stets sachlich korrekte und auf Ihr Unternehmen zugeschnittene Informationen.
  • Datenschutz gewährleistet: Ihre Daten bleiben unter Ihrer Kontrolle. Wir setzen auf sichere, dedizierte Speicherlösungen, die strengsten Datenschutzrichtlinien entsprechen.
  • Einfache Integration: Die Implementierung und Verwaltung des Chatbots erfordert keine Programmierkenntnisse.
  • Kontrolle über Inhalte: Sie bestimmen, welche Inhalte der Chatbot lernt und verwendet. Eine unkontrollierte Nutzung Ihrer sensiblen Daten wird ausgeschlossen.
     

Mehrwerte für Ihre Kunden

Personalisierte Empfehlungen

Der Chatbot kann das Nutzerverhalten und die bisherigen Anfragen analysieren, um Produkte, Dienstleistungen oder Inhalte zu empfehlen, die wirklich relevant sind. Das steigert die Relevanz und den Umsatz.

Terminvereinbarung & Buchungen

Kunden können direkt über den Chatbot Termine buchen, einen Tisch im Restaurant reservieren oder einen Rückruf anfordern. Das macht den Service zugänglich und bequem.

Echtzeit-Status-Updates

Egal ob es um eine Bestellung, den Versand einer Lieferung oder den Bearbeitungsstatus einer Anfrage geht – der Chatbot kann den Kunden in Echtzeit informieren, ohne dass dieser lange suchen oder anrufen muss.

Mehrsprachigkeit

Um internationale Märkte zu bedienen oder eine vielfältige Kundschaft anzusprechen, kann der Chatbot in mehreren Sprachen kommunizieren. Das stärkt das Vertrauen und die Reichweite.
 

Feedback-Schnittstelle

Der Chatbot kann nach einer Interaktion um Feedback bitten. Das liefert wertvolle Einblicke in die Kundenzufriedenheit und hilft, den Service kontinuierlich zu verbessern.

Nahtloser Übergang zu menschlichen Mitarbeitern

Wenn der Chatbot eine Anfrage nicht lösen kann, leitet er den Kunden intelligent an den richtigen menschlichen Ansprechpartner weiter – inklusive des Chat-Verlaufs. Das sorgt für einen reibungslosen Übergang und verhindert Frustration.

Phone Agents

Erweitern Sie den Chatbot um eine Sprachschnittstelle zur automatischen Bearbeitung von Anruferanfragen. So ist Ihr Kundenservice auch telefonisch rund um die Uhr verfügbar.

Schnittstellen zu Confluence, Office & Google Drive

Verbinden Sie den Chatbot direkt mit Ihren internen Wissensplattformen, um präzise auf Artikel, Dokumente und Spezifikationen zuzugreifen.


Retrieval Augmented Generation (RAG)

Hier werden zuerst alle verfügbaren Daten in sogenannte numerische Vektoren umgewandelt, die die semantische Bedeutung der Inhalte erfassen und in dafür geeigneten Datenbanken, sogenannten Vektordatenbanken, gespeichert. Beispiele hierfür sind z. B. Chroma, Pinecone, Faiss, Elasticsearch oder Milvus. Die Vektordatenbanken ermöglichen eine semantische Ähnlichkeitssuche, das heißt, sie finden Inhalte, die inhaltlich oder kontextuell ähnlich zur Suchanfrage sind, auch wenn die exakten Wörter nicht übereinstimmen. Dies ist vergleichbar mit Anwendungen wie der Suche nach ähnlichen Bildern oder der Erkennung eines Liedes in Shazam durch Vorsingen. Im RAG-Prozess wird bei einer Nutzeranfrage die Vektordatenbank nach den relevantesten Dokumenten durchsucht. Diese Dokumente werden dann als Kontext verwendet, um die Antwort des LLM informativer und genauer zu machen. Dadurch werden die Einschränkungen von LLMs in Bezug auf Wissensaktualität und Quellenangaben deutlich reduziert. Ein RAG-System kann bei Bedarf komplett ohne die Nutzung externer LLM Provider (z. B. OpenAI, Gemini oder Perplexity)  auf einem eigenen Server betrieben werden.

Vorteile von RAG

Sicherheit und Datenschutz

Bei RAG verbleiben firmeneigene Daten in der gesicherten Datenbankumgebung, was strengere Zugriffskontrollen ermöglicht. Beim Fine-Tuning werden die Daten ins Modelltraining integriert, was potenziell zu breiterem Datenzugriff führen kann

Kosten- und Ressourceneffizienz

Fine-Tuning ist rechenintensiv und zeitaufwendig, da es umfangreiche Trainingsphasen und Datenaufbereitung erfordert. RAG vermeidet diesen Trainingsaufwand, indem es die Daten dynamisch abruft, was kostengünstiger und schneller skalierbar ist

Aktualität und Zuverlässigkeit

RAG kann stets auf aktuelle Daten zugreifen und somit präzisere und vertrauenswürdigere Antworten liefern. Fine-Tuning basiert auf einem statischen Trainingsdatensatz und kann veraltetes Wissen enthalten.

Flexibilität

RAG eignet sich besonders gut für Anwendungen, bei denen sich die zugrunde liegenden Daten häufig ändern oder erweitert werden, ohne dass das Modell neu trainiert werden muss. Fine-Tuning ist besser für sehr spezifische, eng umrissene Aufgaben, erfordert aber bei jeder Datenänderungen ein erneutes Training

Ablauf RAG-Suche

Eingabe der Frage

Der Besucher gibt eine Frage oder Suchanfrage in das System ein.

Vektorisierung der Frage

Die Frage wird durch ein sogenanntes Embedding- Modell in einen Vektor umgewandelt, der die semantische Bedeutung der Frage repräsentiert.

Semantische Ähnlichkeitssuche

Die Vektordatenbank wird mit dem Fragevektor abgefragt, um die semantisch ähnlichsten Dokumente oder Textpassagen zu finden.

Ausgabe der relevantesten Ergebnisse

Die X relevantesten Dokumente (z.B. Top 5 oder Top 10) werden aus der Vektordatenbank zurückgegeben.

Kombination von Frage, Kontext und Prompt

Die ursprüngliche Frage, die gefundenen Dokumente und ein Prompt (Aufgabenstellung)
werden an das Sprachmodell (LLM) übergeben.

Verarbeitung durch das Sprachmodell

Das LLM generiert basierend auf der Frage und den Kontextinformationen eine Antwort.

Ausgabe der Antwort

Die generierte Antwort wird dem Nutzer präsentiert. Bei Bedarf werden Links zu relevanten Quellen / Seiten hinzugefügt.

Datenschutz

Mittels RAG kann das Datenmanagement zu 100 % gesteuert werden. Es sind beispielsweise die folgenden Szenarien abbildbar. Es ist auch möglich, eigene API-keys zu verwenden.

API - OpenAI

API - OpenAI

Speicherung aller vektorisierten Daten lokal in einer Vektordatenbank Verarbeitung der Daten (relevante Ergebnisse, Frage, Prompt) innerhalb eines Sprachmodells von OpenAI (GPT4, GPT4-mini, GPT4-nano)

API - Gemini

API - Gemini

Speicherung aller vektorisierten Daten lokal in einer Vektordatenbank Verarbeitung der Daten (relevante Ergebnisse, Frage, Prompt) innerhalb eines Sprachmodells von Gemini.

API - Ionos

API - Ionos

Opensource-LLMs, Hosting in Deutschland Speicherung aller vektorisierten Daten lokal in einer Vektordatenbank Verarbeitung der Daten (relevante Ergebnisse, Frage, Prompt) innerhalb eines Opensource-Sprachmodells, welches von Ionos in Deutschland gehostet wird (Llama 3.1 8B Instruct, Mistral 7B Instruct, Code Llama 13B Instruct, …)

Dedizierter KI-Server – Z.B. Hetzner (Opensource-LLMs, Hosting in Deutschland)

Dedizierter KI-Server – Z.B. Hetzner (Opensource-LLMs, Hosting in Deutschland)

Speicherung aller vektorisierten Daten lokal in einer Vektordatenbank Verarbeitung der Daten (relevante Ergebnisse, Frage, Prompt) innerhalb eines Opensource-Sprachmodells, welches auf einem dedizierten Server betrieben wird (phi4, Llama 3.1 8B Instruct, Mistral 7B Instruct, Code Llama 13B Instruct, bzw. alle mit llama kompatiblen Modelle

Lokaler KI-Server – (Opensource-LLMs, Hosting in eigenem RZ / Netzwerk)

Lokaler KI-Server – (Opensource-LLMs, Hosting in eigenem RZ / Netzwerk)

Speicherung aller vektorisierten Daten lokal in einer Vektordatenbank Verarbeitung der Daten (relevante Ergebnisse, Frage, Prompt) innerhalb eines Opensource-Sprachmodells, welches auf einem eigenen Server betrieben wird (phi4, Llama 3.1 8B Instruct, Mistral 7B Instruct, Code Llama 13B Instruct, bzw. alle mit llama kompatiblen Modelle