Rechtzeitig zum KI-Festival war er fertig: unser neu entwickelter RAG-Demonstrator mit der vorläufigen Bezeichnung Chaos2Knowledge. Unstrukturierte Daten wandelt er in nützliche Informationen um. Auf Basis von Retrieval-Augmented Generation (RAG) und Vision-Language-Modellen (VLM) beantwortet das Modell gezielt Fragen, indem es relevante Bilder aus einer festgelegten Datenbasis als Wissensgrundlage nutzt. Dabei müssen die Bilddateien nicht speziell aufbereitet sein wie bei anderen RAG-Modellen und können auch Texte, Diagramme oder Fotos beinhalten.
Ein besonderes Merkmal von Chaos2Knowledge ist, dass er vollständig lokal arbeitet. Das bedeutet, dass der Demonstrator ausschließlich auf die Daten zugreift, die ihm zur Verfügung gestellt werden. Dies macht ihn besonders sicher und zuverlässig für den Einsatz in sensiblen Unternehmensumgebungen. Zudem arbeitet er vollständig mit Open Source und läuft lokal auf dem Hochschul- oder ggf. Unternehmensserver und gewährleistet damit eine hohe Datensicherheit
Eine weitere Besonderheit: Unser RAG-Modell ermöglicht es den Benutzer*innen, verschiedene Parameter einzustellen. Sie können beispielsweise festlegen, wie kreativ oder wie lang die Antworten sein sollen. Dies gibt einen einzigartigen Einblick in die Arbeitsweise der KI und ermöglicht es die Ergebnisse nach den eigenen Bedürfnissen zu optimieren. So ermöglicht er auch, verschiedene RAG- und VLM-Modelle zu vergleichen.
Der Demonstrator wurde im AI TRAQC-Team unter der Federführung von Christian Heinzmann in Zusammenarbeit mit Prof. Raoul Zöllner und Jorge Estrella entwickelt und ist seit zwei Wochen einsatzbereit.
Perspektivisch planen wir, das Modell in verschiedenen Formaten einzubinden. Weitere Informationen hierzu finden Sie rechtzeitig in unserem Newsletter und auf unserer Website. Bleiben Sie dran!