Generative KI

KI-Systeme nutzenstiftend einsetzen, die eigene Wissensbasis erschließen

Die viadee-Leistungen zu generativer KI im Überblick

Wir identifizieren und realisieren die Potenziale der generativen KI für Sie.

Die generative KI ist keine “Silver Bullet”, die beliebige Probleme löst. Die Größe dieser KI-Modelle, die nicht-Reproduzierbarkeit von Ergebnissen und die entstehenden Kosten legen es nahe, diesen Innovationsprozess mit viadee-Expert:innen anzugehen, die auch bewährte und leichter steuerbare Methoden beherrschen, um anspruchsvolle Probleme zu lösen. Bei diesem Prozess begleiten wir unsere Kunden, agieren als KI-Ideengeber:innen, Coaches oder setzen Lösungen gemeinsam mit unseren Kunden erfolgreich um.

Technologisch stellen wir uns unabhängig auf, um ohne Interessenskonflikte beraten zu können: Wir helfen bei on-premise Deployments von Gen-AI-Infrastruktur-Anwendungen ebenso wie bei der Erstellung und Nutzung von Cloud-Infrastrukturen für LLMs, sei es bei OpenAI, Azure, Google oder anderen Diensten.

Architektonisch tragen wir gern viadee-typisch auf allen Ebenen zur Lösung bei:

  1. Von auf der Infrastruktur-Ebene (bspw. mit skalierbaren LLM-Deployments auf Basis von Kubeflow und MLOps-Praktiken)
  2. bis zur Chat-Anwendung mit Retrieval-Augmented-Generation auf ihren eigenen Dokumenten und Datenbanken
  3. der Einbettung von GenAI-Funktionen in bestehende Software, um vom Kontextwissen zu profitieren
  4. oder bei der Herstellung einer KI-Orchestrierungsplattform über Prozesse und Anwendungsgrenzen hinweg.

Wir schulen darüber hinaus Mitarbeitende zu diesen Themen, technisch und der Perspektive der Gen-AI-Anwenderin und beteiligen uns am gesellschaftlichen Dialog zur sinnvollen Nutzung dieser Technologien und an der Forschung und zeigen Schnittmengen mit anderen Disziplinen und Methoden auf, wie bspw. im Process Mining.

Ansprechperson

Dr. Frank Köhne

Tel: +49 251 777770

Wo fange ich an und wie plane ich ein Gen-AI Projekt? Ein guter erster Schritt ist unser Canvas für KI-Anwendungsfälle.

Generative KI – die Zukunft der Wissensarbeit?

Generative KI ist Teil der dritten KI-Generation und beschreibt das Erstellen von Inhalten wie Texten, Bildern oder Audiodateien unter Nutzung umfassender Trainingsgrundlagen.

Mithilfe von Klassifikationen und Prognosen hat KI in den letzten Jahren bereits Einzug erhalten, begonnen die professionelle Entscheidungsfindung zu unterstützen. Spätestens seit der Veröffentlichung von ChatGPT durch Open AI im November 2022 wurde auch klar, dass KI ein umfassendes Potenzial hat, auch kreative menschliche Tätigkeiten auszuüben. Aufbauend auf der technischen Grundidee dem Transformer von Vasvani17 kamen in der Folge eine Vielzahl von Modellen sowohl für die kreative Generierung von Text, als auch die Erstellung von Inhalten anderer Medientypen. Wir verfolgen die Idee seit 2021 und erzeugen bspw. kreative Testdaten damit.

Basis der Modelle der generativen KI ist immer ein sehr großer Textkorpus. Eine Grundlage mit der ein Modell erlernt, welche Konstrukte in einer Sprache und einem Kontext vorkommen und wie darauf reagiert wird. Das Modell sagt später vorher, welches Wort am wahrscheinlichsten unter Betrachtung des Kontextes an einer Stelle stehen sollte. Aus dieser einfachen Struktur und der großen Menge an verarbeiteten Daten entsteht das Potenzial neue Kategorien von Problemen für eine IT-unterstützte Lösung zu erschließen, ohne gleich selbst Modelle trainieren zu müssen. Daher bezeichnet der EU Ai Act diese Modelle auch als “Foundation Models”.

Der 4-fach Nutzen von Large Language Models (LLM)

  1. Prozessautomatisierung trotz unstrukturierter Daten

    LLMs können Support-Fälle klassifizieren, Rückfragen stellen oder Schlüsselaspekte aus Texten extrahieren: Facharbeiter:innen konzentrieren sich auf ihre Hauptaufgabe, den inhaltlichen Input und dessen Prüfung. Mitarbeitende erschließen sich hier mit einer Enterprise Chat-Plattform den ersten Nutzen oft selbst. Mit einem umfassenden Blick auf Geschäftsprozesse und gut in Anwendungen integrierte KI-Dienste entfällt dann noch das "Copy & Paste" in ein Chat-Fenster.

  2. Erschließen von Wissensquellen

    Durch die Aufbau als Chatbot lassen sich Wissensquellen leicht durch das Stellen von Fragen erschließen und kombinieren. Wir sparen Recherchezeit und beantworten Fragen, für die eine klassische Stichwortsuche keine Antworten finden kann. Über eine klassische Retrieval-Augmented-Generation (RAG) hinaus, können wir auch LLMs Nutzen, um erwartbare Fragen zuzuordnen und zwischen Fachsprachen und der Sprache der Nutzerin zu übersetzen oder die Kontrollierbarkeit von Stichwortsuchen mit der Flexibilität einer Semantic Search kombinieren.

  3. Erschließen von Funktionen

    Systeme Generativer KI und LLMs können als Zugangsschicht für Funktionen genutzt werden, um die Interaktion mit Nutzerinnen möglichst menschlich zu gestalten und die korrekte Nutzung von Funktionen zu fördern. Um diese Idee herum entsteht nicht nur eine verbesserte User Experience sondern ein neuer Marktplatz für Web-Dienste.

  4. Massen-Kreativität und Testfälle

    Durch generative KI können urheberrechtsfreie Webseiteninhalte oder Beispieldaten wie Bilder generiert werden, ohne dass Kosten für Stockfotos oder ein manuelle Erstellungskosten anfallen. Weniger offensichtlich aber für viele Unternehmen noch nützlicher sind per LLM generierte Test-Daten oder Threat-Analysen - Situationen in denen eine zusätzliche aufgezeigte Idee essenziell sein kann.

Mit Retrieval-Augmented Generation (RAG) lassen sich die Modelle unkompliziert um die eigene Wissensbasis erweitern

"Generative KI erschließt schlecht strukturiertes Wissen über die Grenzen von Fachsprachen hinweg."

RAG ist eine offensichtliche Idee, die OpenAI treffend als “Prüfung mit offenen Büchern” beschrieben hat. Wir fragen das LLM  der Wahl nicht direkt und hoffen auf eine korrekte Antwort auf Basis des aus dem Internet erlernten Wissens. Stattdessen legen wir eine Reihe von Textfragmenten bei und bitten darum aus den vorliegenden Inhalten (und nur daraus) eine Antwort für eine Frage zu formulieren. Mit diesem Vorgehen bekommt man das Problem der Halluzinationen, frei erfundener Inhalte, weitgehend unter Kontrolle.

Aber wo kommen diese vermutlich relevanten Textfragmente her? Hierzu gibt es mehrere Verfahren, die man auch nach Bedarf mischen kann:

  1. Eine bestehende Stichwortsuche – oft bieten unsere Datenquellen schon eine Stichwortsuche an, die wir hier weiterverwenden können.
  2. Eine Vektordatenbank – wir verarbeiten ihre Dokumente vor und ermöglichen eine Ähnlichkeitssuche auf Informationsbedarf und Informationsangebot.
  3. Ein System mit Abfragesprachen wie SQL – dann reduziert sich die Such-Aufgabe auf die Übersetzung einer Frage in die Abfragesprache und den Rest erledigt ein erprobtes System.

Das kann (integrierte als Blogartikel zum Data-Copilot beschreiben.

Erfreulicherweise gelingt der Wissenszugang dann auch gleich mehrsprachig, sofern des verwendete LLM die Sprache der Fragestellerin unterstützt.

Es gibt weitere Optionen, um die Qualität der Antworten zu verbessern. Bspw. durch ein Re-Ranking, eine Query-Expansion oder die verbesserte Vorbereitung der Quelldokumente.

Ein Verfahren an dem wir besonders viel Freude haben ist das HyQE-Verfahren aus der Master Thesis von Marten Jostmann (2024). Hier leiten wir aus den Quelldokumenten zunächst plausible Fragen ab, für die das Quelldokument die Antwort enthält – wir drehen also das Verfahren um. Diese Fragen speichern wir dann in einer Vektordatenbank für die Ähnlichkeitssuche mit tatsächlichen Fragen, die dann zum richtigen Ergebnis führen. Das steigert nicht nur die Qualität der Ergebnisse sondern kann sehr gezielt eingesetzt werden, um das Wissen für bestimmte Zielgruppen zu erschließen. “Welche Fragen würde meine Zielgruppe hier beantwortet bekommen und wie würde sie die Frage stellen?” Damit können wir auch die Diskrepanz zwischen Endnutzerin und Fachsprache in den Zieldokumenten überbrücken, insb. wenn es um Rechtsprechung und Verwaltungsfragen geht, wie die Thesis am Beispiel der Website über Soziale Teilhabe für Kinder und Jugendliche des LWL zeigt.
Aus der Thesis ist eine Veröffentlichung auf der Wirtschaftsinformatik 2024 entstanden und die Veröffentlichung der Thesis über das ERCIS freut uns auch sehr. Wir bedanken uns bei den Kollegen von der LWL.IT für die gute Zusammenarbeit.

Ansprechperson

Dr. Frank Köhne

Tel: +49 251 777770

Actions und Agenten: API-Schnittstellen mit natürlicher Sprache ansteuern

"Wir sehen so viele Chat-Anwendungen, nicht weil Chats das ideale Interface ist, sondern weil Chats einfach herstellbar sind. Die nächste KI-Welle wird Nutzen durch geschickte Integration schaffen."

LLMs können Funktionen anderer IT-Systeme aufrufen. Technisch steckt wenig mehr dahinter als ein neues, synthetisches Wort zu definieren, das dann für einen bestimmten Informationsbedarf steht. Ein LLM kann im Dialog dann feststellen, dass wir für unsere Reiseplanung eine Wetter-Auskunft brauchen und das per “$WETTER-AUSKUNFT HIER$” kennzeichnen. Diesen Informationsbedarf bemerken wir, decken ihn mit einem Funktionsaufruf und so kann der Dialog sich auf ein Tagesaktuelles Wetter drehen.

  1. In der ersten Ausbaustufe wird so die RAG-Idee um dynamische Datenquellen ergänzt, die keine Dokumente im klassischen Sinne sind.
  2. In der zweiten Ausbaustufe können wir über Informationsbeschaffung hinaus denken: Ein Agent legt ein Jira-Ticket an oder schließt es, vereinbart Termine oder protokolliert etwas.
  3. In der dritten Ausbaustufe findet diese Interaktion nicht mehr in einer “Textwand” statt, sondern integriert in eine Fachanwendung.

Die Stärke und Unumgänglichkeit der Idee wird deutlich, wenn wir uns vor Augen führen, dass viele Interaktionen mit ChatBots damit beginnen, dass wir erklären wer welche Rolle spielt und in welchem Format wir Antworten erwarten. Das gut auszugestalten (“Prompt Engineering”) ist zwar eine nützliche Fertigkeit, für eine menschliche Unterstützung wäre dieses Level von notwendigem Micro-Management und Vergesslichkeit aber völlig inakzeptabel.

Fachanwendungen wissen schon durch den Nutzungskontext sehr viel über die Datensituation und den umgebenden Prozess einer Nutzerin. Diese Chance gilt es als nächstes zu nutzen.

Ansprechperson

Tobias Goerke

Tel: +49 251 77777340

Chatbots und Kontrolle

"Chat-Anwendungen betreibt man nicht allein - sie brauchen eine Steuerungsschicht."

Ein LLM liefert zunächst nur “plausible” Reaktionen. Für manche Kreativ-Anwendungen reicht das aus, für das Führen von Dialogen mit Endkunden braucht es mehr Kontrolle über den Verlauf von Dialogen über das Prompt-Engineering hinaus.
Bewährtes Muster dazu ist, Chatbots als Prozesse mit kontrollierten Freiheiten im BPMN-Format zu modellieren, wie bspw. die LoyJoy-Plattform (ein Partner-Unternehmen aus Münster) dies ermöglicht. KI-Anwendungen in eine Prozess-Engine wie Camunda einzubetten ist grundsätzlich gute Praxis. Wer schon eine Process-Engine betreibt, gewinnt damit auch Fehlerbehandlung, manuelle Eingriffsoptionen und Protokolle über das Verhalten von Nutzerinnen hinzu – die bekannten BPMN.ai-Muster sind anwendbar.

Ein geordneter Feedback-Prozess sowie geeignete organisatorische Maßnahmen bilden zusammen mit Maßnahmen zur Data Literacy von Nutzerinnen das notwendige Sicherheitsnetz für GenAI-Anwendungen.

Ansprechperson

Dr. Frank Köhne

Tel: +49 251 777770

Unterstützung generativer KI Ansätze mithilfe von MLOps

Fällt die Wahl auf ein individuelles Modell, ist die tatsächliche Produktivnahme häufig eine große Hürde. Hierbei kann ein MLOps-Prozess mit einer geeigneten Plattform ganzheitlich unterstützen das Deployment durchzuführen und Entscheidungen und die Implementierung nachvollziehbar zu gestalten. Hierbei sind folgende Aspekte von entscheidender Wichtigkeit:

  • Welche Modelle gibt es?
  • Wie sind sie entstanden?
  • Welche Daten wurden verwendet?
  • Welche Qualitätssicherungsmaßnahmen und Freigaben sind erfolgt?
  • Für produktive Modelle: Wie verändern sich die Aussagen des Modells über die Zeit?

Wer diese Aspekte beachtet, kann mit endlichem Aufwand langfristig von der Nutzung individueller LLMs profitieren. Wer sie nicht beachtet erhält unvorhergesehene Probleme und Schwierigkeiten in der Nachvollziehbarkeit.

Sie wollen mehr Erfahren oder haben Fragen? Gerne tauschen wir uns mit Ihnen aus.

viadee GenAI-Material auf YouTube

Aus dem Kontext der NAVIGATE und anderen Veranstaltungen sind Video-Dokumentationen von relevanten Beiträgen mit GenAi / LLM-Bezügen entstanden, teils vom Team viadee und teils aus unserem Netzwerk. Wir sammeln diese Videos hier:

NAVIGATE 2024 - Vortrag Tobias Otte - Macht ChatGPT Datenmodellierung obsolet?
NAVIGATE 2024 - Vortrag Tobias Otte - Macht ChatGPT Datenmodellierung obsolet?
Bitte um dieses Video anzusehen.
Tobias Goerke und Frank Köhne im Datenbusiness Podcast
Tobias Goerke und Frank Köhne im Datenbusiness Podcast
Bitte um dieses Video anzusehen.
Vortrag zur Code-Generierung mit LLMs und simuliertem Pair-Programming
Vortrag zur Code-Generierung mit LLMs und simuliertem Pair-Programming
Bitte um dieses Video anzusehen.

Aktuelle Blogbeiträge

Sie wollen mehr über die viadee, unsere Projekte, Kund:innen und Kolleg:innen erfahren? Dann besuchen Sie unseren Blog. Sie haben die Wahl und können entweder alle Blogbeiträge aus sämtlichen Unternehmensbereichen lesen oder nur die Blogbeiträge aus dem Bereich “KI – Künstliche Intelligenz”.

zum Blog #KI-Künstliche Intelligenz

Unsere Lösungen für
BANKEN, VERSICHERUNGEN, HANDEL UND WEITERE BRANCHEN

Agile MethodenAgile Methoden

Business Process ManagementBusiness Process Management

Clean CodeClean Code

CloudCloud

IT-SicherheitIT-Sicherheit

Java & ArchitekturJava & Architektur

Legacy ITLegacy IT

Frontend-EntwicklungFrontend-Entwicklung

Robotic Process AutomationRobotic Process Automation

Software-QualitätssicherungSoftware-Qualitätssicherung