Home » News » Security Management » Der KI das Halluzinieren abgewöhnen

Der KI das Halluzinieren abgewöhnen

Manchmal ist die KI etwas zu eifrig. Ein Text mag vernünftig klingen, aber bei genauerem Hinsehen wird deutlich, dass einfach drauflos geschrieben wurde, um etwas zu produzieren. Mit ein paar "therapeutischen Maßnahmen" lassen sich KI-Halluzinationen sehr gut eindämmen.

2 Min. Lesezeit
KI-Symbol inmitten von verwackelten Daten
Foto: ©AdobeStock/bestforbest

Generative KI (GenAI) hat die Fähigkeit, fast immer sinnvolle Antworten zu liefern. Doch gelegentlich offenbaren sich diese Antworten bei genauerer Betrachtung als falsch oder frei erfunden – ein Phänomen, das als KI-Halluzinationen bekannt ist.

Diese Halluzinationen können auf verschiedene Ursachen zurückzuführen sein, aber eine der häufigsten ist die Qualität der während des Trainings verwendeten Daten. Wenn die Daten fehlerhaft, veraltet, unverständlich oder unvollständig sind („Garbage In“), können die daraus resultierenden Sprachmodelle ebenfalls fehlerhaft sein („Garbage Out“).

Um diese KI-Halluzinationen zu reduzieren, ist eine Verbesserung der Datenqualität unerlässlich. Dies ist jedoch ein komplexer und zeitaufwändiger Prozess, der Kosten verursachen kann. Es gibt jedoch noch einige weitere Ansätze zur Optimierung von Sprachmodellen, die einfacher umsetzbar sind:

  1. Aufbau von RAG-Pipelines:

RAG steht für „Retrieval Augmented Generation“. Dabei wird das Sprachmodell mit zusätzlichen, spezifischen Informationen aus verschiedenen Quellen gefüttert, ohne dass es neu trainiert werden muss. Diese Informationen können beispielsweise aus themenspezifischen Datenbanken, Data Warehouses oder Dokumenten-Pools stammen. Durch den Zugriff auf diese zusätzlichen Datenquellen kann das Sprachmodell sein Wissen erweitern und qualitativ hochwertigere Antworten liefern.

  1. Anwendung des Human-in-the-Loop-Prinzips:

Hierbei interagieren Menschen und KI miteinander, um die Sprachmodelle kontinuierlich zu verbessern. Durch Feedback-Schleifen lernt die KI, bessere Entscheidungen zu treffen und weniger Fehler zu machen. Diese Art der Zusammenarbeit, auch als Reinforcement Learning bekannt, kann dazu beitragen, die Qualität der Sprachmodelle zu erhöhen.

  1. Nutzung von Knowledge-Graphen:

Mit der Graphentechnologie können heterogene Daten aus verschiedenen Quellen zusammengeführt und strukturiert visualisiert werden. Ein Knowledge Graph verknüpft verschiedene Daten wie Personen, Orte und Konzepte sowie ihre Beziehungen zueinander. Dadurch entsteht ein umfassendes, kontextbezogenes Modell eines Wissensbereichs, das leicht abfragbar ist und zu präziseren Antworten führt.

  1. Auswahl des richtigen Sprachmodells:

Jedes Sprachmodell hat seine eigenen Stärken und Schwächen. Es ist wichtig, das Modell zu wählen, das den Anforderungen des Einsatzszenarios am besten entspricht, sowohl in Bezug auf Leistung als auch Kosten. Faktoren wie Verfügbarkeit, Branchenspezifität und Kosten sollten bei der Auswahl berücksichtigt werden.

„Mit den richtigen Werkzeugen können GenAI-Applikationen schnell, kostengünstig und ohne zusätzlichen Trainingsaufwand für die Sprachmodelle optimiert werden“, erklärt Niklas Bläsing,. „So können wir den Anteil an Fake-Informationen sukzessive immer weiter reduzieren. Es muss uns dabei aber auch klar sein, dass es selbst bei bestem Finetuning keine Garantie für völlige Fehlerfreiheit geben kann.“

Weitere Informationen darüber, wie Retrieval-Augmented Generation (RAG) und die richtigen Betriebsmodelle für einen sicheren Nutzungsrahmen sorgen können, finden Sie im Artikel „Hal­lu­zi­na­ti­ons­be­gren­zer“ der Zeitschrift <kes>.

Andere interessante News

Cyberattacken

Viele Cyberangriffe bleiben lange unentdeckt

Mehr als ein Fünftel (22 Prozent) der Cyberangriffe auf Unternehmen und Organisationen im vergangenen Jahr dauerten mehr als einen Monat an – dies bedeutet einen Anstieg von rund sechs Prozentpunkten gegenüber dem Vorjahr 2022. Eine aktuelle Studie belegt außerdem: Vertrauensvolle Beziehungen werden als Angriffsvektor ausgenutzt.

AI Act

EU-Mitgliedsstaaten beschließen KI-Regulierung für Europa

Die EU-Mitgliedsstaaten haben den AI Act im Ministerrat beschlossen. Nach der Veröffentlichung könnte der AI Act bereits Ende Juni oder Anfang Juli in Kraft treten. Unternehmen müssen dann bereits sechs Monate später erste Regeln befolgen.

DaaS - Desktop as a Service

Wie Device as a Service die IT-Security stärkt

Die Sicherheit am digitalen Arbeitsplatz bleibt ein zentrales Thema für IT-Entscheider. Besonders attraktiv ist dabei Device as a Service (DaaS), also die Auslagerung der Beschaffung, Bereitstellung, Verwaltung und des Austauschs von Geräten. Diese „as a Service“-Modelle tragen mit hohen Sicherheitsstandards zur aktiven und präventiven Sicherheit bei.