Bösartige KI-Skills:: Kostenloser Checker deckt versteckte Risiken auf
Immer mehr Erweiterungen für KI-Assistenten enthalten schädlichen Code. Ein neues Prüfwerkzeug soll Nutzern helfen, gefährliche Skills vor der Installation zu erkennen und sensible Systeme zu schützen.

KI-Skills versprechen Komfort, Automatisierung und direkten Zugriff auf Online-Dienste. Doch genau diese Fähigkeiten machen sie zu einem attraktiven Einfallstor für Cyberkriminelle. Sicherheitsforscher schlagen Alarm: Ein signifikanter Anteil neu bereitgestellter Erweiterungen zeigt bereits verdächtiges Verhalten.
Alarmierende Befunde rund um OpenClaw
Analysen aus der ersten Februarwoche zeigen, dass 17 Prozent der für den KI-Assistenten OpenClaw veröffentlichten Skills potenziell bösartig agieren. Besonders kritisch ist der Bereich der Kryptowährungen. Über die Hälfte der auffälligen Erweiterungen (54 Prozent) steht in Verbindung mit Handelsplätzen, Wallets oder Token-Ökosystemen wie Solana, Binance, Phantom oder Polymarket.
Auch Werkzeuge zur Automatisierung sozialer Netzwerke geraten zunehmend ins Visier. Manipulierte Skills für Plattformen wie Reddit, LinkedIn oder YouTube dienen als Träger für Schadsoftware. In mehreren Fällen wurde der Datendieb AMOS Stealer gezielt auf macOS-Systeme eingeschleust. Auffällig ist zudem die Strategie der Angreifer: Schädliche Skills werden geklont, umbenannt und über Plattformen wie glot.io oder öffentliche Quellcode-Repositorien massenhaft verbreitet.
Warum KI-Skills ein neues Risiko darstellen
Skills definieren, welche Aktionen eine Künstliche Intelligenz im Namen eines Nutzers ausführen darf. Sie können Arbeitsabläufe starten, mit Webdiensten interagieren oder Konten verwalten. Dadurch erhalten sie oft weitreichende System- und Datenzugriffe – ein ideales Szenario für versteckte Schadfunktionen.
Besonders problematisch ist, dass Nutzer die hinterlegten Skripte kaum vollständig prüfen können. Selbst scheinbar bekannte oder häufig genutzte Erweiterungen bieten keine verlässliche Sicherheit. Angreifer nutzen gezielt Vertrauen, Zeitdruck oder vermeintlich hilfreiche Funktionen, um Schadcode zu platzieren.
Kostenloses Prüfwerkzeug soll Transparenz schaffen
Als Reaktion auf diese Entwicklung stellt Bitdefender einen kostenlosen AI Skill Checker bereit. Das Werkzeug analysiert Erweiterungen bereits vor Installation oder Ausführung auf verdächtige Aktivitäten. Dazu zählen versteckte Befehle, externe Downloads oder unsichere Systemkommandos.
Nutzer erhalten damit eine sinnvolle Entscheidungsgrundlage, bevor sie einem Skill Zugriff auf Geräte oder sensible Daten gewähren. Gerade bei Anwendungen aus dem Kryptowährungsumfeld oder bei Automatisierungstools empfiehlt sich eine zusätzliche Prüfung in isolierten Testumgebungen.
Wachsamkeit bleibt entscheidend
Trotz technischer Prüfmechanismen bleibt ein kritischer Umgang mit KI-Erweiterungen unverzichtbar. Warnsignale sind unter anderem das Ausführen von Shell-Befehlen, das Nachladen ausführbarer Dateien oder die Aufforderung zur Installation externer Programme. Auch künstlich erzeugter Entscheidungsdruck sollte misstrauisch machen.
Die aktuelle Entwicklung zeigt deutlich: Mit der wachsenden Leistungsfähigkeit von KI-Assistenten steigt zugleich ihre Attraktivität für Angriffe. Sicherheitsprüfungen werden damit zu einem zentralen Bestandteil des verantwortungsvollen KI-Einsatzes.
Der Skill Checker von Bitdefender ist hier verfügbar. Die vollständige Analyse der Bitdefender Labs findet sich hier.
Ein Trading-Agent für Base Chain verspricht automatisiertes DEX-Trading auf Base L2. Ein Hinweis fordert aber dann zum Download einer Datei AuthTool.exe auf Windows auf – geschützt mit dem Passwort „1234“. Nutzer erhalten also nicht nur einen autarken OpenClaw-Skill, sondern die Aufforderung, externe binäre Dateien selber auszuführen.

Newsletter Abonnieren
Abonnieren Sie jetzt IT-SICHERHEIT News und erhalten Sie alle 14 Tage aktuelle News, Fachbeiträge, exklusive Einladungen zu kostenlosen Webinaren und hilfreiche Downloads.



