Home » News » Cybersecurity » Kommentar: Sperre von ChatGPT nicht zielführend

Kommentar: Sperre von ChatGPT nicht zielführend

Italien hat vorläufig die Nutzung von ChatGPT, einer populären Anwendung von OpenAI, gesperrt. Die Datenschutzbehörde des Landes begründet diese Maßnahme damit, dass der Betreiber unzureichend über die Verwendung von Daten informiert und keine ausreichenden Rechtsgrundlagen im Datenschutz und Jugendschutz vorweisen könne. Inzwischen ist europaweit eine kontroverse Diskussion um die Nutzung des KI-Bots entstanden.

2 Min. Lesezeit
Foto: ©AdobeStock/Tada Images

Italiens Datenschutzbehörde verfolgt eine sehr rigide und konsequente Haltung gegenüber dem immer beliebter werdenden KI-Tool. So hat sie infolge ihrer Analysen auch die Verarbeitung von Daten italienischer Nutzer durch ChatGPT verboten. Es bleibt abzuwarten, ob andere Länder dem Beispiel Italiens folgen werden. Deutschland hat sich allerdings entschieden, die Anwendung nicht zu sperren, wie das Bundesdigitalministerium mitteilte. „Sperren und Verbote sind nicht der richtige Weg, wenn es um moderne Technologien geht. Die Politik sollte ChatGPT und KI nicht verbieten, sondern darüber aufklären und die Anwendung sachgerecht unterstützen“, kommentiert Wilfried Reiners, einer der führenden deutschen Rechtsanwälte für IT-Recht und CEO der PRW Group, München, die aktuelle Situation um die revolutionäre Anwendung.

Europäische KI-Verordnung im Fokus

Die politische Debatte um die KI-Verordnung der EU spitzt sich zu: Während die einen vor einer Überregulierung warnen, sehen andere in dem risikobasierten Ansatz einen wichtigen Schritt in Richtung harmonisierte KI-Vorschriften. Die nationalen Diskussionen verdeutlichen einmal mehr, dass ein europäischer Rechtsrahmen noch Jahre entfernt ist. Eine Kennzeichnungspflicht könnte jedoch zumindest die unerfahrenen Nutzer und Konsumenten von KI schützen und ihnen die Möglichkeit geben, zu erkennen, ob sie ein KI-Produkt verwenden oder konsumieren. In Anbetracht der rasanten Entwicklung im Bereich der KI ist eine einheitliche und zukunftsfähige Regulierung unumgänglich.

Die Verwendung von Künstlicher Intelligenz wie ChatGPT wirft auch viele Rechtsfragen auf. Ein wichtiger Bereich, in dem Klärungen notwendig sind, ist das Urheberrecht. Wenn ChatGPT falsche oder irreführende Informationen liefert, wer haftet dann dafür? Die Frage bleibt unbeantwortet. Allerdings hat sich gezeigt, dass ChatGPT in der Lage ist, plausible Antworten auf alltägliche Rechtsfragen zu liefern. Die Jurisprudenz hinkt jedoch oft der technologischen Entwicklung hinterher, was bedeutet, dass Antworten auf solche Fragen noch lange auf sich warten lassen werden.

Ein weiteres Problem ist, dass Verbote den Fortschritt von KI nicht aufhalten werden. Das ChatGPT-Verbot in Italien hat beispielsweise dazu geführt, dass das Interesse an VPN-Diensten massiv gestiegen ist. Digitale Anwendungen werden jetzt über virtuelle Standorte in anderen Ländern abgewickelt. Anstatt die Verwendung von KI zu verbieten, sollte der Gesetzgeber nach Auffassung von Wilfried Reiners die Nutzung von KI durch die Vermittlung von Wissen, Aufklärung und Transparenz regulieren. Ein Verbot von KI oder ChatGPT in der EU würde dazu führen, dass Europa technologisch zurückfällt, während China und die USA von diesem Rückstand profitieren werden. Darüber hinaus würde ein Verbot von KI diejenigen nicht aufhalten, die sich bereits für die „dunkle Seite der Macht“ entschieden haben und auf der Suche nach neuen Spielwiesen sind.

Rechtsanwalt Reiners fordert, dass wir uns von der „Cyber-Opfermentalität“ lösen und stattdessen versuchen sollten, auf die Siegesstraße zu kommen. „Nur wer es sich leisten kann, mit seiner Organisation in der Opferrolle zu leben, kann auf den Umgang mit ChatGPT und KI verzichten.“ Er plädiert für mehr Aufklärung, statt für Verbote. „Wir haben eine neue weltweite Technologie und sollten uns darüber im Klaren sein, dass KI gekommen ist, um zu bleiben. Lernen wir mit ihr umzugehen.“

Andere interessante News

Datensicherheit, Cloud

Fehler bei SaaS-Datensicherheit vermeiden

Wenn es um SaaS-Datensicherheit mit geteilter Verantwortung für Datensicherheit in der Cloud geht, ist es wichtig, Modelle der geteilten Verantwortung (Shared responsibility) zu verstehen und kritische Fehler beim Schutz von SaaS-Daten vermeiden. Was bei der Nutzung von As-a-Service-Diensten und der Cloud zu beachten ist.

Phishing

Spear-Phishing-Methoden jetzt bei Massen-Phishing-Kampagnen entdeckt

Cyberkriminelle nutzen Methoden aus Spear-Phishing zunehmend für Massenkampagnen. Während herkömmliche Phishing-Mails generische, oft fehlerhafte Nachrichten an viele Empfänger senden, sind Spear-Phishing-Nachrichten hochgradig personalisiert und enthalten spezifische Details der Zielperson, wodurch sie glaubwürdiger wirken.

Mensch mit Smartphone

Wie Identity Fabric den Boden für Zero Trust bereitet

Identity Fabric (IF) ist eine moderne Infrastruktur für Identitäts- und Zugriffsmanagement (IAM) in hybriden und Multi-Cloud-Umgebungen. Sie kombiniert modulare IAM-Tools für hybride und Multi-Cloud-Umgebungen, unterstützt alle menschlichen und maschinellen Identitäten, bietet erweiterte Analysen und standardbasierte Integrationen – und ist ein wichtiger Schritt in Richtung Zero Trust.