Home » News » Security Management » Datenschutzgefahren der beruflichen Nutzung von ChatGPT

Datenschutzgefahren der beruflichen Nutzung von ChatGPT

Fast die Hälfte (46 Prozent) der deutschen Berufstätigen integriert ChatGPT in ihren Arbeitsalltag, wie eine repräsentative Umfrage ergab. Die steigende Beliebtheit von generativen KI-Diensten und Large Language Models (LLM) wirft für Unternehmen die Frage auf, wie sie verantwortungsbewusst mit der Nutzung dieser Sprachmodelle umgehen können, insbesondere hinsichtlich sensibler Unternehmensdaten.

3 Min. Lesezeit
Foto: ©AdobeStock/Mediaparts

Das Beratungsunternehmen Gedankenfabrik hat kürzlich neue Erkenntnisse aus dem „ChatGPT Report 2023“ veröffentlicht. Die Studie wurde im Juli 2023 in Zusammenarbeit mit dem Marktforschungsinstitut Appinio durchgeführt und befragte insgesamt 1.300 Teilnehmer im Alter von 18 bis 65 Jahren in Deutschland zu ihrem Nutzungsverhalten des derzeit beliebtesten KI-Tools.

Ziel dieser repräsentativen Umfrage war es, einen Einblick in aktuelle Entwicklungen im Bereich künstliche Intelligenz zu gewinnen. Die Ergebnisse des Reports liefern somit wertvolle Erkenntnisse über die Verbreitung und Nutzung von ChatGPT sowie Einblicke in die Einstellungen und Präferenzen der deutschen Bevölkerung im Hinblick auf dieses führende KI-Tool.

Die Sicherheitsexperten von Kaspersky haben drei Datenschutzrisiken im Zusammenhang mit der beruflichen Nutzung von ChatGPT identifiziert:

Datenleck oder Hack seitens des Providers: Obwohl Large Language Models (LLM)-basierte Chatbots von großen Technologieunternehmen betrieben werden, sind sie nicht immun gegenüber Hackingangriffen oder unabsichtlichen Datenlecks. Es hat bereits einen Vorfall gegeben, bei dem Nutzer von ChatGPT Einträge aus den Nachrichtenverläufen anderer Nutzer sehen konnten.

Datenleck durch Chatbots: Theoretisch könnten Chats dazu verwendet werden, neue Chatbot-Modelle zu trainieren. Nutzer sollten sich bewusst sein, dass Large Language Models anfällig für „unabsichtliche Speicherung“ sind, was bedeutet, dass sie einzigartige Sequenzen wie Handynummern speichern können. Dies verbessert nicht die Modellqualität, gefährdet jedoch die Privatsphäre. Alle Daten, die Nutzer in den Trainingskorpus eingeben, können von anderen Anwendern desselben Sprachmodells bewusst oder unabsichtlich abgerufen werden.

Hacking von Accounts: Angreifer können durch Phishing-Angriffe oder Credential Stuffing in Angestellten-Accounts eindringen und auf fremde Daten zugreifen. Zudem finden sich regelmäßig Darknet-Beiträge, die Chatbot-Accounts zum Verkauf anbieten, so die Kaspersky Digital Footprint Intelligence.

Im B2B-Bereich sind die Nutzungsbedingungen für die Erfassung, Speicherung und Verarbeitung von Daten bei KI-Tools stärker auf Schutz ausgelegt als im B2C-Sektor. B2B-Lösungen speichern normalerweise keine Chatverläufe, und in einigen Fällen werden auch keine Daten an den Unternehmensserver gesendet, da der Chatbot lokal im Kundennetzwerk operiert.

Anna Larkina, Sicherheits- und Datenschutzexpertin bei Kaspersky, betont: „Das Risiko für den Verlust sensibler Daten ist am höchsten, wenn Angestellte persönliche Accounts am Arbeitsplatz verwenden. Unternehmen sollten daher ihr Hauptaugenmerk darauf legen, Mitarbeiter für die Risiken der Chatbot-Nutzung zu sensibilisieren. Einerseits müssen diese verstehen, welche Daten vertraulich oder persönlich sind oder ein Geschäftsgeheimnis darstellen und nicht an Chatbots weitergeleitet werden dürfen. Andererseits sollten Unternehmen klare Regeln für die Verwendung dieser Dienste – wenn sie überhaupt zugelassen werden – aufstellen.“

Kaspersky gibt folgende Tipps zum Schutz der Privatsphäre im Unternehmensumfeld:

Sichere und eindeutige Passwörter nutzen: Verwenden Sie für jeden Online-Account sichere und eindeutige Passwörter. Vermeiden Sie leicht zu erratende Informationen wie Geburtstage oder Namen.

Vorsicht bei unaufgeforderten Anfragen: Seien Sie vorsichtig bei unaufgeforderten E-Mails, Nachrichten oder Anrufen, die nach persönlichen Daten fragen. Überprüfen Sie die Identität des Absenders, bevor Sie sensible Informationen weitergeben.

Mitarbeiter auf dem Laufenden halten: Informieren Sie Mitarbeiter regelmäßig über die neuesten Online-Bedrohungen und Best Practices zum Schutz im Internet.

Aktualisierungen durchführen: Halten Sie Betriebssysteme, Anwendungen und Antivirenprogramme durch regelmäßige Updates und Sicherheitspatches auf dem neuesten Stand.

Sensible Informationen nicht über Social Media teilen: Vermeiden Sie das Teilen sensibler Informationen mit Dritten über Social-Media-Kanäle.

URL-Adresse von Online-Händlern überprüfen: Überprüfen Sie die Legitimität der URL-Adresse von Online-Händlern, um sicherzustellen, dass es sich um vertrauenswürdige Quellen handelt.

Sicherheitslösung mit Cloud-Service-Analytik verwenden: Nutzen Sie eine Sicherheitslösung mit Cloud-Service-Analytik, um Cloud-Dienste zu verwalten und Risiken bei ihrer Nutzung zu bewerten.

 

Weitere Informationen zu den Datenschutzrisiken beim Einsatz von Chatbots sind hier verfügbar.

 

Andere interessante News

Handy Betrug

Vorsicht Abzocke: Hype um iPhone-16-Release lockt Betrüger

Mit dem Hype um den Release des neuen iPhone 16 nutzen Cyberkriminelle die Begeisterung der Apple-Fans schamlos aus: Sie locken ahnungslose Nutzer mit Möglichkeiten für (gefälschte...

Phishing-Mail

Warnung: Mobile Phishing-Angriffe nehmen massiv zu

Vier von fünf Phishing-Seiten zielen speziell auf mobile Geräte ab. Mobile Phishing umfasst Methoden wie SMS-Phishing (Smishing), Voice-Phishing (Vishing), App-, E-Mail- und Social...

Frau bei Videokonferenz

BSI erklärt Videokonferenzdienst Zoom für sicher

Der Videokonferenzanbieter Zoom hat jetzt zwei IT-Sicherheitskennzeichen vom Bundesamt für Sicherheit in der Informationstechnik (BSI) erhalten. BSI-Vizepräsident Dr. Gerhard Schab...