- Der asiatisch-pazifische Raum macht den Großteil der zum Verkauf stehenden kompromittierten Logins aus.
- Immer mehr Angestellte nutzen ChatGPT für ihre Arbeit, was zur Preisgabe vertraulicher Unternehmensdaten führen kann.
- Nutzer sollten 2FA nutzen und Passwörter aktualisieren, um ihre ChatGPT-Konten zu sichern.
Laut Group IP, einer Cybersecurity-Firma aus Singapur, wurden zwischen Juni 2022 und Mai 2023 Anmeldedaten von mehr als 100.000 ChatGPT-Nutzern „geleakt“. Sie werden im Dark Web zum Verkauf angeboten, berichtet Cointelegraph.
Die Cybersecurity-Experten fanden heraus, dass die Daten mit Hilfe von speziell dafür entwickelten Malware gestohlen wurden. Die meisten Daten wurden im Mai 2023 zum Verkauf angeboten, nämlich fast 30.000 ChatGPT-Logins. Die lassen sich auf diversen Online-Schwarzmärkten finden.
Asien-Pazifik und Naher Osten am meisten betroffen
Die meisten kompromittierten Daten, die innerhalb des letzten Jahres auf dem Schwarzmarkt erschienen sind, stammen von Nutzern aus der Region Asien-Pazifik. Es betrifft schätzungsweise rund 40.000 Nutzer. Von dieser Zahl nahmen die indischen Anmeldedaten mit mehr als 12.500 die Spitzenposition ein.
Ägypten hatte die meisten Lecks im Naher Osten – rund 4.600. Die USA und Frankreich hatten jeweils rund 3.000 Lecks. Damit belegen die beiden Länder den sechsten Platz. In Europa liegt Frankreich an der Spitze, gefolgt von Spanien, Deutschland, Italien und Polen.
Risiken für Unternehmen
Nach Angaben von Group IB nutzen immer mehr Menschen ChatGPT für ihre Arbeit. Die Cybersecurity-Firma warnt, dass dadurch vertrauliche Informationen preisgegeben werden könnten, wenn Chatverläufe und Benutzeranfragen ohne besondere Vorkehrungen gespeichert werden. Dann können böswillige Organisationen diese Informationen ausnutzen und Unternehmen oder einzelne Mitarbeiter angreifen.
Es besteht auch eine Gefahr von Industriespionage, wenn sensible Unternehmensinformationen in die Hände der Konkurrenz gelangen. Auch persönliche Daten können für Erpressung oder Belästigung missbraucht werden.
Wenn Kundendaten kompromittiert werden, wird das Vertrauen in das Unternehmen untergraben, was zum Verlust von Kunden und zu einem beschädigten Markenimage führen kann.
Lösung: 2FA und neue Passwörter
Group IB ermutigt Nutzer, ihre Konten mit 2FA (Zwei-Faktor-Authentifizierung) zu sichern. Darüber hinaus empfehlen die Sicherheitsexperten, Passwörter bei ChatGPT regelmäßig zu aktualisieren.
Nutzer können ein Konto für ChatGPT direkt über OpenAI erstellen, das Unternehmen hinter dem beliebten KI-Bot. Alternativ können Sie auch ihre Accounts bei Apple, Google oder Microsoft zur Anmeldung verwenden.