OpenAI, das Unternehmen hinter dem Chatbot ChatGPT, der auf künstlicher Intelligenz (KI) basiert, hat bestätigt, dass ein Fehler im Quellcode des Chatbots möglicherweise zu einem Datenleck geführt hat. Laut OpenAI führte eine Schwachstelle in der Redis Open-Source-Bibliothek, die von ChatGPT verwendet wird, dazu, dass "einige Benutzer" "Titel aus der Chat-Historie eines anderen aktiven Benutzers" sehen konnten und möglicherweise auch die erste Nachricht eines neuen Gesprächs anzeigen konnten, wenn beide Benutzer gleichzeitig aktiv waren.
Das Unternehmen gab auch zu, dass der Fehler möglicherweise zur "versehentlichen Sichtbarkeit von zahlungsbezogenen Informationen" für Premium-ChatGPT-Benutzer geführt hat, die zwischen 1 und 10 Uhr PST am 20. März aktiv waren. Dies bedeutete, dass die Namen, E-Mail-Adressen, Zahlungsadressen, Kreditkartenarten und die letzten vier Ziffern der Zahlungskartennummer aktiver Benutzer während dieses Zeitraums für andere Benutzer sichtbar gewesen sein könnten. Zu keiner Zeit war die vollständige Zahlungskarteninformation sichtbar. OpenAI glaubt, dass die Anzahl der Benutzer, die von diesem Fehler betroffen waren, "äußerst gering" war.
Am 24. März bestätigte OpenAI, dass ChatGPT nach Entdeckung des Fehlers heruntergefahren und am selben Tag gepatcht wurde. OpenAI sagte, dass es alle von dem Datenleck betroffenen Personen kontaktieren würde.
Am 11. April kündigte OpenAI an, dass es sich mit der Bug-Bounty-Plattform Bugcrowd zusammentun würde, um ein Bug-Bounty-Programm zu starten. Das Programm ist laut OpenAI Teil seines "Engagements für sichere KI" und zur "Anerkennung und Belohnung wertvoller Einblicke von Sicherheitsforschern, die dazu beitragen, unsere Technologie und unser Unternehmen sicher zu halten".
OpenAI, das Unternehmen hinter dem Chatbot ChatGPT, der auf künstlicher Intelligenz (KI) basiert, hat bestätigt, dass ein Fehler im Quellcode des Chatbots möglicherweise zu einem Datenleck geführt hat. Laut OpenAI führte eine Schwachstelle in der Redis Open-Source-Bibliothek, die von ChatGPT verwendet wird, dazu, dass "einige Benutzer" "Titel aus der Chat-Historie eines anderen aktiven Benutzers" sehen konnten und möglicherweise auch die erste Nachricht eines neuen Gesprächs anzeigen konnten, wenn beide Benutzer gleichzeitig aktiv waren.
Das Unternehmen gab auch zu, dass der Fehler möglicherweise zur "versehentlichen Sichtbarkeit von zahlungsbezogenen Informationen" für Premium-ChatGPT-Benutzer geführt hat, die zwischen 1 und 10 Uhr PST am 20. März aktiv waren. Dies bedeutete, dass die Namen, E-Mail-Adressen, Zahlungsadressen, Kreditkartenarten und die letzten vier Ziffern der Zahlungskartennummer aktiver Benutzer während dieses Zeitraums für andere Benutzer sichtbar gewesen sein könnten. Zu keiner Zeit war die vollständige Zahlungskarteninformation sichtbar. OpenAI glaubt, dass die Anzahl der Benutzer, die von diesem Fehler betroffen waren, "äußerst gering" war.
Am 24. März bestätigte OpenAI, dass ChatGPT nach Entdeckung des Fehlers heruntergefahren und am selben Tag gepatcht wurde. OpenAI sagte, dass es alle von dem Datenleck betroffenen Personen kontaktieren würde.
Am 11. April kündigte OpenAI an, dass es sich mit der Bug-Bounty-Plattform Bugcrowd zusammentun würde, um ein Bug-Bounty-Programm zu starten. Das Programm ist laut OpenAI Teil seines "Engagements für sichere KI" und zur "Anerkennung und Belohnung wertvoller Einblicke von Sicherheitsforschern, die dazu beitragen, unsere Technologie und unser Unternehmen sicher zu halten".