Drei Samsung-Mitarbeiter haben angeblich vertrauliche Daten an ChatGPT weitergegeben

Berichten zufolge bat einer den Chatbot, Notizen aus einem aufgezeichneten Meeting zu erstellen.

An der Oberfläche mag ChatGPT wie ein Tool erscheinen, das für eine Reihe von Geschäftsaufgaben nützlich sein kann. Aber bevor Sie den Chatbot bitten, wichtige Memos zusammenzufassen oder Ihre Arbeit auf Fehler zu überprüfen, denken Sie daran, dass alles, was Sie mit ChatGPT teilen, zum Trainieren des Systems verwendet werden kann und vielleicht sogar in seinen Antworten für andere Benutzer auftaucht. Einige Samsung-Mitarbeiter hätten sich dessen wahrscheinlich bewusst sein müssen, bevor sie vertrauliche Informationen mit dem Chatbot teilen.

Kurz nachdem die Halbleitersparte von Samsung damit begonnen hatte, Ingenieuren die Verwendung von ChatGPT zu erlauben, gaben Mitarbeiter laut The Economist Korea > mindestens dreimal geheime Informationen an sie weiter (entdeckt von Mashable). Ein Mitarbeiter bat den Chatbot angeblich, den Quellcode der sensiblen Datenbank auf Fehler zu überprüfen, ein anderer bat um Codeoptimierung, und ein dritter brachte ein aufgezeichnetes Meeting in ChatGPT und bat ihn, ein Protokoll zu erstellen.

Berichte deuten darauf hin, dass Samsung nach Bekanntwerden der Sicherheitsfehler versuchte, das Ausmaß zukünftiger Fehltritte zu begrenzen, indem es die Länge der ChatGPT-Eingabeaufforderungen der Mitarbeiter auf ein Kilobyte oder 1.024 Textzeichen begrenzte . Berichten zufolge untersucht das Unternehmen auch die drei fraglichen Mitarbeiter und erstellt einen eigenen Chatbot, um ähnliche Vorfälle zu verhindern. Engadget hat Samsung um einen Kommentar gebeten.

Die Datenrichtlinie von ChatGPT besagt, dass es ihre Eingabeaufforderungen verwendet, um seine Modelle zu trainieren, es sei denn, Benutzer stimmen dem ausdrücklich zu. Der Besitzer des Chatbots, OpenAI, fordert die Benutzer dringend auf, keine geheimen Informationen mit ChatGPT in Gesprächen zu teilen, da es „bestimmte Eingabeaufforderungen nicht aus Ihrem Verlauf entfernen kann“. Die einzige Möglichkeit, personenbezogene Daten auf ChatGPT loszuwerden, besteht darin, Ihr Konto zu löschen – ein Vorgang, der bis zu vier Wochen dauern kann.

Die Samsung-Saga ist ein weiteres Beispiel dafür, warum es sich lohnt, bei der Verwendung von Chatbots Vorsicht walten zu lassen, wie Sie es möglicherweise bei all Ihren Online-Aktivitäten tun müssen. Sie wissen nie wirklich, wo Ihre Daten landen.

Drei Samsung-Mitarbeiter haben angeblich vertrauliche Daten an ChatGPT weitergegeben

Berichten zufolge bat einer den Chatbot, Notizen aus einem aufgezeichneten Meeting zu erstellen.

An der Oberfläche mag ChatGPT wie ein Tool erscheinen, das für eine Reihe von Geschäftsaufgaben nützlich sein kann. Aber bevor Sie den Chatbot bitten, wichtige Memos zusammenzufassen oder Ihre Arbeit auf Fehler zu überprüfen, denken Sie daran, dass alles, was Sie mit ChatGPT teilen, zum Trainieren des Systems verwendet werden kann und vielleicht sogar in seinen Antworten für andere Benutzer auftaucht. Einige Samsung-Mitarbeiter hätten sich dessen wahrscheinlich bewusst sein müssen, bevor sie vertrauliche Informationen mit dem Chatbot teilen.

Kurz nachdem die Halbleitersparte von Samsung damit begonnen hatte, Ingenieuren die Verwendung von ChatGPT zu erlauben, gaben Mitarbeiter laut The Economist Korea > mindestens dreimal geheime Informationen an sie weiter (entdeckt von Mashable). Ein Mitarbeiter bat den Chatbot angeblich, den Quellcode der sensiblen Datenbank auf Fehler zu überprüfen, ein anderer bat um Codeoptimierung, und ein dritter brachte ein aufgezeichnetes Meeting in ChatGPT und bat ihn, ein Protokoll zu erstellen.

Berichte deuten darauf hin, dass Samsung nach Bekanntwerden der Sicherheitsfehler versuchte, das Ausmaß zukünftiger Fehltritte zu begrenzen, indem es die Länge der ChatGPT-Eingabeaufforderungen der Mitarbeiter auf ein Kilobyte oder 1.024 Textzeichen begrenzte . Berichten zufolge untersucht das Unternehmen auch die drei fraglichen Mitarbeiter und erstellt einen eigenen Chatbot, um ähnliche Vorfälle zu verhindern. Engadget hat Samsung um einen Kommentar gebeten.

Die Datenrichtlinie von ChatGPT besagt, dass es ihre Eingabeaufforderungen verwendet, um seine Modelle zu trainieren, es sei denn, Benutzer stimmen dem ausdrücklich zu. Der Besitzer des Chatbots, OpenAI, fordert die Benutzer dringend auf, keine geheimen Informationen mit ChatGPT in Gesprächen zu teilen, da es „bestimmte Eingabeaufforderungen nicht aus Ihrem Verlauf entfernen kann“. Die einzige Möglichkeit, personenbezogene Daten auf ChatGPT loszuwerden, besteht darin, Ihr Konto zu löschen – ein Vorgang, der bis zu vier Wochen dauern kann.

Die Samsung-Saga ist ein weiteres Beispiel dafür, warum es sich lohnt, bei der Verwendung von Chatbots Vorsicht walten zu lassen, wie Sie es möglicherweise bei all Ihren Online-Aktivitäten tun müssen. Sie wissen nie wirklich, wo Ihre Daten landen.

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow