Użycie ChatGPT przez pracownika Samsunga prowadzi do wycieku poufnych danych

Untitled-design-3 (1).png

Dział półprzewodników w firmie Samsung polegał na ChatGPT, aby pomóc w rozwiązywaniu problemów w ich kodzie źródłowym. Niestety, podczas korzystania z tego chatbota AI, przypadkowo ujawnili poufne informacje, takie jak kod źródłowy nowego programu oraz wewnętrzne notatki z spotkań dotyczących ich sprzętu. Niestety, nie było to odosobnionym zdarzeniem, ponieważ w ciągu miesiąca zgłoszono trzy incydenty.

W celu uniknięcia podobnych incydentów w przyszłości, Samsung obecnie pracuje nad opracowaniem własnego narzędzia AI podobnego do ChatGPT, które będzie stosowane wyłącznie wewnętrznie przez pracowników. Dzięki temu pracownicy fabryki będą mogli otrzymać szybką pomoc, jednocześnie zabezpieczając poufne informacje firmowe. Jednak nowe narzędzie to będzie przetwarzać tylko prośby o rozmiarze do 1024 bajtów.

Problem wystąpił, ponieważ ChatGPT jest zarządzany przez firmę zewnętrzną, która korzysta z zewnętrznych serwerów. Dlatego, gdy Samsung wprowadził swoje kody, sekwencje testowe i treści spotkań wewnętrznych do programu, dane uległy wyciekom. Samsung natychmiast poinformował swoje kierownictwo i pracowników o ryzyku naruszenia poufnych informacji. Do 11 marca Samsung nie pozwolił swoim pracownikom korzystać z chatbota.

Samsung nie jest jedyną firmą borykającą się z tym problemem. Wiele firm ogranicza korzystanie z ChatGPT, dopóki nie ustalą klarownej polityki dotyczącej wykorzystania generatywnej sztucznej inteligencji. Chociaż ChatGPT oferuje opcję rezygnacji z gromadzenia danych użytkowników, warto zauważyć, że informacje dostarczone do usługi wciąż mogą być dostępne dla jej dewelopera.

Czym jest ChatGPT i jak działa?

ChatGPT to aplikacja AI opracowana przez OpenAI, która wykorzystuje głębokie uczenie się do generowania tekstów przypominających ludzkie w odpowiedzi na polecenia użytkownika. Może generować teksty w różnych stylach i do różnych celów, w tym pisanie tekstów, odpowiadanie na pytania, pisarstwo e-maili, prowadzenie rozmów, tłumaczenie naturalnego języka na kod oraz tłumaczenie kodu w różnych językach programowania.

ChatGPT funkcjonuje poprzez przewidywanie następnego słowa w danym tekście, korzystając z wzorców, które nauczył się na podstawie ogromnej ilości danych w trakcie procesu treningu. Analizując kontekst podpowiedzi i swoje dotychczasowe nauki, ChatGPT generuje odpowiedź, która ma być jak najbardziej naturalna i spójna.

Jakie środki podjął Samsung, aby zapobiec przyszłym wyciekom?

Po wybuchu wycieku danych spowodowanego przez ChatGPT, Samsung podjął kilka kroków w celu zapobieżenia podobnym incydentom w przyszłości. Po pierwsze, firma zaleciła swoim pracownikom zachowanie ostrożności przy udostępnianiu danych ChatGPT. Wprowadzili także ograniczenie dotyczące długości zadawanych pytań w usłudze, ograniczając je do 1024 bajtów.

Ponadto, Samsung obecnie rozwija narzędzie AI podobne do ChatGPT, ale wyłącznie do wewnętrznego użytku pracowników. Zapewni to, że pracownicy fabryk otrzymają szybką pomoc, jednocześnie zabezpieczając poufne informacje firmowe. Do czasu opracowania tego narzędzia Samsung ostrzegał swoich pracowników o potencjalnych zagrożeniach związanych z korzystaniem z ChatGPT. Podkreślono również, że dane wprowadzone do ChatGPT są przesyłane i przechowywane na zewnętrznych serwerach, co uniemożliwia firmie kontrolowanie danych po ich przekazaniu.

Jakie były konsekwencje dla pracowników, którzy ujawnili poufne dane?

Konsekwencje dla pracowników Samsunga, którzy ujawnili poufne dane w ChatGPT, nie zostały jednoznacznie określone w dostępnych informacjach. Jednakże Samsung Electronics podejmuje działania mające na celu zapobieżenie dalszym wyciekom wrażliwych informacji za pośrednictwem ChatGPT, w tym nałożenie limitu 1024 bajtów na wielkość przesyłanych pytań. Firma ostrzegła również swoich pracowników przed potencjalnymi ryzykami korzystania z ChatGPT.

Co więcej, Samsung Semiconductor opracowuje własne narzędzie do sztucznej inteligencji przeznaczone do wewnętrznego użytku pracowników, które będzie ograniczone do przetwarzania poleceń o długości do 1024 bajtów. Te działania wskazują, że Samsung poważnie traktuje ochronę swoich poufnych informacji i wprowadza środki mające na celu łagodzenie ryzyka związanego z korzystaniem z ChatGPT.

Jakiego rodzaju poufne informacje zostały ujawnione?

Ile razy pracownicy Samsunga ujawnili poufne dane w ChatGPT?

Według wyników wyszukiwania pracownicy Samsunga przekazali poufne informacje firmie ChatGPT co najmniej trzy razy.

Powiązane artykuły

Więcej informacji >>

Odblokuj moc AI dzięki HIX.AI!