OpenAI, producenci ChatGPT, zobowiązują się do rozwoju bezpiecznych systemów AI

obraz1.png

OpenAI opublikował nowy wpis na blogu zobowiązujący się do opracowania sztucznej inteligencji (AI), która jest bezpieczna i szeroko korzystna.

ChatGPT, wspierane przez najnowszy model OpenAI - GPT-4, może zwiększyć produktywność, wzbogacić kreatywność i dostarczać spersonalizowane doświadczenia edukacyjne.

Jednak OpenAI uznaje, że narzędzia sztucznej inteligencji mają w sobie inherentne ryzyko, które musi być rozpatrzone poprzez zastosowanie środków bezpieczeństwa i odpowiedzialne wdrożenie.

Oto, co firma robi, aby łagodzić te ryzyka.

Zabezpieczanie systemów sztucznej inteligencji

OpenAI przeprowadza dogłębne testy, poszukuje zewnętrznego wsparcia od ekspertów i udoskonala modele AI przy pomocy opinii ludzi przed wprowadzeniem nowych systemów.

Rozpoczęcie GPT-4, na przykład, poprzedzone było ponad sześciomiesięcznym testowaniem, aby zapewnić jego bezpieczeństwo i dostosowanie do potrzeb użytkowników.

OpenAI uważa, że solidne systemy sztucznej inteligencji powinny być poddawane rygorystycznym ocenom bezpieczeństwa i popiera potrzebę regulacji.

Nauka na podstawie wykorzystania w praktyce

Rzeczywiste zastosowanie jest kluczowym elementem w rozwoju bezpiecznych systemów sztucznej inteligencji (AI). Poprzez ostrożne wprowadzenie nowych modeli dla stopniowo rosnącej grupy użytkowników, OpenAI może dokonywać ulepszeń, które rozwiązują nieprzewidziane problemy.

Dostarczając modele AI za pośrednictwem swojego interfejsu API i strony internetowej, OpenAI może monitorować nadużycia, podjąć odpowiednie działania i opracować subtelne polityki w celu zrównoważenia ryzyka.

Ochrona dzieci i szanowanie prywatności

OpenAI priorytetuje ochronę dzieci, wymagając weryfikacji wieku i zakazując korzystania z swojej technologii do generowania szkodliwej treści.

Prywatność to kolejny istotny aspekt pracy OpenAI. Organizacja wykorzystuje dane do sprawienia, że jej modele są bardziej pomocne, jednocześnie chroniąc użytkowników.

Ponadto, OpenAI usuwa dane osobowe z zestawów danych treningowych i dostosowuje modele do odrzucania żądań dotyczących danych osobowych.

OpenAI odpowie na prośby dotyczące usunięcia danych osobowych z systemów.

Poprawa dokładności faktów

Dokładność faktów jest istotnym celem OpenAI. GPT-4 ma 40% większe prawdopodobieństwo produkowania wiarygodnych treści niż jego poprzednik, GPT-3.5.

Organizacja stara się edukować użytkowników na temat ograniczeń narzędzi AI i możliwości niedokładności.

Kontynuowane badania i zaangażowanie

OpenAI wierzy w poświęcanie czasu i zasobów na badania skutecznych technik łagodzenia skutków oraz dopasowania.

Jednak samo to nie jest w stanie tego osiągnąć. Rozwiązanie problemów związanych z bezpieczeństwem wymaga szerokiej debaty, eksperymentów i zaangażowania wszystkich zainteresowanych stron.

OpenAI pozostaje zaangażowane w wspieranie współpracy i otwartego dialogu w celu stworzenia bezpiecznego ekosystemu SI.

Krytyka wobec ryzyka egzystencjalnego

Pomimo zaangażowania OpenAI w zapewnienie bezpieczeństwa swoich systemów AI i ogólnych korzyści, post na ich blogu wywołał krytykę na mediach społecznościowych.

Użytkownicy Twittera wyrazili swoje rozczarowanie, twierdząc, że OpenAI nie ma na celu zapewnienia bezpieczeństwa podczas rozwoju sztucznej inteligencji.

Jeden użytkownik Twittera wyraził swoje rozczarowanie, oskarżając OpenAI o zdradę swojej początkowej misji i skoncentrowanie się na nieodpowiedzialnej komercjalizacji.

Użytkownik sugeruje, że podejście OpenAI do bezpieczeństwa jest powierzchowne i bardziej zainteresowane uspokajaniem krytyków niż adresowaniem prawdziwych zagrożeń egzystencjalnych.

To jest gorzko rozczarowujące, pozbawione treści kalkulowanie PR.

Nawet nie wspominacie o istniejących zagrożeniach związanych z SI, które są głównym zmartwieniem wielu obywateli, technologów, badaczy SI i liderów branży SI, w tym waszego własnego CEO @sama. @OpenAI zdradza swoją...

— Geoffrey Miller (@primalpoly) 5 kwietnia 2023

Inny użytkownik wyraził niezadowolenie z ogłoszenia, argumentując, że pomija ono rzeczywiste problemy i pozostaje niejasne. Użytkownik również zwraca uwagę, że raport pomija istotne kwestie etyczne i ryzyka związane z samoświadomością sztucznej inteligencji, co sugeruje, że podejście OpenAI do problemów związanych z bezpieczeństwem jest niewystarczające.

Jako fan GPT-4 jestem rozczarowany twoim artykułem.

Przebiega po poważnych problemach, jest niejasny i ignoruje kluczowe kwestie etyczne i zagrożenia związane z samoświadomością sztucznej inteligencji.

Doceniam innowację, ale to nie jest właściwe podejście do rozwiązania problemów związanych z bezpieczeństwem.

— FrankyLabs (@FrankyLabs) 5 kwietnia 2023

Krytyka podkreśla szersze obawy i trwającą debatę na temat ryzyka istotnych dla istnienia związanych z rozwojem sztucznej inteligencji.

Podczas ogłoszenia OpenAI zgłosiło swoje zaangażowanie w bezpieczeństwo, prywatność i dokładność, ale konieczne jest uświadomienie sobie potrzeby dalszej dyskusji w celu rozwiązania poważniejszych problemów.

Powiązane artykuły

Więcej informacji >>

Odblokuj moc AI dzięki HIX.AI!