Ad image

Naukowcy z OpenAI domagają się większej ochrony dla sygnalistów w branży AI

W otwartym liście eksperci z OpenAI oraz innych organizacji alarmują o zagrożeniach związanych z rozwijającymi się technologiami sztucznej inteligencji i apelują o nowe zasady ochrony sygnalistów.

Izabela Myszkowska - Redaktor Brandsit

W nowo opublikowanym otwartym liście grupa naukowców związanych z branżą sztucznej inteligencji, w tym byli pracownicy znanej firmy OpenAI, zwraca uwagę na niewystarczającą ochronę osób, które decydują się zgłaszać potencjalne zagrożenia związane z technologiami AI. Zjawisko to dotyka szczególnie pracowników firm technologicznych, którzy napotykają na prawne i etyczne bariery w swobodnym dzieleniu się swoimi obawami.

Jak wynika z listu, obecne przepisy chroniące sygnalistów są niewystarczające, szczególnie w kontekście dynamicznie rozwijających się technologii. Naukowcy podkreślają, że zdarzały się przypadki odwetów, w tym zwolnienia, jak w przypadku Leopolda Aschenbrennera, byłego badacza OpenAI. Aschenbrenner stwierdził w “Dwarkesh Podcast“, że został zwolniony po wyrażeniu obaw związanych z bezpieczeństwem AI w zarządzie firmy.

W odpowiedzi na te obawy, autorzy listu zaproponowali cztery główne zasady, które powinny być stosowane przez firmy rozwijające technologie AI. Wśród nich znajduje się m.in. mechanizm umożliwiający pracownikom anonimowe zgłaszanie problemów zarządom firm oraz odpowiednim organom regulacyjnym. Wzywają również do eliminacji klauzul zakazujących pracownikom wygłaszania negatywnych opinii o pracodawcach, co ma zapewnić większą transparentność i bezpieczeństwo publiczne.

Sprawa dotyczy nie tylko pracowników OpenAI, ale i innych firm technologicznych, jak Google DeepMind. OpenAI, uznawane za jednego z pionierów w dziedzinie AI, znalazło się pod szczególnym nadzorem po niedawnych kontrowersjach związanych z wewnętrznymi procedurami i bezpieczeństwem technologicznym.

Sam Altman, szef OpenAI, po kontrowersjach związanych z zarzutami dotyczącymi klauzul w umowach pracowniczych, przeprosił za nieświadome zastosowanie takiej klauzuli i zadeklarował jej usunięcie, twierdząc jednocześnie, że nigdy nie była ona stosowana.

Ostatnio firma znalazła się w ogniu krytyki również z powodu kontrowersji związanej z głosem używanym przez ChatGPT, który przypominał głos znanej aktorki Scarlett Johansson, co wywołało pytania o etykę wykorzystywania danych biometrycznych bez zgody.

W kontekście rosnących obaw dotyczących AI, rządy na całym świecie rozpoczynają prace nad zasadami regulującymi rozwój i implementację tych technologii, starając się nadążyć za szybkim postępem i jego potencjalnymi zagrożeniami dla społeczeństwa.

Zostaw komentarz

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *