LinkedIn, popularna platforma społecznościowa skierowana do profesjonalistów, znalazła się w centrum uwagi po doniesieniach o wykorzystywaniu danych użytkowników do szkolenia swoich modeli sztucznej inteligencji (AI). Sprawa wywołała kontrowersje szczególnie w USA, gdzie użytkownicy dowiedzieli się o praktykach firmy dopiero po fakcie, co wywołało pytania o transparentność i ochronę prywatności danych.
Dane użytkowników do szkolenia AI
Zgodnie z raportem opublikowanym przez 404 Media, LinkedIn wykorzystywał dane osobowe użytkowników w Stanach Zjednoczonych do rozwijania swoich modeli AI, które mogą być używane m.in. do generowania treści. Choć platforma dała użytkownikom możliwość rezygnacji z udziału w tego rodzaju procesach, problemem okazał się moment wprowadzenia tej opcji. Użytkownicy dostali możliwość wycofania zgody z opóźnieniem, kiedy ich dane mogły być już użyte. To wzbudziło obawy, że firma zbyt późno poinformowała o tej opcji, co stawia pod znakiem zapytania zgodność z najlepszymi praktykami w zakresie ochrony prywatności.
Wprowadzenie opcji wycofania zgody dotyczy jedynie użytkowników LinkedIn w Stanach Zjednoczonych. Użytkownicy z Europy, Europejskiego Obszaru Gospodarczego (EOG) oraz Szwajcarii nie są objęci tym mechanizmem, co najprawdopodobniej jest efektem restrykcyjnych przepisów dotyczących ochrony danych osobowych, takich jak RODO. Przepisy te zobowiązują firmy działające na tych rynkach do przestrzegania surowych zasad dotyczących przetwarzania danych.
Opóźnione zmiany w polityce prywatności
Polityka prywatności LinkedIn uległa zmianie, ale – jak podkreśla 404 Media – zostało to zrobione zbyt późno, co dla wielu użytkowników mogło oznaczać brak realnej możliwości decyzji o udziale w procesie szkolenia AI. Zgodnie z najlepszymi praktykami, użytkownicy powinni być informowani o zmianach w polityce prywatności z odpowiednim wyprzedzeniem, aby mieli czas na podjęcie decyzji, czy zgadzają się na nowe warunki, czy też wolą zrezygnować z korzystania z platformy.
LinkedIn wyjaśnia na swojej stronie pomocy, dlaczego wykorzystuje dane użytkowników do szkolenia swoich modeli AI. Firma przekonuje, że dane te są używane do ulepszania usług i dostarczania bardziej spersonalizowanych rozwiązań, takich jak automatyczne generowanie treści. Jednocześnie LinkedIn zapewnia, że użytkownicy mogą w dowolnym momencie zrezygnować z udostępniania swoich danych na potrzeby szkolenia AI, korzystając z odpowiedniego przełącznika w ustawieniach.
Problemy z transparentnością
Sytuacja z LinkedIn zwraca uwagę na rosnący problem braku transparentności w zakresie wykorzystania danych osobowych w procesach szkolenia AI. Wiele firm technologicznych zbiera ogromne ilości danych, aby rozwijać swoje algorytmy, ale nie zawsze jasno informuje użytkowników o tym, w jaki sposób ich dane są wykorzystywane. Opóźnione zmiany w politykach prywatności, jak w przypadku LinkedIn, mogą podważać zaufanie użytkowników do platform, które z jednej strony oferują profesjonalne narzędzia, ale z drugiej nie dostarczają wystarczających informacji o przetwarzaniu ich danych.
Choć LinkedIn zapewnia, że użytkownicy mogą zrezygnować z udziału w szkoleniu modeli AI, sprawa wzbudza pytania o etykę i odpowiedzialność firm technologicznych w zakresie ochrony danych osobowych. Opóźnione zmiany w polityce prywatności i brak jasnej komunikacji z użytkownikami to sygnały, że firmy muszą bardziej skoncentrować się na transparentności i przestrzeganiu zasad ochrony prywatności. W szczególności w obliczu coraz powszechniejszego stosowania sztucznej inteligencji, kwestie te będą zyskiwały na znaczeniu, zarówno dla użytkowników, jak i dla firm starających się zdobyć ich zaufanie.