Burzliwa relacja sztucznej inteligencji i prywatności – Google ostrzega “Nie udostępniaj poufnych danych Gemini”

Premiera chatbota Gemini przez Google stanowi kolejny kamień milowy w rozwoju sztucznej inteligencji, oferując użytkownikom nowe, rozszerzone możliwości. Jednak wraz z postępem technologicznym nasilają się obawy dotyczące prywatności danych osobowych.

Izabela Myszkowska
Izabela Myszkowska - Redaktor Brandsit
3 min

Ostatnia transformacja chatbota AI Google, Barda, w Gemini stanowi znaczący postęp w dziedzinie sztucznej inteligencji. Jak zapowiedział Google w zeszłym tygodniu, nowo nazwany Gemini obiecuje rozszerzone możliwości, w tym zdolność generowania obrazów za pomocą modelu Imagen. Jednak ten skok technologiczny niesie za sobą warunki związane z prywatnością, które wymagają od użytkowników czujności.

Prywatność danych w epoce chatbotów AI

W instrukcji obsługi Gemini, jak podaje Search Engine Journal, Google wyraźnie ostrzega użytkowników przed udostępnianiem danych osobowych. Powód jest jasny: rozmowy z Gemini nie są ograniczone do użytkownika i AI. Google zbiera rozmowy, dane o użyciu, informacje o lokalizacji i opinie, aby ulepszać i rozwijać swoje produkty, usługi i technologie uczenia maszynowego. Może się to wydawać standardową praktyką dla ulepszania modeli AI, ale implikacje dla prywatności są głębokie.

Gemini nie zachowuje tajemnic. Nie tylko modele uczenia maszynowego mają dostęp do twoich interakcji, ale również pracownicy Google mogą przeglądać twoje rozmowy. Mogą być one śledzone i ponownie czytane przez ludzi przez okres do trzech lat, rzekomo w celu doskonalenia modeli AI. Biorąc pod uwagę, że historia Gemini jest powiązana z twoim kontem Google, regulacja ustawień aktywności nie oferuje ochrony prywatności. Rada Google jest jasna: „Nie wprowadzaj niczego, czego nie chciałbyś, aby człowiek widział lub Google używał”.

Użytkownicy mają możliwość zrezygnowania z przechowywania historii, jednak nawet wtedy ich dane mogą pozostać na serwerach Google przez maksymalnie 72 godziny. Dostęp stron trzecich do danych jest ograniczony, chyba że użytkownicy wyraźnie zezwolą na to w ustawieniach. Ta subtelna równowaga między innowacją AI a prywatnością podkreśla wyzwania na przecięciu generatywnej AI i ochrony danych osobowych.

- Advertisement -

AI i prywatność: niewygodne współistnienie

To nie pierwszy raz, gdy nienasycone zapotrzebowanie AI na dane koliduje z obawami o prywatność. Konkurent Gemini, ChatGPT od OpenAI, również był wielokrotnie krytykowany za sposób obchodzenia się z danymi osobowymi. Mimo to OpenAI rozszerza pamięć chatbota, co jeszcze bardziej zaostrza debatę nad prywatnością danych.

Rozwój generatywnej AI, takiej jak Gemini, wymaga ogromnych ilości danych do nauki i doskonalenia. Najlepsze źródło tych danych pochodzi z interakcji z użytkownikami, co stwarza dylemat dla postępu w technologii AI przy jednoczesnej ochronie informacji osobistych.

Nawigacja w przyszłość

Idąc naprzód, wyzwaniem dla gigantów technologicznych takich jak Google i innowatorów AI będzie znalezienie równowagi, która szanuje prywatność użytkowników, jednocześnie wykorzystując moc AI do postępu. Transparentność w ostrzeżeniu Google’a dotyczącym Gemini jest krokiem we właściwym kierunku, ale jednocześnie podkreśla istotne kompromisy prywatności w użyciu technologii generatywnej AI.

Udostępnij
- REKLAMA -