Ad image

OpenAI vs. Scarlett Johansson – o zaufaniu do AI tworzonej przez firmę, której (już) nie ufamy

W reakcji na szerokie kontrowersje i interwencję prawną Scarlett Johansson, OpenAI postanowiło wycofać jeden ze swoich głosów AI, który użytkownicy uznali za zbyt podobny do głosu znanej aktorki.

Natalia Zębacka - Redaktor Brandsit 2 Min Read

OpenAI zdecydowało się na wycofanie jednego ze swoich głosów AI, znanego jako Sky, po tym jak użytkownicy i sama Scarlett Johansson zauważyli, że jego brzmienie przypomina głos aktorki. Kontrowersja wzbudziła szeroką dyskusję na temat etyki w dziedzinie technologii AI i ochrony prywatności.

Głos Sky został zaprezentowany podczas ubiegłotygodniowej demonstracji najnowszego modelu OpenAI, GPT-4o, i szybko stał się tematem rozmów na mediach społecznościowych. Użytkownicy porównywali jego zalotny ton do roli Johansson w filmie z 2013 roku “Ona”, gdzie aktorka podkłada głos komputerowemu asystentowi o zmysłowej aurze.

W odpowiedzi na rosnącą krytykę, OpenAI wydało oświadczenie na swoim blogu, zapewniając, że głos Sky nie był celową imitacją żadnego znanego głosu celebryty, a należał do innej profesjonalnej aktorki. Firma podkreśliła również swoje zaangażowanie w niekopiowanie charakterystycznych głosów celebrytów i ochronę prywatności swoich talentów głosowych.

Scarlett Johansson w swoim oświadczeniu publicznym wyraziła zdziwienie i oburzenie po usłyszeniu dema. Aktorka ujawniła, że odrzuciła propozycję OpenAI dotyczącą użyczenia jej głosu w systemach firmy z osobistych powodów już we wrześniu. Po wydaniu dema zmuszona była zatrudnić radcę prawnego, aby zbadać, jak został opracowany głos Sky.

Sam Altman, dyrektor generalny OpenAI, nieformalnie odniósł się do sprawy, tweetując słowo “Ona” po wydarzeniu, co mogło być nawiązaniem do wspomnianego filmu. Johansson zareagowała, stwierdzając, że była zszokowana, gdy usłyszała głos przypominający jej własny i że nie spodziewała się, iż firma podejmie kroki w kierunku takiego podobieństwa.

Na skutek tych działań, OpenAI postanowiło przerwać używanie głosu Sky w swoich produktach, przeprosiło Johansson za brak lepszej komunikacji i zapowiedziało wprowadzenie dodatkowych głosów do ChatGPT, które mają lepiej odpowiadać na różnorodne zainteresowania i preferencje użytkowników.

Kontrowersja ta rzuca światło na rosnące obawy dotyczące technologii deepfake, klonowania głosu i ochrony tożsamości w erze cyfrowej, podkreślając potrzebę jasnych regulacji prawnych w tej nowej i dynamicznie rozwijającej się dziedzinie.