Rynek GAI (Generative AI) – wyszkolonej na dużych zbiorach danych sztucznej inteligencji – do 2030 roku będzie rósł w tempie 34 proc. rok do roku, osiągając wartość 110 mld USD. Eksperci SAS przypominają, jakie zagrożenia wiążą się z nieodpowiednim wykorzystaniem technologii tworzącej treści audiowizualne, graficzne i tekstowe, uświadamiając biznes, rządy i instytucje międzynarodowe, dlaczego stworzenie ram regulujących etyczne wykorzystanie danych powinno być priorytetem.
Dane pod kontrolą
Etyka danych jest szczególnie istotna jeśli weźmie się pod uwagę ilość informacji przetwarzanych przez algorytmy. Wg McKinsey & Company model GPT-3 został wytrenowany na około 45 terabajtach danych tekstowych. To około 30 kilometrów powierzchni półek z książkami lub równowartość półtora wszystkich zbiorów Biblioteki Uniwersyteckiej w Warszawie. Jednak trzeba mieć świadomość, skąd pochodzą treści, na podstawie których działają algorytmy. Firmy gromadzą je ze zróżnicowanych źródeł, systemów i dostawców. W tym celu tworzone są tzw. jeziora danych (ang. data lakes), aby przechowywać informacje o klientach i ich zachowaniach. Terabajty danych konsumenckich kryją w sobie ogromny potencjał, zwłaszcza przy wykorzystaniu odpowiedniej technologii do odkrywania wzorców, zależności i ich analizy. Dlatego potrzebne jest etyczne podejście do tworzenia algorytmów, tak aby dane te mogły zostać użyte tylko w sposób niosący korzyści dla społeczeństwa.
Jasne zasady i regulacje
Zdaniem ekspertów SAS polityka i regulacje związane z AI powinny skupiać się na danych, które leżą u podstaw algorytmów. Kluczowe jest, aby firmy budujące innowacje oparte na sztucznej inteligencji zadbały o ich etyczne gromadzenie oraz wykorzystanie. Organizacje powinny kierować się jasnymi zasadami w tym obszarze. Należy też zwrócić uwagę na konieczność zróżnicowania przepisów. Branże silnie regulowane – takie jak usługi finansowe czy opieka zdrowotna – mają inne priorytety w zakresie przetwarzania i ochrony posiadanych danych. Przykładowo, w bankowości podstawowym celem nie tylko ze względów etycznych, ale i biznesowych będzie zapobieganie wyłudzeniom oraz uniknięcie dyskryminacji klientów.
Stworzenie jednakowych ram i regulacji wymaga jednak wspólnego wysiłku twórców i użytkowników AI, a także decydentów, naukowców, badaczy i organizacji społecznych. Firma SAS proponuje rozważenie modelu opartego na zasadach humanocentryczności, przejrzystości, prywatności, bezpieczeństwa, inkluzyjności i odpowiedzialności jako punkt wyjścia dla odpowiedzialnego wykorzystania rozwiązań Generative AI.