Komisja Europejska ogłosiła listę ponad 100 przedsiębiorstw, które jako pierwsze zdecydowały się podpisać unijny pakt na rzecz sztucznej inteligencji (AI). Dokument ten jest inicjatywą, która ma na celu wzmocnienie współpracy między różnymi podmiotami z sektora prywatnego, a także z organizacjami społecznymi i akademickimi, w ramach działań związanych z wdrażaniem zasad aktu w sprawie sztucznej inteligencji. Pakt, choć oparty na dobrowolnych zobowiązaniach, stanowi ważny krok w kierunku ustanowienia wytycznych i standardów dla rozwoju oraz stosowania technologii AI w Europie.
Wczesne przyjęcie zasad unijnego aktu o AI
Celem paktu jest przyspieszenie stosowania zasad aktu w sprawie sztucznej inteligencji, który wszedł w życie 1 sierpnia 2024 r. Choć pełne wdrożenie nowych regulacji zajmie do dwóch lat, Komisja Europejska zachęca firmy do dobrowolnego wdrażania kluczowych zasad już teraz. Wśród sygnatariuszy znalazły się zarówno duże korporacje międzynarodowe, jak i europejskie małe i średnie przedsiębiorstwa (MŚP) z różnych sektorów gospodarki, w tym IT, telekomunikacji, opieki zdrowotnej, bankowości, przemysłu motoryzacyjnego i aeronautycznego.
Firmy te zobowiązały się do przestrzegania zasad regulujących rozwój i stosowanie sztucznej inteligencji, które mają na celu minimalizowanie ryzyk związanych z tą technologią oraz zapewnienie zgodności z przyszłymi przepisami. W komunikacie Komisji Europejskiej podkreślono, że sygnatariusze paktu mają działać w duchu współpracy z Urzędem UE ds. Sztucznej Inteligencji, który odgrywa kluczową rolę w koordynacji działań związanych z wdrażaniem nowych regulacji.
Trzy podstawowe zobowiązania firm
W ramach paktu firmy zobowiązały się do realizacji co najmniej trzech podstawowych działań:
- Strategia zarządzania sztuczną inteligencją – sygnatariusze mają opracować i wdrażać strategie wspierające wykorzystanie sztucznej inteligencji w organizacjach, jednocześnie dążąc do zgodności z przepisami aktu w sprawie AI.
- Mapowanie systemów wysokiego ryzyka – przedsiębiorstwa muszą zidentyfikować i ocenić, które systemy AI w ich strukturach mogą zostać sklasyfikowane jako wysokiego ryzyka według nowych unijnych regulacji. Jest to kluczowy element przygotowań do nadchodzących wymogów prawnych.
- Promowanie umiejętności i świadomości AI – firmy zobowiązują się do promowania odpowiedzialnego rozwoju AI w swoich strukturach, dbając o edukację pracowników oraz zapewnienie etycznych i odpowiedzialnych standardów w rozwoju tej technologii.
Dodatkowe zobowiązania na rzecz etycznego rozwoju AI
Oprócz podstawowych wymagań, ponad połowa sygnatariuszy paktu zdecydowała się na przyjęcie dodatkowych zobowiązań. Obejmują one m.in. nadzór człowieka nad systemami AI, ograniczanie ryzyk wynikających z technologii oraz przejrzyste oznaczanie treści generowanych przez AI, w szczególności w przypadku deepfake’ów. Transparentność w zakresie treści generowanych przez sztuczną inteligencję staje się coraz bardziej istotna, zwłaszcza w kontekście rosnących obaw o dezinformację i manipulację opinią publiczną.
Firmy mają również możliwość dołączania do paktu w dowolnym momencie przed pełnym wdrożeniem aktu w sprawie sztucznej inteligencji. Proces ten ma na celu zapewnienie, że przedsiębiorstwa będą miały wystarczająco dużo czasu na dostosowanie swoich procesów i systemów do nowych przepisów, które zaczną obowiązywać w pełnym zakresie w ciągu najbliższych dwóch lat.
Pełne wdrożenie aktu w sprawie AI
Akt w sprawie sztucznej inteligencji wszedł w życie 1 sierpnia 2024 r., jednak jego pełne stosowanie zajmie kilka lat. Przepisy zostały podzielone na etapy wdrożeniowe: zakazy dotyczące niektórych form AI wejdą w życie po sześciu miesiącach, zasady dotyczące modeli ogólnego przeznaczenia będą obowiązywać po 12 miesiącach, a przepisy dotyczące AI wbudowanych w produkty regulowane – po 36 miesiącach.
To stopniowe wdrażanie ma na celu umożliwienie przedsiębiorstwom i organom regulacyjnym adaptację do nowych standardów, co jest szczególnie istotne w dynamicznie rozwijającym się sektorze sztucznej inteligencji. Dzięki unijnemu paktowi na rzecz AI, Europa chce wyznaczać globalne standardy etyczne i technologiczne, jednocześnie wspierając innowacje i rozwój odpowiedzialnej sztucznej inteligencji.
Komisja Europejska, promując pakt na rzecz sztucznej inteligencji, zachęca przedsiębiorstwa do wcześniejszego przygotowania się na wdrożenie nowych regulacji, które mają na celu nie tylko zapewnienie bezpieczeństwa i transparentności technologii AI, ale również promowanie jej etycznego i odpowiedzialnego rozwoju. To kluczowy krok w budowaniu zaufania do sztucznej inteligencji w Europie oraz przygotowania sektora przemysłowego do funkcjonowania w zmieniającym się otoczeniu regulacyjnym.