13 grudnia 2023

AI Act: Pierwsze na świecie kompleksowe ramy prawne dla sztucznej inteligencji

W UE osiągnięto porozumienie w sprawie AI Act – rozporządzenia, które po raz pierwszy określi ramy prawne dla sztucznej inteligencji. W czasach, w których sztuczna inteligencja może dotrzeć właściwie wszędzie, kontrolowany rozwój i wykorzystywanie najnowszych technologii jest ważne. Dlatego AI Act to krok we właściwym kierunku. Pytanie jednak, czy AI Act faktycznie pomoże utrzymać w ryzach ten szaleńczy bieg technologii? Odpowiedź wcale nie jest oczywista.

Problem nadążania nad rozwojem sztucznej inteligencji
Zastanówmy się przez chwilę, jak powinniśmy definiować obecnie sztuczną inteligencję. Na to pytanie prawdopodobnie odpowiedzi byłoby wiele i część z nich mogłaby mieć jakiś wspólny mianownik. O ile czytelnicy i obserwatorzy mogą próbować odpowiedzieć na to pytanie „po swojemu”, o tyle europejscy politycy nie mogą pozwolić sobie już na taką swobodę. Definiowanie sztucznej inteligencji w AI Act było niewątpliwie jednym z największych wyzwań. Dyskusja stanęła na możliwie wąskim ujęciu systemu sztucznej inteligencji i wykazie konkretnych technik i podejść stosowanych przy jego opracowywaniu. Twórcom projektu AI Act zależało na tym, by definicja pozostała w jak największym stopniu neutralna technologicznie i nie ulegała dezaktualizacji. W zasadzie nie jesteśmy jednak w stanie stwierdzić dzisiaj, czy AI Act i definicja sztucznej inteligencji będą adekwatne do praktyki choćby za rok czy dwa lata. Czas biegnie nieubłaganie, a prawu nie jest łatwo nadążyć nad coraz to bardziej rozwiniętymi technologiami AI.

Kogo obejmie AI Act i jakie regulacje zawiera
AI Act określi zharmonizowane przepisy dotyczące wprowadzania do obrotu, oddawania do użytku i wykorzystywania systemów sztucznej inteligencji w UE. To stanowić będzie absolutny trzon rozporządzenia. AI Act wprowadzi również m.in. kontrowersyjne zakazy dotyczące określonych praktyk w zakresie sztucznej inteligencji, a także wymogi co do przejrzystości i kategoryzacji ryzyka systemów sztucznej inteligencji. AI Act znajdzie zastosowanie przede wszystkim do dostawców i operatorów systemów sztucznej inteligencji – niezależnie od tego, czy mają swoją siedzibę w UE czy poza nią, a nawet użytkowników. UE obrała strategię horyzontalną i chce, by AI Act regulowało każde zastosowanie sztucznej inteligencji na jej terenie. Kolokwialnie mówiąc obejmie swoimi ramami wszystkich i wszystko.

Kategoryzacja ryzyka dla sztucznej inteligencji
AI Act wprowadzi kategorie ryzyka dla systemów sztucznej inteligencji. Według oznaczonych kryteriów określi minimalne, wysokie i niedopuszczalne ryzyko. Do pierwszej kategorii docelowo ma należeć zdecydowana większość systemów sztucznej inteligencji. Minimalne ryzyko ma być uwarunkowanie brakiem powiązania systemów z wpływem na bezpieczeństwo ludzi.
Zaliczenie systemu do kategorii wysokiego ryzyka będzie skutkowało obowiązkiem zastosowania rygorystycznych wymogów, w tym m.in. ograniczania ryzyka, zbiorów danych wysokiej jakości, jasnych informacji dla użytkowników, wysokiego poziomu solidności, dokładności i cyberbezpieczeństwa. Do systemów wysokiego ryzyka zaliczane będą systemy dotyczące np. obsługi infrastruktury krytycznej, identyfikacji biometrycznej osób fizycznych, zatrudniania i zarządzania pracownikami i egzekwowania prawa przez organy państwa.
Całkowicie zakazane zostaną systemy zaliczone do kategorii niedopuszczalnego ryzyka. Do takich zakazanych praktyk AI Act zakwalifikuje m.in. manipulację ludźmi, scoring użytkowników, systemy kategoryzacji biometrycznej działające na podstawie danych wrażliwych lub chronionych.

Kontrowersji nie brakowało
Podczas negocjowania treści AI Act wiele wątków budziło sporo emocji. Rozporządzenie musiało przecież być konstruowane tak, by wyważyć interesy przedsiębiorców, organów administracji publicznej i przede wszystkim – obywateli. Burzę wywoływały kwestie praw podstawowych ludzi, bezpieczeństwa danych osobowych, używania nowych technologii dla korzyści przedsiębiorców. Z jednej strony przecież nikt w UE nie chce blokować rozwoju sztucznej inteligencji jako nowej technologii, z drugiej natomiast nikt nie zgodzi się na to, by ten rozwój następował kosztem szkód dla praw każdego człowieka. Istotę tych emocji może podkreślić wspomnienie, że ostatnie posiedzenie tzw. trilogi, czyli tajnego spotkania między reprezentantami Parlamentu, Rady i Komisji Europejskiej trwało ponad 36 godzin. Najwięcej punktów spornych znalazło się przy dyskusji na temat najpopularniejszych modeli sztucznej inteligencji takich jak GPT, Bard, Gemini.

AI Act – brzmi dobrze, oby nie zawiódł
Oczywiście w przypadku tak obszernego tematu jak sztuczna inteligencja nie można stwierdzić, że wypracowane rozwiązania z pewnością będą skutecznym narzędziem na lata. Batalia o dobro Europejczyków na pewno nie została jeszcze zakończona. Wiele NGO-sów nadal zapowiada kontrolę i lobbowanie zagwarantowania ochrony dla praw człowieka przy korzystaniu ze sztucznej inteligencji. Reprezentanci biznesu z kolei oczekują zoptymalizowania ram prawnych w taki sposób, by umożliwić prowadzenie łatwych inwestycji.
Choć opanowanie świata przez sztuczną inteligencję pozostaje na razie nadal tylko scenariuszem do filmu science fiction, próbę regulowania wykorzystania najnowszych technologii trzeba ocenić pozytywnie.