Unijne rozporządzenie ureguluje zasady korzystania ze sztucznej inteligencji

Prawo w marketingu
   Tematy poruszane w tym artykule  
  • Jakie są kluczowe założenia AI Act dotyczącego sztucznej inteligencji?
  • Czy AI Act obejmuje również osoby korzystające z systemów AI w celach prywatnych?
  • Jakie systemy AI są uznawane za nieakceptowalne według AI Act?
  • Jakie kary grożą za naruszenie przepisów zawartych w AI Act?
  • Jakie instytucje powołano do nadzorowania AI Act?
  • Jakie przepisy wejdą w życie jako pierwsze po zatwierdzeniu AI Act?
  • Jakie są główne kontrowersje związane z regulacją sztucznej inteligencji?
  • 21 maja 2024 r. Rada Unii Europejskiej zatwierdziła rozporządzenie znane pod nazwą „AI Act”. To pierwszy na świecie akt prawny kompleksowo regulujący zagadnienie sztucznej inteligencji. Jego przepisy mają szczególne znaczenie zarówno dla przedsiębiorców działających w branży IT, jak i dla podmiotów korzystających z systemów sztucznej inteligencji w ramach swojej działalności profesjonalnej.

    AI Act – pierwszy na świecie akt prawny regulujący sztuczną inteligencję w UE

    Jednym z najpopularniejszych tematów medialnych ostatnich miesięcy jest relacja między sztuczną inteligencją a rozmaitymi sferami codziennego życia. Wśród wielu poruszanych publicznie zagadnień z tego obszaru jest kwestia tzw. AI Act, czyli pierwszego na świecie aktu prawnego kompleksowo regulującego korzystanie ze sztucznej inteligencji. Jest to unijne rozporządzenie, którego tekst od wielu miesięcy był przedmiotem uzgodnień. Finalnie rozporządzenie zostało zatwierdzone przez Parlament Europejski 13 marca 2024 r. oraz przez Radę UE – 21 maja tego roku. Oznacza to, że AI Act już niebawem wejdzie w życie – tj. 20 dni po jego publikacji w Dzienniku Urzędowym UE. Przy tym część przepisów stanie się wiążąca po upływie 6 miesięcy od wejścia rozporządzenia w życie, a kolejne będą sukcesywnie wprowadzane. W całości przepisy zaczną obowiązywać wraz z końcem 2030 r.

    POLECAMY

    Jako rozporządzenie AI Act będzie stosowany bezpośrednio przez państwa członkowskie UE, dlatego już teraz warto zapoznać się z kluczowymi kwestiami, które reguluje.

    Czego i kogo dotyczy AI Act?

    Ujmując generalnie, AI Act jest adresowany do osób tworzących i wprowadzających na unijny rynek systemy sztucznej inteligencji. Rozporządzenie na samym wstępie definiuje „system AI”, będący przedmiotem regulacji. W dość rozbudowanej i pojemnej definicji podkreśla się, iż jest to system oparty na działaniu maszyny, który może wykazywać autonomię i generuje określone treści. Rozporządzenie wprowadza również pojęcia „dostawcy” (provider) oraz „wdrażającego” (deployer) – i to przede wszystkim w odniesieniu do ich praw lub obowiązków kształtowane są przepisy tego aktu. „Dostawca” to osoba (może to być również osoba prawna czy instytucja publiczna), która – ujmując ogólnie – rozwija system AI i wprowadza go na rynek. Z kolei „wdrażający” (deployer) to użytkownik systemu, z wyjątkiem tych, którzy korzystają ze sztucznej inteligencji w celach prywatnych, a nie zawodowych. Rozporządzenie stosuje się również do importerów, czy autoryzowanych przedstawicieli dostawców mających siedzibę poza terytorium Unii. 

    Kluczowe obszary regulacji

    Rozporządzenie opiera się na kilku podstawowych założeniach, których konsekwencją są określone regulacje. Pierwszym z założeń, i zdecydowanie najważniejszym, jest przyjęcie, że korzystanie ze sztucznej inteligencji może powodować ryzyko (związane z powstaniem ogólnie pojętej szkody) o różnym natężeniu. W zależności od stopnia ryzyka można rozróżnić jego cztery rodzaje, mianowicie: nieakceptowalne, wysokie, ograniczone oraz minimalne. Systemy stwarzające ryzyko nieakceptowalne będą, rzecz jasna, zakazane. 

    Wyrazem tego założenia jest art. 5 Rozporządzenia, który wylicza niedozwolone systemy AI. Przykładowo należą do nich systemy tworzące bazy wizerunków czy też służące do wnioskowania o emocjach osoby fizycznej, stosowane w miejscu pracy lub w instytucji edukacyjnej, a także systemy klasyfikujące osoby fizyczne na podstawie ich danych biometrycznych, w celu wyciągnięcia wniosków o określonych aspektach życia prywatnego (np. poglądów politycznych) jednostek. Systemy cechujące się mniejszym ryzykiem, tj. spełniające kryteria tzw. systemów wysokiego ryzyka są natomiast dozwolone, jednak przy spełnieniu kryteriów wskazanych w treści rozporządzenia.

    Kolejnym założeniem jest transparentność modeli generatywnych sztucznej inteligencji. Innymi słowy, zanim zostaną wprowadzone na rynek określone systemy, powinny one spełnić pewne określone standardy. Dotyczy to systemów, które mogą mieć potencjalnie duży wpływ na społeczeństwo. 

    U podstaw AI Act stoi także ochrona praw podstawowych. W związku z tym wprowadzono do treści rozporządzenia – konkretnie art. 27 – obowiązek przeprowadzenia oceny wpływu systemów wysokiego ryzyka na te prawa. Ocena ta powinna być dokonywana przez podmioty świadczące usługi użyteczności publicznej. 

    Naruszenie obowiązków wprowadzonych rozporządzeniem

    Niewywiązywanie się z obowiązków nałożonych przez AI Act przez właściwe jednostki będzie skutkowało odpowiedzialnością finansową. Przykładowo, stosowanie wspomnianych wyżej systemów AI cechujących się nieakceptowalnym ryzykiem, wskazanych we wspomnianym już art. 5 Rozporządzenia, może skutkować nałożeniem kary w wysokości 35 mln euro lub – w przypadku, gdy naruszającym postanowienie jest spółka – do 7% całkowitego obrotu tej spółki na całym świecie, w danym roku finansowym.

    Biuro i Rada ds. Sztucznej Inteligencji

    AI Act przewiduje także powołanie do życia instytucji w postaci Biura oraz Rady ds. Sztucznej Inteligencji. Zadania Biura związane będą z nadzorem nad określonymi systemami AI, wypracowywaniem standardów, a także nadzorowaniem przestrzegania przepisów. Biuro – zgodnie z art. 64 Rozporządzenia – ma działać w ramach Komisji Europejskiej.

    Rada ds. Sztucznej Inteligencji została natomiast ustanowiona art. 65 AI Act, zgodnie z którym ma ona składać się z przedstawicieli państw członkowskich. Jej zadaniem będzie przede wszystkim doradzanie Komisji.

    Wejście w życie poszczególnych przepisów

    Warto wspomnieć, że przepisy dotyczące systemów generujących nieakceptowalne ryzyko wejdą w życie najszybciej, mianowicie w terminie sześciu miesięcy od momentu wejścia w życie AI Act. Natomiast określone standardy wiążące się z korzystaniem z systemów wysokiego ryzyka, będą musiały zostać wprowadzone przez podmioty korzystające z tych systemów w terminie 24 miesięcy od momentu wejścia rozporządzenia w życie. 

    Ocena nowej regulacji

    Ogólnie rzecz biorąc, uregulowanie zasad dotyczących systemów sztucznej inteligencji zasługuje na aprobatę. Biorąc pod uwagę coraz powszechniejszą dostępność takich systemów, przy ich jednocześnie rosnącym wpływie na społeczeństwa oraz jednostki, powstanie regulacji prawnej, która będzie eliminowała ryzyko związane z korzystaniem ze sztucznej inteligencji jest pożądane. Z drugiej strony, aktualnie wypracowany tekst AI Act jest także przedmiotem krytyki. Zarzuca się mu m.in. wprowadzenie znacznej liczby wyjątków od podstawowych zasad, co czyni ten akt prawny niejako „dziurawym”. Wskazuje się też na możliwość obejścia przepisów. 

    Jakkolwiek by było, nie ulega wątpliwości, że korzystanie ze sztucznej inteligencji wymaga interwencji ustawodawcy. Czas pokaże, czy AI Act to interwencja niewystarczająca, czy też przeciwnie – proporcjonalna do skali ryzyka i korzyści płynących z rozwoju sztucznej inteligencji. 

    Przypisy