Zobacz także: Unijne prawo sztucznej inteligencji – tak propozycje KE oceniają prawnicy nowych technologii
Jak podkreśla Robert Kroplewski, ogłoszenie komunikatu o harmonizacji reguł dotyczących systemów sztucznej inteligencji zostało połączone z propozycją nowej regulacji maszynowej oraz komunikatem Komisji Europejskiej w sprawie aktualizacji całego Skoordynowanego Planu UE dla AI i wieńczy kolejny etap budowania przez Unię trzeciej drogi rozwoju systemów AI, opartej o ramy etyczne ujęte w koncepcję Trustworthy AI. – Koncepcja ta, to także swoisty znak handlowy promujący ponadregionalne zaufanie do produktów pochodzących z UE i stosowanych na jej terytorium – dodaje.
Polskie postulaty AI
Według pełnomocnika Ministra Cyfryzacji ds. Społeczeństwa Informacyjnego, regulacje zaproponowane przez Komisję realizują wiele postulatów Polski wyrażonych we wspólnej deklaracji państw V4 z kwietnia 2018 roku. To między innymi budowanie ambitnej polityki UE w obszarze AI opartej na kształtowaniu zaufania do tej technologii, oraz otwartych ram prawnych dla innowacji, w tym dopuszczenie stosowania eksperymentów w ramach sandboxów, a także określenie reguł odpowiedzialności prawnej AI.
Unia Europejska liderem sztucznej inteligencji
Zdaniem Roberta Kroplewskiego, zgodnie z zapowiedziami, Unia Europejska konsekwentnie przechodzi na pozycje lidera w rywalizacji globalnej w obszarze AI. – To nie tylko jako twórca uniwersalnych standardów prawnych opartych na godności człowieka i prawach podstawowych, bezpieczeństwie i etyce, ale także jako środowisko polityki i inwestycji wspierających wytwarzanie i stosowania AI, która poddana jest zasadzie nadzorczej roli człowieka, a także uznając priorytet wspierania innowacyjności rynku według proporcjonalnej i stopniowalnej oceny korzyści i ryzyk zastosowań AI – ocenia ekspert.
Kluczowy jest wpływ AI
– Co ważne, regulacja obejmuje ocenę ryzyka w ramach cyklu życia systemu AI w trzech fazach: rozwoju, lokowania na rynku i użytku. W istocie jej przedmiotem nie jest sama technologia AI, ale jej wpływ, jaki wykazuje w zastosowaniu w środowisku aplikacyjnym – podkreśla Robert Kroplewski.
Stąd, jak wyjaśnia, proponowana jest stopniowalna miara oceny ryzyka tego wpływu: 1) począwszy od niedopuszczalnego ryzyka związanego z bezpieczeństwem, źródłami utrzymania i prawami człowieka, w tym obejściem świadomości i woli użytkowników (np. zabawki dla dzieci, scoring społeczny, scoring pracowniczy) – limitowanego bezwzględnym zakazem, 2) poprzez aplikacje wysokiego ryzyka – podlegające systemowi oceny ex-ante dopuszczalności do wprowadzenia do obrotu, 3) aplikacje ograniczonego ryzyka – obciążone jedynie obowiązkami transparentności wejścia człowieka w transakcję z udziałem j np. czatbota lub awatar z inkorporacją deep fake maski człowieka, 4) aplikacje irrelewantne dla ryzyka jak np. gry – nieobjęte interwencją regulacji, ale jednak objęte zobowiązaniem urzeczywistnienia 7 zasad etycznych określonych w ramach koncepcji godnej zaufania sztucznej inteligencji jako aktu samoregulacji.
Jak dodaje Robert Kroplewski, ważne jest, że Komisja Europejska określa nie jako zakazane, ale tylko wysokiego ryzyka aplikacje systemów AI w połączeniu z technikami biometrii, które umożliwiają identyfikację. – Należy jednak mieć na uwadze, że wysokie ryzyko zastosowania AI w biometrii nie tyle polega na identyfikacji, ale szkodliwej ocenie zachowania poddanej nią osoby. Zatem aplikacje wysokiego ryzyka to nie tylko obszar zastosowania systemów AI w infrastrukturze krytycznej, transporcie, edukacji, usługach kredytowych czy ubezpieczeniowych, usługach publicznych, wymiarze sprawiedliwości, procesach migracyjnych, produktach bezpiecznych czy medycynie – wymienia ekspert.
Definicja AI
Robert Kroplewski zaznacza również, że regulacja określa otwartą na rozwój technologii definicję sztucznej inteligencji jako systemu AI, wypracowaną na bazie dotychczasowego stanu sztuki technik AI odpowiadającego modelowi inteligentnego agenta. – Model ten jest podstawą rekomendacji OECD Stewardship of Trustworthy AI, projektowanych właśnie w UNESCO globalnych rekomendacji etycznych dla AI oraz regulacji wypracowywanej w ramach Rady Europy w zakresie ochrony praw człowieka, demokracji i praworządności. Definicja wskazuje na cechy specyficzne jakie wykazują systemy AI związane z możliwością (funkcją) delegowania przez człowieka różnego poziomu autonomii do tych systemów AI, ograniczoną możliwość wyjaśnienia procesu budowania rekomendacji przez system AI, ryzyko skalowania błędnych danych czy wreszcie wpływu rezultatów tych systemów na środowisko w którym działają zarówno wymiarze cyfrowym (wirtualnym) i materialnym (fizycznym). Jednocześnie podkreślona jest właściwa do nadzorczej roli człowiek funkcja definiowania celów systemów AI przez człowieka, jak i technicznych i nietechnicznych reguł nadzoru oddziaływania systemów AI na otoczenie, w którym są zaaplikowane, tak wymiarze software jak i fizycznych robotów, w tym antropomorficznych asystentów – opisuje mecenas Kroplewski.
Brak „czynnika społecznego”
– Najbardziej wyraźną luką jest brak zapewnienia wpływu czynnika społecznego w procedurach ex-ante systemów AI wysokiego ryzyka, co z kolei stoi w sprzeczności z krajową „Polityką rozwoju sztucznej i inteligencji w Polsce od roku 2020 roku – wskazuje Robert Kroplewski. Jak jednak dodaje, kwestia ta na pewno będzie mogła być doregulowana w porządkach krajowych.
– Ostateczna regulacja wymaga jeszcze przejścia przez proces negocjacyjny organów UE, a jednocześnie należy ją widzieć także w kontekście nadchodzących regulacji Data Governance Act, Data Market Act, Data Service Act czy reguł cywilnej odpowiedzialności za działanie systemów AI – podsumowuje Robert Kroplewski.