System AI: czy podlega unijnemu AI Act? Wskazówki ekspertki od prawa nowych technologii

Po wejściu w życie unijnego rozporządzenia AI Act (dalej: AIA) jedno z pierwszych pytań, jakie pojawia się w praktyce, dotyczy tego, kto i w jakim trybie ma ocenić, czy dany system informatyczny podlega AIA. Na pierwszym etapie obowiązywania AIA oceny tej powinny dokonać samodzielnie wszystkie podmioty dostarczające lub biznesowo wykorzystujące rozwiązania informatyczne oparte na AI. Zanim bowiem ta ocena będzie dokonana w niektórych przypadkach przez podmioty certyfikowane (24 lub 36 miesięcy od wejścia w życie AIA), to zacznie być stosowany zakaz stosowania praktyk niedozwolonych (6 miesięcy od wejścia w życie AIA). Do tego czasu praktycznie wszystkie podmioty biznesowe powinny samodzielnie ocenić, czy dostarczane przez nich albo wykorzystywane systemy nie stosują praktyk niedozwolonych. Dokonywana przez podmioty samoocena będzie mogła (choć nie będzie musiała) zostać zweryfikowana przez organy nadzoru oraz sądy, zarówno w administracyjnym i administracyjno-sądowym toku postępowania (w szczególności wówczas gdy pojawią się zarzuty o stosowanie takich praktyk), jak i w ramach ewentualnych sporów cywilnych. 

Kryteria oceny

Odpowiadając na pytanie, czy dane rozwiązanie informatyczne podlega wymogom AIA, nie wystarczy ograniczyć się do badania elementów objętych definicją „systemu AI” zawartą w AIA. Dla odpowiedzi na to pytanie znaczenie ma większa ilość kwestii:

1. Czy oceniane rozwiązanie informatyczne stanowi „system” czy zaledwie jego komponent?

Gdy mamy do czynienia z rozwiązaniem IT niebędącym systemem, zasadniczo nie będzie on podlegać regulacji AIA, z wyjątkiem jednak szczególnej regulacji dla niektórych modeli AI ogólnego przeznaczenia (GPAI) oraz pewnych obowiązków informacyjnych, zapewnienia zdolności oraz technicznego dostępu, nałożonych na dostawców narzędzi, komponentów, usług lub procesów, które są wykorzystywane albo zintegrowane w systemach wysokiego ryzyka, a które mają umożliwić dostawcom systemów wysokiego ryzyka wywiązanie się z ich obowiązków wynikających z AIA.  

2. Czy dany system IT stanowi system AI?

W tym miejscu celowe jest odwołanie do definicji „systemu AI” zawartej w AIA Tym, co – w ujęciu AIA – odróżnia system AI od innych systemów informatycznych, jest jego zdolność do wnioskowania z modelu oraz pewien stopień autonomii.

  • zdolność do wnioskowania – odnosi się ona do procesu uzyskiwania wyników, takich jak przewidywania, treść, zalecenia lub decyzje, oraz do zdolności systemów AI do wyprowadzania modeli lub algorytmów z danych wejściowych.
  • autonomia systemu – system AI wykazuje pewien (różny w poszczególnych systemach) poziom autonomii, co oznacza, że charakteryzuje się pewnym stopniem niezależności działań od zaangażowania człowieka oraz zdolnością do działania bez interwencji człowieka.

3. Jakiemu celowi ma służyć system AI?

Aby ustalić kolejny element decydujący dla objęcia systemu AI wymogami AIA, konieczna jest ocena, czy dany system AI nie należy do systemów wyłączonych spod zastosowania AI. Rozporządzenie wyłącza spod swojego zastosowania systemy wykorzystywane w niektórych określonych celach, np. celach militarnych.

4. Do której kategorii ryzyka należy system AI?

Ustalenie kategorii ryzyka systemu AI jest ważne dlatego, że dla systemów sztucznej inteligencji nienależących do systemów wysokiego ryzyka lub ograniczonego ryzyka AIA nie wprowadza szczególnych wymogów (poza zakazem praktyk niedozwolonych). O objęciu danego systemu regulacją AIA decyduje więc poziom ryzyka, jaki dany system ten generuje.

5. W której fazie życia znajduje się system AI?

Rozporządzenie nie stosuje się do każdej fazy życia sytemu AI. Moment, w którym wymogi AIA zaczynają obowiązywać wobec danego systemu (oraz jego dostawców, użytkowników, importerów, dystrybutorów) następuje dopiero na nieco dojrzalszym etapie jego „życia”, a mianowicie od momentu wprowadzenia go na rynek (placing on the market) lub jego użytkowego uruchomienia (putting into service). Dochodzi do tego wymóg terytorialny, iż zdarzenia te mają nastąpić w UE.  Z powyższego wynika, że systemy AI w fazie testowej lub rozwojowej dość powszechnie w praktyce nieodpłatnie udostępnianie użytkownikom, podlegają wymogom AIA. Także „testowanie” sprowadzające się do nieodpłatnego wykorzystywania systemu zgodnie z jego przeznaczeniem w celu podjęcia decyzji o jego nabyciu, podlega wymogom AIA nakładanym na biznesowego użytkownika. Szczególnie wątpliwie w praktyce będzie odróżnienie fazy testowania systemu AI wytwarzanego przez dostawcę na jego własne potrzeby od fazy jego pierwszego wykorzystania zgodnie z jego przeznaczeniem.

6. Czy dany system AI znajduje się poza zasięgiem terytorialnym AIA?

AIA znajduje zastosowanie zasadniczo do systemów wprowadzonych na rynek albo udostępnionych do korzystania z Unii. Aby jednak zapobiec obchodzeniu tej zasady (poprzez przesyłanie danych celem ich wykorzystania w systemach AI poza UE, a zwrotne przesyłanie do UE jedynie danych wyjściowych) w niektórych przypadkach wymogami AIA objęte są nawet systemy AIA udostępnione na rynku lub wykorzystywane poza zakresem terytorialnym UE.  

7. Czy dany system AI został wyłączony spod AIA ze względu na czas, w którym system został udostępniony na rynku lub oddany do korzystania?

Z wyłączeniem zakazu stosowania praktyk niedozwolonych, systemy udostępnione na rynku albo oddane do użytku w okresie 24 miesięcy od daty wejścia w życie AIA nie będą podlegać AIA, o ile po dacie wejścia w życie nie ulegną istotnym zmianom w ich zaprojektowaniu (designs). Ponieważ postęp technologiczny wymusza jednak stałe zmiany systemów, więc to wyłączenie będzie mieć praktycznie mniejsze znaczenie.

Więcej na temat rewolucji w zasadach korzystania z nowych technologii powiemy na naszym bezpłatnym webinarium „AI ACT coraz bliżej – co to oznacza dla biznesu?” już 11 kwietnia o godz. 10:00.

Autor: dr hab. Iwona Karasek-Wojciechowicz, radca prawny, of counsel w Lawspective.

E-mail: iwona.karasek@lawspective.pl

© Licencja na publikację
© ℗ Wszystkie prawa zastrzeżone
[addtoany]

Sztuczna Inteligencja w bankowości i finansach #3. Efektywne wykorzystanie sztucznej inteligencji

Przy podejmowaniu decyzji dotyczącej metody rozwiązywania zadań w przedsiębiorstwie przy zastosowaniu sztucznej inteligencji, konieczne jest przeanalizowanie zarówno celu, który ma być osiągnięty, jak i rodzaju i zakresu danych, które mogą służyć za wzorzec dla tworzonego narzędzia. Niektóre z technik eksploracji danych mogą okazać się niewłaściwie, z powodu braku dostatecznej wyjaśnialności dla wielowymiarowych problemów, co powoduje niezgodność z wprowadzanymi regulacjami.

Techniki optymalizacyjne

Chodzi tu o techniki stosowane do znajdowania najlepszego rozwiązania (lub rozwiązań) danego problemu. Przykłady obejmują algorytmy genetyczne, optymalizację rojem cząstek (PSO) i optymalizację gradientową. Tu warto zauważyć, że o ile decyzje dotyczące ruchu cząstki są podejmowane na podstawie jasno zdefiniowanych reguł matematycznych, co sprawia, że proces aktualizacji pozycji cząstki jest przewidywalny i może być dokładnie śledzony, to w przypadku wielowymiarowego środowiska z dynamicznym rozwojem, transparentność może być utrudniona.

Uczenie ze wzmocnieniem

To metoda uczenia maszynowego, która uczy model podejmowania decyzji poprzez nagradzanie pożądanych zachowań i karanie tych niepożądanych. Uczenie ze wzmocnieniem jest szeroko stosowane w robotyce, grach i do optymalizacji procesów decyzyjnych. Pomimo swojej skuteczności, wyjaśnialność w uczeniu ze wzmocnieniem stanowi wyzwanie, szczególnie w kontekście AI ACT.

Eksploracja danych (Data Mining)

Jest to proces odkrywania wzorców i innych ciekawych informacji w dużych zbiorach danych. Używa zaawansowanych technik statystycznych, uczenia maszynowego i systemów baz danych do ekstrakcji informacji, które mogą być użyteczne w różnych aplikacjach. Zastosowanie narzędzi i metod XAI do modeli stosowanych w eksploracji danych może pomóc w generowaniu bardziej zrozumiałych wyjaśnień dla ludzi, co do działania modelu i podjętych przez niego decyzji.

Deep Learning i sieci neuronowe

Mowa tu o zaawansowanych modelach uczenia maszynowego, które naśladują działanie ludzkiego mózgu, aby rozpoznawać wzorce, klasyfikować dane i przewidywać wyniki. Techniki te są stosowane w rozpoznawaniu mowy, przetwarzaniu języka naturalnego i analizie obrazu. Przy wykorzystaniu odpowiednich metod lokalnego wyjaśniania, pozwalają na wymaganą regulacyjnie wyjaśnialność.

Techniki eksploracji danych w praktyce

Techniki te są fundamentem współczesnych systemów AI i znajdują zastosowanie w wielu dziedzinach, od automatyzacji i robotyki, przez analizę danych, po interaktywne aplikacje, takie jak gry czy asystenci głosowi. Wyzwania związane z wyjaśnialnością mogą nasilać się w przypadku bardziej złożonych lub dynamicznie zmieniających się problemów. W kontekście AI ACT ważne jest, aby sztuczna inteligencja była zastosowana w sposób, który uwzględnia potrzebę wyjaśnialności, odpowiedzialności i transparentności w decyzjach podejmowanych przez systemy AI.

Autor: Marta Adranowska, adwokat, Senior Associate w Lawspective Litwiński Valirakis Radcowie Prawni Sp.k.

E-mail: marta.adranowska@lawspective.pl

© Licencja na publikację
© ℗ Wszystkie prawa zastrzeżone
[addtoany]

AI – zarządzać czy tylko nadzorować?

Pytanie, czy sztuczna inteligencja powinna być poddana procesom zarządczym, czy tylko ją nadzorować, dotyka kluczowych aspektów rozwoju AI, a także implementacji i wykorzystania.  Co ważne, te dwa podejścia nie wykluczają się i mogą być stosowane równolegle, aby zapewnić odpowiedzialne i efektywne wykorzystanie AI, oraz wzmocnić jej zrównoważony rozwój.

Zarządzanie

Zarządzanie sztuczną inteligencją skupione jest przede wszystkim na jej rozwoju, wdrażaniu oraz na tworzeniu narzędzi wykorzystujących AI. Ważne jest zatem, aby jeszcze przed przystąpieniem do działań zdefiniować cele i zastosowania AI. Określenie, czy celem jest korzyść gospodarcza, społeczna czy indywidualna, wskaże ramy do zastosowania procesów zarządczych przy dalszych pracach nad technologią. Wskazując zakres zastosowania AI, można rozpocząć projektowanie algorytmu, selekcję danych treningowych oraz optymalizację przygotowanych modeli. Kolejnym krokiem jest implementacja, gdzie proces zarządczy obejmuje wdrożenie AI z zapewnieniem prawidłowej integracji z istniejącymi już procesami i systemami.

Nadzór

Nadzór nad AI ma na celu zapewnienie, że jej działanie jest zgodne z regulacjami, standardami oraz etyką. Aby to osiągnąć, już na etapie opracowania projektu konieczna jest weryfikacja istniejących oraz planowanych regulacji dotyczących transparentności działania algorytmów AI, ochrony danych osobowych, odpowiedzialności za decyzje podjęte przy wykorzystaniu AI. Systemy oparte o AI powinny być poddawane ewaluacji i monitoringowi, w celu zapewnienia bezpieczeństwa i zgodności z obowiązującymi ramami prawnymi i etycznymi. Nadzór ma zapewnić także korektę działań niepożądanych.

Synergia obu strategii

Zarówno zarządzanie, jak i nadzór nad AI są kluczowe dla zrównoważonego rozwoju technologii. Wykorzystanie potencjału AI nie jest możliwe bez odpowiedniego zarządzania. Optymalne podejście powinno łączyć obie strategie, wykorzystując nadzór do monitorowania, a zarządzanie do odpowiedzialnego rozwoju technologii.

Zapraszamy na webinarium!

Bieżący rok z pewnością warto poświęcić na przygotowanie firmowych systemów i procedur tak, aby jak najszybciej uzyskać w przyszłości pożądaną zgodność z AI Act.

© Licencja na publikację
© ℗ Wszystkie prawa zastrzeżone
[addtoany]

Prezes UOKiK pozytywnie o oprocentowaniu kredytów złotowych stawką WIBOR

W związku z publicznie formułowanymi przez kredytobiorców złotowych zarzutami w zakresie rzekomej wadliwości kredytów złotowych oprocentowanych stawką WIBOR, w przestrzeni medialnej głos zabrał Prezes UOKiK. W jego ocenie nie ma żadnych podstaw do kwestionowania oprocentowania kredytów złotowych wskaźnikiem WIBOR. Wskazał on, że „Mamy przeświadczenie, że WIBOR był prawidłowo wyznaczany, zaś rolą UKNF jest budowa zaufania do wskaźników referencyjnych”[1].

Wypowiedź Prezesa UOKiK to kolejny już w debacie publicznej głos organów publicznych, który wskazuje na prawidłowość oprocentowania kredytów złotowych stawką WIBOR.

Stanowisko UKNF i Komitetu Stabilności Finansowej

Pozytywnie w tym zakresie wypowiadał się również Urząd Komisji Nadzoru Finansowego, który stoi na stanowisku, że opracowywanie stosowanego w Polsce przez banki i inne podmioty nadzorowane kluczowego dla polskiego rynku finansowego wskaźnika referencyjnego stopy procentowej WIBOR (dalej też: WIBOR) odbywa się zgodnie z wymaganiami określonymi w rozporządzeniu Parlamentu i Rady (UE) nr 2016/1011 w sprawie indeksów stosowanych jako wskaźniki referencyjne w instrumentach finansowych i umowach finansowych lub do pomiaru wyników funduszy inwestycyjnych (BMR).”[2]

Podobne stanowisko wyraził również Komitet Stabilności Finansowej wskazując, że „Komitet odnotował pojawiające się, zarówno w przekazach medialnych, jak i w pozwach sądowych próby podważania wiarygodności i reprezentatywności wskaźnika referencyjnego stopy procentowej WIBOR (dalej też: WIBOR). W tym kontekście stwierdził, że nie znajduje żadnych podstaw prawnych ani ekonomicznych do negowania prawidłowości wyznaczania tego wskaźnika referencyjnego. (…) formułowanie i powielanie twierdzeń o rzekomych nieprawidłowościach przy opracowywaniu wskaźnika referencyjnego stopy procentowej WIBOR jest nieuprawnione (…)[3]”. 

Podejście sądów powszechnych

Również sądy powszechne nie dostrzegają wadliwości w oprocentowaniu kredytów złotowych stawką WIBOR. W naszej kancelarii odnotowaliśmy w ostatnim czasie kilka prawomocnych postanowień oddalających wnioski o udzielenie zabezpieczenia (np. postanowienie Sądu Apelacyjnego w Rzeszowie z dnia 29 grudnia 2023 roku, sygn. akt I ACz 763/23, postanowienie Sądu Okręgowego we Wrocławiu z dnia 8 stycznia 2024 roku, sygn. akt II Cz 1042/23, postanowienie Sądu Okręgowego w Gdańsku z dnia 22 stycznia 2024 roku, sygn. akt XVI Cz 21/24, postanowienie Sądu Apelacyjnego w Krakowie z dnia 13 marca 2024 roku, sygn. akt I Acz 1322/23). W sprawach prowadzonych przez prawników z naszej kancelarii odnotowaliśmy również już pierwsze korzystne wyroki (np. Wyrok Sądu Okręgowego w Warszawie z dnia 13 grudnia 2023 roku, sygn. akt XXVIII C 4059/23, Wyrok Sądu Okręgowego w Warszawie z dnia 19 grudnia 2023 roku, sygn. akt XXVIII C 16229/23).

Sporami sądowymi dotyczącymi kredytów złotowych oprocentowanych stawką WIBOR w naszej kancelarii zajmują się radca prawny Robert Wechman, adwokat Monika Gostyńska, radca prawny Anna Olechowicz, radca prawny Krzysztof Witkowski, adwokat Michał Partyka oraz radca prawny Filip Janczura.


[1]https://biznes.pap.pl/pl/news/pap/info/3559024,wibor-byl-prawidlowo-wyznaczany–nie-ma-podstaw-do-jego-kwestionowania—chrostny–uokik

[2] https://www.knf.gov.pl/komunikacja/komunikaty?articleId=80486&p_id=18.

[3] https://nbp.pl/komunikat-ksf-po-posiedzeniu-dot-nadzoru-makroostroznosciowego-nad-systemem-finansowym/


Autor: Robert Wechman, radca prawny, counsel, Dyrektor Departamentu Sporów Sądowych w Lawspective.

E-mail: robert.wechman@lawspective.pl

© Licencja na publikację
© ℗ Wszystkie prawa zastrzeżone
[addtoany]