Sztuczna Inteligencja w bankowości i finansach #4. Inwestycje w AI, które rewolucjonizują sektor finansowy

JP Morgan Chase & Co (JP Morgan) jest jednym z największych podmiotów finansowych na świecie. Na swojej stronie, poświęconej wyłącznie badaniom nad sztuczną inteligencją pisze: Celem naszego programu AI Research jest odkrywanie i rozwijanie najnowocześniejszych badań w dziedzinie sztucznej inteligencji i uczenia maszynowego, a także w powiązanych dziedzinach, takich jak kryptografia, w celu opracowania rozwiązań, które mają największy wpływ na klientów i firmy.

JP Morgan od wielu lat inwestuje w AI. Dzięki platformie Contract Intelligence (COiN), opartej o uczenie maszynowe, bank zautomatyzował proces przeglądu dokumentów w określonym modelu biznesowym. COiN wykorzystuje niewspomaganą sztuczną inteligencję, minimalizując zaangażowanie człowieka. Platforma, umieszczona w prywatnej chmurze wykorzystuje rozpoznawanie obrazów do porównywania i identyfikowania klauzul. W początkowej fazie wdrożenia COiN wyodrębnił około 150 istotnych atrybutów z rocznych umów kredytowych w ciągu kilku sekund, eliminując potrzebę 360 000 godzin ręcznego przeglądu. Algorytm identyfikuje wzorce na podstawie warunków lub lokalizacji w umowach, co skutkuje znaczną oszczędnością czasu i kosztów przy jednoczesnej poprawie wydajności i redukcji błędów.

JP Morgan posiada obecnie własny zespół zajmujący się badaniami i rozwojem sztucznej inteligencji oraz narzędzi z jej wykorzystaniem. W corocznym zestawieniu podmiotów najbardziej zaangażowanych w AI od lat zajmuje czołowe miejsce, zarówno pod względem liczby zatrudnionych przy projektach osób, jak i wielkości inwestycji. Obecnie zespół pracuje między innymi nad narzędziem IndexGPT, które ma na celu wspierać sprzedawców w wyborze inwestycji dla klientów w oparciu o chmurę obliczeniową.

J.P. Morgan prowadzi różnorodne inicjatywy, takie jak:

  • Syntetyczne Zbiory Danych: Badania i algorytmy generują realistyczne zbiory danych zastosowalne w usługach finansowych, dostępne publicznie.
  • Centrum Doskonałości w Dziedzinie Wyjaśnialnej AI: Badania nad wyjaśnialnością modeli AI i uczciwością.
  • Centrum Doskonałości w Dziedzinie AlgoCRYPT: Badania w dziedzinie kryptografii i bezpiecznych obliczeń rozproszonych. Inicjatywa została uruchomiona we wrześniu 2022 roku.

JP Morgan to podmiot, który od lat upatruje w AI narzędzia, które dla gospodarki ma takie samo znaczenie, jak internet.

Autor: Marta Adranowska, adwokat, Senior Associate w Lawspective Litwiński Valirakis Radcowie Prawni Sp.k.

E-mail: marta.adranowska@lawspective.pl

© Licencja na publikację
© ℗ Wszystkie prawa zastrzeżone
[addtoany]

Za nami webinar: „AI ACT coraz bliżej – co to oznacza dla biznesu?”

Duża liczba uczestników potwierdziła, że unijne rozporządzenie to przełomowy moment dla technologii AI, a odpowiedzialny i bezpieczny rozwój to aktualny i ważny temat dla biznesu.

Podczas szkolenia dr hab. Iwona Karasek-Wojciechowicz i adwokat Marta Adranowska mówiły o tym, jak wykorzystać potencjał AI przy jednoczesnym minimalizowaniu ryzyka prawego i zapewnieniu etycznego podejścia do technologii.

Bardzo dziękujemy uczestnikom webinarium za liczny udział i aktywność.

W razie jakichkolwiek pytań lub wątpliwości związanych ze wdrożeniem przepisów o AI Act oraz innych kwestii dotyczący nowych technologii, zapraszamy do kontaktu: marta.adranowska@lawspective.pl

© Licencja na publikację
© ℗ Wszystkie prawa zastrzeżone
[addtoany]

System AI: czy podlega unijnemu AI Act? Wskazówki ekspertki od prawa nowych technologii

Po wejściu w życie unijnego rozporządzenia AI Act (dalej: AIA) jedno z pierwszych pytań, jakie pojawia się w praktyce, dotyczy tego, kto i w jakim trybie ma ocenić, czy dany system informatyczny podlega AIA. Na pierwszym etapie obowiązywania AIA oceny tej powinny dokonać samodzielnie wszystkie podmioty dostarczające lub biznesowo wykorzystujące rozwiązania informatyczne oparte na AI. Zanim bowiem ta ocena będzie dokonana w niektórych przypadkach przez podmioty certyfikowane (24 lub 36 miesięcy od wejścia w życie AIA), to zacznie być stosowany zakaz stosowania praktyk niedozwolonych (6 miesięcy od wejścia w życie AIA). Do tego czasu praktycznie wszystkie podmioty biznesowe powinny samodzielnie ocenić, czy dostarczane przez nich albo wykorzystywane systemy nie stosują praktyk niedozwolonych. Dokonywana przez podmioty samoocena będzie mogła (choć nie będzie musiała) zostać zweryfikowana przez organy nadzoru oraz sądy, zarówno w administracyjnym i administracyjno-sądowym toku postępowania (w szczególności wówczas gdy pojawią się zarzuty o stosowanie takich praktyk), jak i w ramach ewentualnych sporów cywilnych. 

Kryteria oceny

Odpowiadając na pytanie, czy dane rozwiązanie informatyczne podlega wymogom AIA, nie wystarczy ograniczyć się do badania elementów objętych definicją „systemu AI” zawartą w AIA. Dla odpowiedzi na to pytanie znaczenie ma większa ilość kwestii:

1. Czy oceniane rozwiązanie informatyczne stanowi „system” czy zaledwie jego komponent?

Gdy mamy do czynienia z rozwiązaniem IT niebędącym systemem, zasadniczo nie będzie on podlegać regulacji AIA, z wyjątkiem jednak szczególnej regulacji dla niektórych modeli AI ogólnego przeznaczenia (GPAI) oraz pewnych obowiązków informacyjnych, zapewnienia zdolności oraz technicznego dostępu, nałożonych na dostawców narzędzi, komponentów, usług lub procesów, które są wykorzystywane albo zintegrowane w systemach wysokiego ryzyka, a które mają umożliwić dostawcom systemów wysokiego ryzyka wywiązanie się z ich obowiązków wynikających z AIA.  

2. Czy dany system IT stanowi system AI?

W tym miejscu celowe jest odwołanie do definicji „systemu AI” zawartej w AIA Tym, co – w ujęciu AIA – odróżnia system AI od innych systemów informatycznych, jest jego zdolność do wnioskowania z modelu oraz pewien stopień autonomii.

  • zdolność do wnioskowania – odnosi się ona do procesu uzyskiwania wyników, takich jak przewidywania, treść, zalecenia lub decyzje, oraz do zdolności systemów AI do wyprowadzania modeli lub algorytmów z danych wejściowych.
  • autonomia systemu – system AI wykazuje pewien (różny w poszczególnych systemach) poziom autonomii, co oznacza, że charakteryzuje się pewnym stopniem niezależności działań od zaangażowania człowieka oraz zdolnością do działania bez interwencji człowieka.

3. Jakiemu celowi ma służyć system AI?

Aby ustalić kolejny element decydujący dla objęcia systemu AI wymogami AIA, konieczna jest ocena, czy dany system AI nie należy do systemów wyłączonych spod zastosowania AI. Rozporządzenie wyłącza spod swojego zastosowania systemy wykorzystywane w niektórych określonych celach, np. celach militarnych.

4. Do której kategorii ryzyka należy system AI?

Ustalenie kategorii ryzyka systemu AI jest ważne dlatego, że dla systemów sztucznej inteligencji nienależących do systemów wysokiego ryzyka lub ograniczonego ryzyka AIA nie wprowadza szczególnych wymogów (poza zakazem praktyk niedozwolonych). O objęciu danego systemu regulacją AIA decyduje więc poziom ryzyka, jaki dany system ten generuje.

5. W której fazie życia znajduje się system AI?

Rozporządzenie nie stosuje się do każdej fazy życia sytemu AI. Moment, w którym wymogi AIA zaczynają obowiązywać wobec danego systemu (oraz jego dostawców, użytkowników, importerów, dystrybutorów) następuje dopiero na nieco dojrzalszym etapie jego „życia”, a mianowicie od momentu wprowadzenia go na rynek (placing on the market) lub jego użytkowego uruchomienia (putting into service). Dochodzi do tego wymóg terytorialny, iż zdarzenia te mają nastąpić w UE.  Z powyższego wynika, że systemy AI w fazie testowej lub rozwojowej dość powszechnie w praktyce nieodpłatnie udostępnianie użytkownikom, podlegają wymogom AIA. Także „testowanie” sprowadzające się do nieodpłatnego wykorzystywania systemu zgodnie z jego przeznaczeniem w celu podjęcia decyzji o jego nabyciu, podlega wymogom AIA nakładanym na biznesowego użytkownika. Szczególnie wątpliwie w praktyce będzie odróżnienie fazy testowania systemu AI wytwarzanego przez dostawcę na jego własne potrzeby od fazy jego pierwszego wykorzystania zgodnie z jego przeznaczeniem.

6. Czy dany system AI znajduje się poza zasięgiem terytorialnym AIA?

AIA znajduje zastosowanie zasadniczo do systemów wprowadzonych na rynek albo udostępnionych do korzystania z Unii. Aby jednak zapobiec obchodzeniu tej zasady (poprzez przesyłanie danych celem ich wykorzystania w systemach AI poza UE, a zwrotne przesyłanie do UE jedynie danych wyjściowych) w niektórych przypadkach wymogami AIA objęte są nawet systemy AIA udostępnione na rynku lub wykorzystywane poza zakresem terytorialnym UE.  

7. Czy dany system AI został wyłączony spod AIA ze względu na czas, w którym system został udostępniony na rynku lub oddany do korzystania?

Z wyłączeniem zakazu stosowania praktyk niedozwolonych, systemy udostępnione na rynku albo oddane do użytku w okresie 24 miesięcy od daty wejścia w życie AIA nie będą podlegać AIA, o ile po dacie wejścia w życie nie ulegną istotnym zmianom w ich zaprojektowaniu (designs). Ponieważ postęp technologiczny wymusza jednak stałe zmiany systemów, więc to wyłączenie będzie mieć praktycznie mniejsze znaczenie.

Więcej na temat rewolucji w zasadach korzystania z nowych technologii powiemy na naszym bezpłatnym webinarium „AI ACT coraz bliżej – co to oznacza dla biznesu?” już 11 kwietnia o godz. 10:00.

Autor: dr hab. Iwona Karasek-Wojciechowicz, radca prawny, of counsel w Lawspective.

E-mail: iwona.karasek@lawspective.pl

© Licencja na publikację
© ℗ Wszystkie prawa zastrzeżone
[addtoany]

Sztuczna Inteligencja w bankowości i finansach #3. Efektywne wykorzystanie sztucznej inteligencji

Przy podejmowaniu decyzji dotyczącej metody rozwiązywania zadań w przedsiębiorstwie przy zastosowaniu sztucznej inteligencji, konieczne jest przeanalizowanie zarówno celu, który ma być osiągnięty, jak i rodzaju i zakresu danych, które mogą służyć za wzorzec dla tworzonego narzędzia. Niektóre z technik eksploracji danych mogą okazać się niewłaściwie, z powodu braku dostatecznej wyjaśnialności dla wielowymiarowych problemów, co powoduje niezgodność z wprowadzanymi regulacjami.

Techniki optymalizacyjne

Chodzi tu o techniki stosowane do znajdowania najlepszego rozwiązania (lub rozwiązań) danego problemu. Przykłady obejmują algorytmy genetyczne, optymalizację rojem cząstek (PSO) i optymalizację gradientową. Tu warto zauważyć, że o ile decyzje dotyczące ruchu cząstki są podejmowane na podstawie jasno zdefiniowanych reguł matematycznych, co sprawia, że proces aktualizacji pozycji cząstki jest przewidywalny i może być dokładnie śledzony, to w przypadku wielowymiarowego środowiska z dynamicznym rozwojem, transparentność może być utrudniona.

Uczenie ze wzmocnieniem

To metoda uczenia maszynowego, która uczy model podejmowania decyzji poprzez nagradzanie pożądanych zachowań i karanie tych niepożądanych. Uczenie ze wzmocnieniem jest szeroko stosowane w robotyce, grach i do optymalizacji procesów decyzyjnych. Pomimo swojej skuteczności, wyjaśnialność w uczeniu ze wzmocnieniem stanowi wyzwanie, szczególnie w kontekście AI ACT.

Eksploracja danych (Data Mining)

Jest to proces odkrywania wzorców i innych ciekawych informacji w dużych zbiorach danych. Używa zaawansowanych technik statystycznych, uczenia maszynowego i systemów baz danych do ekstrakcji informacji, które mogą być użyteczne w różnych aplikacjach. Zastosowanie narzędzi i metod XAI do modeli stosowanych w eksploracji danych może pomóc w generowaniu bardziej zrozumiałych wyjaśnień dla ludzi, co do działania modelu i podjętych przez niego decyzji.

Deep Learning i sieci neuronowe

Mowa tu o zaawansowanych modelach uczenia maszynowego, które naśladują działanie ludzkiego mózgu, aby rozpoznawać wzorce, klasyfikować dane i przewidywać wyniki. Techniki te są stosowane w rozpoznawaniu mowy, przetwarzaniu języka naturalnego i analizie obrazu. Przy wykorzystaniu odpowiednich metod lokalnego wyjaśniania, pozwalają na wymaganą regulacyjnie wyjaśnialność.

Techniki eksploracji danych w praktyce

Techniki te są fundamentem współczesnych systemów AI i znajdują zastosowanie w wielu dziedzinach, od automatyzacji i robotyki, przez analizę danych, po interaktywne aplikacje, takie jak gry czy asystenci głosowi. Wyzwania związane z wyjaśnialnością mogą nasilać się w przypadku bardziej złożonych lub dynamicznie zmieniających się problemów. W kontekście AI ACT ważne jest, aby sztuczna inteligencja była zastosowana w sposób, który uwzględnia potrzebę wyjaśnialności, odpowiedzialności i transparentności w decyzjach podejmowanych przez systemy AI.

Autor: Marta Adranowska, adwokat, Senior Associate w Lawspective Litwiński Valirakis Radcowie Prawni Sp.k.

E-mail: marta.adranowska@lawspective.pl

© Licencja na publikację
© ℗ Wszystkie prawa zastrzeżone
[addtoany]