AI Act – terminy i najważniejsze informacje dla biznesu

AI Act jest z pewnością jednym z najbardziej oczekiwanych rozwiązań regulacyjnych tego roku. Powodów tego stanu rzeczy jest co najmniej kilka.

Sztuczna inteligencja przestała być dostępna tylko dla wybranych, wiele modeli biznesowych z powodzeniem inwestuje i wykorzystuje ją w różnych obszarach działalności. Narzędzia bazujące na AI wspierają komunikację z klientami, logistykę, rekrutację czy marketing. Definicja sztucznej inteligencji w AI Act obejmuje szeroki zakres systemów oraz technologii, w efekcie czego  rozporządzenie wpłynie na funkcjonowanie wielu firm.

Kto powinien pamiętać o nowej regulacji?

Każda firma, która korzysta z systemów opartych na sztucznej inteligencji, ponieważ konieczne będzie zrozumienie i przestrzeganie nowych regulacji. AI Act określa obszary, w których wykorzystanie AI jest ograniczone lub niemożliwe. Celem jest zapewnienie bezpieczeństwa użytkowników przed manipulacjami i dezinformacją. Działania biznesowe nie mogą wprowadzać w błąd lub szkodzić użytkownikom. Organizacje, które nie będą przestrzegać tych przepisów, muszą liczyć się z sankcjami, w tym z wysokimi karami finansowymi.

Ile jest czasu, aby się przygotować?

AI Act wejdzie w życie po upływie 20 dni od jego opublikowania. W pełni będzie zaś obowiązywać 24 miesiące po opublikowaniu. Istotne jest jednak to, że większość obowiązków, jakie nakłada na firmy to rozporządzenie, będzie musiało być spełnionych w przeciągu pierwszych 6 oraz 12 miesięcy od jego wejścia w życie. Krótszy, sześciomiesięczny termin, obejmuje między innymi zakaz stosowania systemów niedozwolonych.

Zapraszamy na webinarium!

Bieżący rok z pewnością warto poświęcić na przygotowanie firmowych systemów i procedur tak, aby jak najszybciej uzyskać w przyszłości pożądaną zgodność z AI Act.

© Licencja na publikację
© ℗ Wszystkie prawa zastrzeżone
[addtoany]

Sztuczna Inteligencja w bankowości i finansach #2. Wyzwania i kwestie etyczne

Chociaż sztuczna inteligencja stwarza znaczące możliwości dla sektora bankowego, jej wdrożenie wiąże się z szeregiem wyzwań i kwestii etycznych, z którymi banki muszą się zmierzyć. To nie tylko kwestie techniczne, ale także złożone aspekty etyczne, prawne i społeczne. Wprowadzane obecnie regulacje prawne, między innymi AI Act, nakładają szereg obowiązków na instytucje finansowe w tym zakresie.

Przejrzystość i zrozumiałość

Jednym z podstawowych wyzwań związanych ze wdrażaniem sztucznej inteligencji w bankowości jest zapewnienie przejrzystości i zrozumiałości podejmowanych przez nią decyzji. Klient banku ma bowiem prawo do wyjaśnień, w jaki sposób i na jakich podstawach dana decyzja została podjęta. Tymczasem algorytmy AI, zwłaszcza te oparte na głębokim uczeniu się (deep learning), mogą być bardzo nieprzejrzyste, co utrudnia zrozumienie sposobu podejmowania decyzji. Banki muszą inwestować w rozwój interpretowalnych modeli AI lub przyjąć technologie „wyjaśnialnej AI” (XAI), aby zdemistyfikować procesy decyzyjne. Tak zorganizowana „czarna skrzynka” pozwoli na analizę procesu, jaki poprzedził wydanie określonej decyzji.

Uczciwość i stronniczość

Systemy AI są tylko tak bezstronne, jak dane, na których są szkolone. Dane historyczne wykorzystywane do szkolenia modeli AI mogą zawierać uprzedzenia, które prowadzą do niesprawiedliwego traktowania niektórych grup klientów. Na przykład, modele oceny zdolności kredytowej oparte na sztucznej inteligencji mogą nieumyślnie dyskryminować osoby ze względu na rasę, płeć lub status społeczno-ekonomiczny. Banki muszą wdrożyć procedury wykrywania i łagodzenia uprzedzeń, aby zapewnić, że ich systemy AI działają uczciwie i etycznie.

Prywatność i bezpieczeństwo danych

Wykorzystanie sztucznej inteligencji w bankowości w dużym stopniu opiera się na przetwarzaniu dużych ilości danych osobowych, co budzi poważne obawy dotyczące prywatności i bezpieczeństwa. Przestrzeganie RODO i zapewnienie prywatności danych staje się wyzwaniem, ponieważ systemy AI wymagają dostępu do szczegółowych danych klientów, aby funkcjonować optymalnie. Banki muszą zapewnić procedury i  środki ochrony danych, w tym techniki szyfrowania i anonimizacji, aby zabezpieczyć informacje o klientach przed naruszeniami i nieautoryzowanym dostępem.

Odpowiedzialność

Przypisanie odpowiedzialności za decyzje podejmowane przez systemy AI stanowi wyzwanie prawne i etyczne. Kiedy system AI podejmuje decyzję, która prowadzi do strat finansowych lub narusza prawa klienta, określenie odpowiedzialności może być skomplikowane. W tym celu bank powinien zastosować komplementarne narzędzia, które uzupełnią technologię opartą na zasadzie wyjaśnialności. Banki muszą zatem ustanowić jasne struktury zarządzania i mechanizmy odpowiedzialności za decyzje podejmowane przez sztuczną inteligencję, zapewniając odpowiedni nadzór oraz zarządzanie systemami wykorzystującymi AI do podejmowania decyzji.

Poradzenie sobie z tymi wyzwaniami wymaga multidyscyplinarnego podejścia, łączącego rozwiązania technologiczne z zasadami etycznymi i zgodnością z prawem. Banki muszą współpracować ze wszystkimi podmiotami, w tym z organami regulacyjnymi, klientami instytucjonalnymi oraz indywidualnymi, aby zwiększyć zaufanie do aplikacji AI. Podchodząc proaktywnie do tych kwestii etycznych, banki mogą wykorzystać sztuczną inteligencję nie tylko do zwiększenia wydajności i innowacji, ale także do przestrzegania swoich obowiązków społecznych, etycznych i prawnych.

Autor: Marta Adranowska, adwokat, Senior Associate w Lawspective Litwiński Valirakis Radcowie Prawni Sp.k.

E-mail: marta.adranowska@lawspective.pl

© Licencja na publikację
© ℗ Wszystkie prawa zastrzeżone
[addtoany]

Zapraszamy na bezpłatny webinar: „AI ACT coraz bliżej – co to oznacza dla biznesu?”

AI Act został przyjęty przez Parlament Europejski, regulacja wejdzie w życie już za kilka tygodni.  To przełomowy moment dla technologii AI. Zapowiada nową erę w odpowiedzialnym i bezpiecznym rozwoju tych technologii na terenie Unii Europejskiej. Zrozumienie i stosowanie przepisów dotyczących sztucznej inteligencji jest kluczowe dla zapewnienia zgodności z prawem i optymalizacji korzyści płynących z technologii AI.

Udział w szkoleniu dostarczy wiedzy na temat nowych regulacji oraz pomoże zidentyfikować obowiązki i odpowiedzialność na różnych etapach wdrażania systemów AI. Prelegenci wyjaśnią, jak wykorzystać potencjał AI przy jednoczesnym minimalizowaniu ryzyka prawego i zapewnieniu etycznego podejścia do technologii.

Oto planowana tematyka spotkania w formule online:

  • Jakie są terminy stosowania AI ACT?
  • Które systemy AI podlegać będą regulacjom?
  • Jakie są wymagania dla systemów AI wysokiego ryzyka?
  • Jakie są obowiązki i regulacje dotyczące modeli GPAI?
  • Jak przygotować się do wdrożenia AI ACT?
  • Jakie kary przewiduje AI ACT?
  • Q&A – Sesja pytań i odpowiedzi.

Termin: 11 kwietnia 2024 r. (wtorek) o godz. 10:00.

Udział w szkoleniu jest BEZPŁATNY.

Rejestracja: Zapisz się już teraz!

Szkolenie poprowadzą: dr hab. Iwona Karasek-Wojciechowicz, radca prawny, Counsel w Lawspective, Maciej Tabor, adwokat, Senior Associate w Lawspective i Marta Adranowska, adwokat, Senior Associate w Lawspective.

© Licencja na publikację
© ℗ Wszystkie prawa zastrzeżone
[addtoany]

Sztuczna Inteligencja w bankowości i finansach #1. Trendy i zmiany regulacyjne

Sztuczna inteligencja w bankowości europejskiej jest gotowa na dalszy wzrost i innowacje, które kształtują postęp technologiczny i regulacje. Ponieważ banki i instytucje finansowe chętnie wykorzystują potencjał sztucznej inteligencji, wszystko wskazuje na to, że kilka kluczowych trendów i zmian regulacyjnych w znaczący sposób wpłynie na ten sektor.

Postęp w technologiach AI

Ciągły rozwój technologii AI, w tym bardziej zaawansowanych algorytmów uczenia maszynowego, przetwarzania języka naturalnego i oraz innych technologii takich jak blockchain, gwarantuje dalsze ulepszanie usług bankowych. Sztuczna inteligencja może na przykład zrewolucjonizować zarządzanie majątkiem poprzez spersonalizowane strategie inwestycyjne lub poprawić cyberbezpieczeństwo dzięki zaawansowanym systemom wykrywania anomalii. W miarę jak zastosowanie AI w bankowości staje się coraz bardziej powszechne i złożone, oczekuje się, że organy regulacyjne w Europie dostosują i udoskonalą istniejące ramy prawne, aby sprostać  nowym wyzwaniom. Przyjęte w zeszłym tygodniu przez Parlament Europejski Rozporządzenie o Sztucznej Inteligencji (tzw. AI Act) to dopiero początek bardziej kompleksowego podejścia do regulacji AI, koncentrującego się na zapewnieniu etycznego wykorzystania, przejrzystości i odpowiedzialności.

Nacisk na etyczną sztuczną inteligencję i wyjaśnialność

Akcentowanie etyki i wyjaśnialności w odniesieniu do sztucznej inteligencji jest wyraźnie widoczne w Rozporządzeniu, w którym za niedopuszczalne uznano praktyki mogące dyskryminować osoby fizyczne lub prawne ze względu na określone cechy, takie jak adres, nazwa, czy wielkość przychodów. Jednocześnie nie pozbawia to instytucji finansowych prawa do podejmowania decyzji o współpracy z tymi podmiotami. Decyzja ma być oparta o przesłanki, które znajdują wyjaśnienie w postaci np. ryzyka kredytowego wynikającego z historii kredytowej podmiotu. Decyzja narzędzia wykorzystującego sztuczną inteligencję do analizy ryzyka ma być tak samo wyjaśnialna, jak decyzja podejmowana przez pracownika banku. Wyjaśnialność to zresztą przymiot kilku rodzajów algorytmów wykorzystywanych przez instytucje finansowe do analizy danych (XAI, SHAP).

Współpraca i standaryzacja

Strategie regulacyjne w zakresie sztucznej inteligencji w celu wykorzystania pełnego potencjału nowych narzędzi muszą być oparte na współpracy międzysektorowej oraz jak najszerszej standaryzacji.

Standaryzacja praktyk i ram AI w całej branży może ułatwić przestrzeganie przepisów, zachęcić do innowacji i zapewnić równe szanse. Inicjatywy takie jak European AI Alliance i prace Europejskiego Urzędu Nadzoru Bankowego nad zarządzaniem sztuczną inteligencją są krokami w kierunku wspierania takiej współpracy i standaryzacji.

Zwiększona ochrona konsumentów i prywatności

W odpowiedzi na rosnące obawy dotyczące prywatności danych i praw konsumentów, przyszłe zmiany regulacyjne prawdopodobnie położą większy nacisk na ochronę osób fizycznych. Wykorzystanie technologii blockchain do przechowywania masowych zbiorów danych jest jednym z pierwszych kroków podjętych przez instytucje finansowe w celu zapewnienia bezpieczeństwa w tym obszarze.

Eksploracja sztucznej inteligencji w bankowości pokazuje potencjał sektora w zakresie innowacji i wydajności. Ten trend powinien być zrównoważony zobowiązaniem do przestrzegania standardów etycznych i zgodności z przepisami. Wraz z dalszym rozwojem sztucznej inteligencji, jej rola w bankowości niewątpliwie wzrośnie, oferując nowe możliwości ulepszania usług i zaspokajania różnorodnych potrzeb klientów w Europie i poza nią.

Autor: Marta Adranowska, adwokat, Senior Associate w Lawspective Litwiński Valirakis Radcowie Prawni Sp.k.

E-mail: marta.adranowska@lawspective.pl

© Licencja na publikację
© ℗ Wszystkie prawa zastrzeżone
[addtoany]