Wesołych Świąt Wielkanocnych

Z okazji Świąt Wielkanocnych życzymy naszym Współpracownikom, Klientom i Partnerom, aby ten wyjątkowy czas był pełen zdrowia i spokoju, a spotkania w gronie najbliższych upływały w miłym, wiosennym nastroju.

Zespół Lawspective

© Licencja na publikację
© ℗ Wszystkie prawa zastrzeżone
[addtoany]

AI Act – terminy i najważniejsze informacje dla biznesu

AI Act jest z pewnością jednym z najbardziej oczekiwanych rozwiązań regulacyjnych tego roku. Powodów tego stanu rzeczy jest co najmniej kilka.

Sztuczna inteligencja przestała być dostępna tylko dla wybranych, wiele modeli biznesowych z powodzeniem inwestuje i wykorzystuje ją w różnych obszarach działalności. Narzędzia bazujące na AI wspierają komunikację z klientami, logistykę, rekrutację czy marketing. Definicja sztucznej inteligencji w AI Act obejmuje szeroki zakres systemów oraz technologii, w efekcie czego  rozporządzenie wpłynie na funkcjonowanie wielu firm.

Kto powinien pamiętać o nowej regulacji?

Każda firma, która korzysta z systemów opartych na sztucznej inteligencji, ponieważ konieczne będzie zrozumienie i przestrzeganie nowych regulacji. AI Act określa obszary, w których wykorzystanie AI jest ograniczone lub niemożliwe. Celem jest zapewnienie bezpieczeństwa użytkowników przed manipulacjami i dezinformacją. Działania biznesowe nie mogą wprowadzać w błąd lub szkodzić użytkownikom. Organizacje, które nie będą przestrzegać tych przepisów, muszą liczyć się z sankcjami, w tym z wysokimi karami finansowymi.

Ile jest czasu, aby się przygotować?

AI Act wejdzie w życie po upływie 20 dni od jego opublikowania. W pełni będzie zaś obowiązywać 24 miesiące po opublikowaniu. Istotne jest jednak to, że większość obowiązków, jakie nakłada na firmy to rozporządzenie, będzie musiało być spełnionych w przeciągu pierwszych 6 oraz 12 miesięcy od jego wejścia w życie. Krótszy, sześciomiesięczny termin, obejmuje między innymi zakaz stosowania systemów niedozwolonych.

Zapraszamy na webinarium!

Bieżący rok z pewnością warto poświęcić na przygotowanie firmowych systemów i procedur tak, aby jak najszybciej uzyskać w przyszłości pożądaną zgodność z AI Act.

© Licencja na publikację
© ℗ Wszystkie prawa zastrzeżone
[addtoany]

Sztuczna Inteligencja w bankowości i finansach #2. Wyzwania i kwestie etyczne

Chociaż sztuczna inteligencja stwarza znaczące możliwości dla sektora bankowego, jej wdrożenie wiąże się z szeregiem wyzwań i kwestii etycznych, z którymi banki muszą się zmierzyć. To nie tylko kwestie techniczne, ale także złożone aspekty etyczne, prawne i społeczne. Wprowadzane obecnie regulacje prawne, między innymi AI Act, nakładają szereg obowiązków na instytucje finansowe w tym zakresie.

Przejrzystość i zrozumiałość

Jednym z podstawowych wyzwań związanych ze wdrażaniem sztucznej inteligencji w bankowości jest zapewnienie przejrzystości i zrozumiałości podejmowanych przez nią decyzji. Klient banku ma bowiem prawo do wyjaśnień, w jaki sposób i na jakich podstawach dana decyzja została podjęta. Tymczasem algorytmy AI, zwłaszcza te oparte na głębokim uczeniu się (deep learning), mogą być bardzo nieprzejrzyste, co utrudnia zrozumienie sposobu podejmowania decyzji. Banki muszą inwestować w rozwój interpretowalnych modeli AI lub przyjąć technologie „wyjaśnialnej AI” (XAI), aby zdemistyfikować procesy decyzyjne. Tak zorganizowana „czarna skrzynka” pozwoli na analizę procesu, jaki poprzedził wydanie określonej decyzji.

Uczciwość i stronniczość

Systemy AI są tylko tak bezstronne, jak dane, na których są szkolone. Dane historyczne wykorzystywane do szkolenia modeli AI mogą zawierać uprzedzenia, które prowadzą do niesprawiedliwego traktowania niektórych grup klientów. Na przykład, modele oceny zdolności kredytowej oparte na sztucznej inteligencji mogą nieumyślnie dyskryminować osoby ze względu na rasę, płeć lub status społeczno-ekonomiczny. Banki muszą wdrożyć procedury wykrywania i łagodzenia uprzedzeń, aby zapewnić, że ich systemy AI działają uczciwie i etycznie.

Prywatność i bezpieczeństwo danych

Wykorzystanie sztucznej inteligencji w bankowości w dużym stopniu opiera się na przetwarzaniu dużych ilości danych osobowych, co budzi poważne obawy dotyczące prywatności i bezpieczeństwa. Przestrzeganie RODO i zapewnienie prywatności danych staje się wyzwaniem, ponieważ systemy AI wymagają dostępu do szczegółowych danych klientów, aby funkcjonować optymalnie. Banki muszą zapewnić procedury i  środki ochrony danych, w tym techniki szyfrowania i anonimizacji, aby zabezpieczyć informacje o klientach przed naruszeniami i nieautoryzowanym dostępem.

Odpowiedzialność

Przypisanie odpowiedzialności za decyzje podejmowane przez systemy AI stanowi wyzwanie prawne i etyczne. Kiedy system AI podejmuje decyzję, która prowadzi do strat finansowych lub narusza prawa klienta, określenie odpowiedzialności może być skomplikowane. W tym celu bank powinien zastosować komplementarne narzędzia, które uzupełnią technologię opartą na zasadzie wyjaśnialności. Banki muszą zatem ustanowić jasne struktury zarządzania i mechanizmy odpowiedzialności za decyzje podejmowane przez sztuczną inteligencję, zapewniając odpowiedni nadzór oraz zarządzanie systemami wykorzystującymi AI do podejmowania decyzji.

Poradzenie sobie z tymi wyzwaniami wymaga multidyscyplinarnego podejścia, łączącego rozwiązania technologiczne z zasadami etycznymi i zgodnością z prawem. Banki muszą współpracować ze wszystkimi podmiotami, w tym z organami regulacyjnymi, klientami instytucjonalnymi oraz indywidualnymi, aby zwiększyć zaufanie do aplikacji AI. Podchodząc proaktywnie do tych kwestii etycznych, banki mogą wykorzystać sztuczną inteligencję nie tylko do zwiększenia wydajności i innowacji, ale także do przestrzegania swoich obowiązków społecznych, etycznych i prawnych.

Autor: Marta Adranowska, adwokat, Senior Associate w Lawspective Litwiński Valirakis Radcowie Prawni Sp.k.

E-mail: marta.adranowska@lawspective.pl

© Licencja na publikację
© ℗ Wszystkie prawa zastrzeżone
[addtoany]

Zapraszamy na bezpłatny webinar: „AI ACT coraz bliżej – co to oznacza dla biznesu?”

AI Act został przyjęty przez Parlament Europejski, regulacja wejdzie w życie już za kilka tygodni.  To przełomowy moment dla technologii AI. Zapowiada nową erę w odpowiedzialnym i bezpiecznym rozwoju tych technologii na terenie Unii Europejskiej. Zrozumienie i stosowanie przepisów dotyczących sztucznej inteligencji jest kluczowe dla zapewnienia zgodności z prawem i optymalizacji korzyści płynących z technologii AI.

Udział w szkoleniu dostarczy wiedzy na temat nowych regulacji oraz pomoże zidentyfikować obowiązki i odpowiedzialność na różnych etapach wdrażania systemów AI. Prelegenci wyjaśnią, jak wykorzystać potencjał AI przy jednoczesnym minimalizowaniu ryzyka prawego i zapewnieniu etycznego podejścia do technologii.

Oto planowana tematyka spotkania w formule online:

  • Jakie są terminy stosowania AI ACT?
  • Które systemy AI podlegać będą regulacjom?
  • Jakie są wymagania dla systemów AI wysokiego ryzyka?
  • Jakie są obowiązki i regulacje dotyczące modeli GPAI?
  • Jak przygotować się do wdrożenia AI ACT?
  • Jakie kary przewiduje AI ACT?
  • Q&A – Sesja pytań i odpowiedzi.

Termin: 11 kwietnia 2024 r. (wtorek) o godz. 10:00.

Udział w szkoleniu jest BEZPŁATNY.

Rejestracja: Zapisz się już teraz!

Szkolenie poprowadzą: dr hab. Iwona Karasek-Wojciechowicz, radca prawny, Counsel w Lawspective, Maciej Tabor, adwokat, Senior Associate w Lawspective i Marta Adranowska, adwokat, Senior Associate w Lawspective.

© Licencja na publikację
© ℗ Wszystkie prawa zastrzeżone
[addtoany]