Chociaż sztuczna inteligencja stwarza znaczące możliwości dla sektora bankowego, jej wdrożenie wiąże się z szeregiem wyzwań i kwestii etycznych, z którymi banki muszą się zmierzyć. To nie tylko kwestie techniczne, ale także złożone aspekty etyczne, prawne i społeczne. Wprowadzane obecnie regulacje prawne, między innymi AI Act, nakładają szereg obowiązków na instytucje finansowe w tym zakresie.
Przejrzystość i zrozumiałość
Jednym z podstawowych wyzwań związanych ze wdrażaniem sztucznej inteligencji w bankowości jest zapewnienie przejrzystości i zrozumiałości podejmowanych przez nią decyzji. Klient banku ma bowiem prawo do wyjaśnień, w jaki sposób i na jakich podstawach dana decyzja została podjęta. Tymczasem algorytmy AI, zwłaszcza te oparte na głębokim uczeniu się (deep learning), mogą być bardzo nieprzejrzyste, co utrudnia zrozumienie sposobu podejmowania decyzji. Banki muszą inwestować w rozwój interpretowalnych modeli AI lub przyjąć technologie „wyjaśnialnej AI” (XAI), aby zdemistyfikować procesy decyzyjne. Tak zorganizowana „czarna skrzynka” pozwoli na analizę procesu, jaki poprzedził wydanie określonej decyzji.
Uczciwość i stronniczość
Systemy AI są tylko tak bezstronne, jak dane, na których są szkolone. Dane historyczne wykorzystywane do szkolenia modeli AI mogą zawierać uprzedzenia, które prowadzą do niesprawiedliwego traktowania niektórych grup klientów. Na przykład, modele oceny zdolności kredytowej oparte na sztucznej inteligencji mogą nieumyślnie dyskryminować osoby ze względu na rasę, płeć lub status społeczno-ekonomiczny. Banki muszą wdrożyć procedury wykrywania i łagodzenia uprzedzeń, aby zapewnić, że ich systemy AI działają uczciwie i etycznie.
Prywatność i bezpieczeństwo danych
Wykorzystanie sztucznej inteligencji w bankowości w dużym stopniu opiera się na przetwarzaniu dużych ilości danych osobowych, co budzi poważne obawy dotyczące prywatności i bezpieczeństwa. Przestrzeganie RODO i zapewnienie prywatności danych staje się wyzwaniem, ponieważ systemy AI wymagają dostępu do szczegółowych danych klientów, aby funkcjonować optymalnie. Banki muszą zapewnić procedury i środki ochrony danych, w tym techniki szyfrowania i anonimizacji, aby zabezpieczyć informacje o klientach przed naruszeniami i nieautoryzowanym dostępem.
Odpowiedzialność
Przypisanie odpowiedzialności za decyzje podejmowane przez systemy AI stanowi wyzwanie prawne i etyczne. Kiedy system AI podejmuje decyzję, która prowadzi do strat finansowych lub narusza prawa klienta, określenie odpowiedzialności może być skomplikowane. W tym celu bank powinien zastosować komplementarne narzędzia, które uzupełnią technologię opartą na zasadzie wyjaśnialności. Banki muszą zatem ustanowić jasne struktury zarządzania i mechanizmy odpowiedzialności za decyzje podejmowane przez sztuczną inteligencję, zapewniając odpowiedni nadzór oraz zarządzanie systemami wykorzystującymi AI do podejmowania decyzji.
Poradzenie sobie z tymi wyzwaniami wymaga multidyscyplinarnego podejścia, łączącego rozwiązania technologiczne z zasadami etycznymi i zgodnością z prawem. Banki muszą współpracować ze wszystkimi podmiotami, w tym z organami regulacyjnymi, klientami instytucjonalnymi oraz indywidualnymi, aby zwiększyć zaufanie do aplikacji AI. Podchodząc proaktywnie do tych kwestii etycznych, banki mogą wykorzystać sztuczną inteligencję nie tylko do zwiększenia wydajności i innowacji, ale także do przestrzegania swoich obowiązków społecznych, etycznych i prawnych.
Autor: Marta Adranowska, adwokat, Senior Associate w Lawspective Litwiński Valirakis Radcowie Prawni Sp.k.
E-mail: marta.adranowska@lawspective.pl