Fundacje rodzinne

Rejestrujemy i prowadzimy bieżącą obsługę prawną i podatkową fundacji rodzinnych.

Zapraszamy na bezpłatny webinar: „Jak wdrożyć AI ACT krok po kroku?”

Udział w naszym szkoleniu dostarczy wiedzy na temat nowych regulacji oraz pomoże zidentyfikować obowiązki i odpowiedzialność na różnych etapach wdrażania systemów AI. Prelegenci wyjaśnią, jak wykorzystać potencjał AI przy jednoczesnym minimalizowaniu ryzyka prawego i zapewnieniu etycznego podejścia do technologii.

To doskonała okazja, aby uzyskać kompleksową wiedzę i wsparcie przy wdrożeniu AI ACT w swojej organizacji. Nasi eksperci omówią modelowy harmonogram, co pozwoli poznać kolejne etapy i zaplanować terminy wdrożenia AI ACT tak, aby cały proces przebiegł sprawnie i bezproblemowo.

Wyjaśnimy też, jakie materiały są niezbędne, aby spełnić wymogi prawne oraz jak opracować efektywne procedury zgodne z regulacjami AI ACT.

Do udziału w spotkaniu zapraszamy menagerów, dyrektorów, specjalistów od IT i sprzedaży oraz prawników in-house.

Oto planowana tematyka spotkania w formule online:

  • Jaki jest modelowy harmonogram wdrożenia AI ACT?
  • Jakie powinny być kolejne etapy wdrożenia AI ACT?
  • Jakie dokumenty i procedury powinny powstawać na każdym etapie wdrożenia?

Termin: 13 czerwca 2024 r. (czwartek) o godz. 10:00.

Udział w szkoleniu jest BEZPŁATNY.

Rejestracja: Zapisz się już teraz!

Szkolenie poprowadzą: Maciej Tabor, adwokat, Senior Associate w Lawspective i Marta Adranowska, adwokat, Senior Associate w Lawspective.

© Licencja na publikację
© ℗ Wszystkie prawa zastrzeżone
[addtoany]

Sztuczna inteligencja a ochrona konsumentów

AI jest wykorzystywana do obsługi konsumentów, zarówno na etapie przedsprzedażowym, jak i w ramach reklamacji, czy serwisów gwarancyjnych. Dopuszczalne jest bowiem wykorzystywanie chatbotów opartych o technologie sztucznej inteligencji pod warunkiem, że proces ten będzie podlegał ocenie rzetelności w ten sam sposób, jakby obsługa była wykonywana przez człowieka.

W wielu przypadkach konsument nie ma świadomości, iż przedstawiane mu propozycje produktów czy usług nie są wynikiem wcześniej wskazanych przez niego preferencji, lecz analizą danych wykonaną przez narzędzie AI. Z badań wynika, iż 62% konsumentów czuje obawy związane z AI, ale jednocześnie 2/3 z nich nie wie, że rekomendacje seriali są przygotowane przez sztuczną inteligencją.

Obecnie trwają prace nad narzędziem opartym o AI, które wykryje dark patterns – interfejsów zwodniczych, które wpływają na decyzję konsumentów. Część z nich zasilana jest danymi przetworzonymi uprzednio przez AI. UOKiK zastrzega jednak, że ostateczną decyzję będzie podejmował specjalista, podobnie jak dzieje się to w przypadku wykrywania klauzul niedozwolonych w umowach. System wdrożony w 2023 roku przez UOKiK pozwala na analizę dużej liczby umów oraz wytypowanie tych, które następnie podlegają indywidualnej weryfikacji przez eksperta.

Co to oznacza dla konsumenta?

Lepszą ochronę jego praw oraz zmniejszone ryzyko poddania się sugestii dark pattern, gdyż część z nich będzie wkrótce wyeliminowana z obrotu. Ponadto możliwości produkcyjne narzędzi opartych o AI pozwalają na podejmowanie aktywności w obszarach, w których dotychczas urząd mógł działać głównie na podstawie pozyskanych zawiadomień.

Autor: Marta Adranowska, adwokat, Senior Associate w Lawspective Litwiński Valirakis Radcowie Prawni Sp.k.

E-mail: marta.adranowska@lawspective.pl

© Licencja na publikację
© ℗ Wszystkie prawa zastrzeżone
[addtoany]

Nie można automatycznie pomijać wniosku banku o dowód z przesłuchania świadków

Sąd Apelacyjny w Gdańsku opowiedział się przeciwko automatycznemu unieważnianiu umów kredytu oraz pomijaniu wniosków dowodowych Banku. Wyrokiem z dnia 25 kwietnia 2024 roku w sprawie o sygn. akt V ACa 1796/23, po rozpoznaniu apelacji złożonej przez bank Sąd Apelacyjny w Gdańsku uchylił wyrok sądu I instancji uwzgledniający powództwo kredytobiorcy oraz przekazał sprawę do ponownego rozpoznania.

Wadliwe przeprowadzenie postępowania dowodowego przed Sądem I instancji w ocenie Sądu Apelacyjnego doprowadziło do tego, że:

  • Sąd I instancji nie rozpoznał istoty sprawy oraz poczynił ustalenia, które nie miały oparcia w materiale dowodowym,
  • z uwagi na brak przesłuchania świadków pozwanego Sąd I instancji dokonał błędnych ustaleń co do abuzywności postanowień umowy.

Sąd Apelacyjny wskazał, że nie można automatycznie pomijać wniosku banku o dowód z przesłuchania świadków – pracowników tylko z tego względu, że z doświadczenia sądu wynika, że pracownicy banku z reguły nie pamiętają okoliczności towarzyszących zawarciu umowy kredytowej. Takie założenie oraz automatyzm w rozpoznawaniu spraw prowadzi do błędnego wniosku, że w każdej sprawie sąd może praktycznie nie przeprowadzać postępowania dowodowego i opierać się jedynie na przekonaniu wywodzonym z innych spraw.

Jak słusznie wskazał Sąd Apelacyjny, jedną z kluczowych kwestii jest ustalenie okoliczności towarzyszących zawieraniu umowy kredytu. Nie można wobec tego poprzestać jedynie na przesłuchaniu kredytobiorców – konieczne jest także przeprowadzenie dowodu z przesłuchania świadków – pracowników banku. Jedynie to pozwala na ustalenie zakresu informacji przekazanych kredytobiorcom oraz czy zostali oni pouczeni o ryzykach.

Brak przesłuchania świadków pozwanego banku pozbawia go możliwości obrony i prowadzi do zachwiania równowagi stron procesu.

Sąd Apelacyjny zaznaczył przy tym, że sąd II instancji jest wprawdzie sądem meriti i może uzupełnić postępowanie dowodowe, ale braki w postępowaniu przed sądem I instancji były na tyle daleko idące, że przesłuchanie świadków na etapie postępowania odwoławczego pozbawiłoby pozwanego możliwości kwestionowania ustaleń faktycznych (poczynionych w oparciu o ten dowód) na dalszym etapie.

Autor: Agnieszka Nowicka, radca prawny, Senior Associate, Koordynator Departamentu Sporów Sądowych w kancelarii Lawspective.

E-mail: agnieszka.nowicka@lawspective.pl

© Licencja na publikację
© ℗ Wszystkie prawa zastrzeżone
[addtoany]

Czy AI Act podniesie świadomość i bezpieczeństwo użytkowników?

AI Act ma na celu zwiększenie świadomości użytkowników końcowych poprzez transparentność, edukację i informowanie o ryzykach. Zwiększa także bezpieczeństwo poprzez rygorystyczne oceny ryzyka, ochronę danych i wprowadzenie mechanizmów monitorowania oraz nadzoru. Wszystko to razem przyczynia się do bardziej świadomego i bezpiecznego korzystania z technologii sztucznej inteligencji przez użytkowników.

Użytkownik będzie informowany o potencjalnych zagrożeniach i korzyściach, między innymi przez kampanie edukacyjne prowadzone przez krajowe instytucje odpowiedzialne za nadzór nad wprowadzaniem rozporządzenia.

Warto przy tym wspomnieć, że już teraz Ministerstwo Cyfryzacji jest wspierane przez zespół doradczy PL/AI Sztuczna inteligencja dla Polski, który będzie opracowywał rekomendacje wykorzystania AI dla usprawnienia konkretnych obszarów działania państwa.

Kolejnym krokiem ma być powołanie komisji nadzoru nad sztuczną inteligencją. W jej składzie mają znaleźć się między innymi przedstawiciele Urzędu Komunikacji Elektronicznej, Urzędu Ochrony Konkurencji i Konsumentów, Urzędu Ochrony Danych Osobowych oraz Rzecznik Praw Obywatelskich. Komisja ma koordynować prace pomiędzy odpowiednimi organami i instytucjami, które zajmują się obszarami wymienionymi w załączniku III dotyczącym systemów sztucznej inteligencji o wysokim ryzyku.

Ministerstwo rozważa również powołanie funduszu sztucznej inteligencji, którego zadaniem byłoby wsparcie naukowców, jednostek samorządu terytorialnego oraz przedsiębiorców we wdrożeniu rozporządzenia oraz rozwoju innowacyjnych rozwiązań przy zachowaniu wymogu transparentności.

Użytkownik chroniony zatem będzie zarówno w trakcie powstawania, wdrożenia produktu, jak również podczas jego wykorzystywania. Począwszy od zgody na przetwarzanie danych, przez systemy sztucznej inteligencji (zgoda nie może być dorozumiana, użytkownik w sposób aktywny ma ja wyrazić), a skończywszy na dostępie do mechanizmów skarg i odwołań, jeśli poczują, że systemy AI naruszają ich prawa lub bezpieczeństwo.

Rozporządzenie nakłada szereg obowiązków na administrację publiczną oraz podmiotu gospodarcze, które mają zapewnić bezpieczeństwo oraz podniesienie świadomości użytkownika.

Autor: Marta Adranowska, adwokat, Senior Associate w Lawspective Litwiński Valirakis Radcowie Prawni Sp.k.

E-mail: marta.adranowska@lawspective.pl

© Licencja na publikację
© ℗ Wszystkie prawa zastrzeżone
[addtoany]