AI Act to krok w kierunku stworzenia odpowiedzialnego i etycznego środowiska dla rozwoju sztucznej inteligencji w Europie. Jego wpływ wykracza poza sferę biznesu, dotykając również kwestii społecznych, takich jak ochrona prywatności, bezpieczeństwo publiczne oraz równość. Jeśli chcesz wiedzieć więcej o AI ACT – zapraszamy na nasz bezpłatny webinar „Jak wdrożyć AI ACT krok po kroku”, który odbędzie się już 13 czerwca o godz. 10:00!
AI Act odwołuje się do kilku kluczowych wartości europejskich, które mają na celu zapewnienie, że rozwój i wdrażanie technologii sztucznej inteligencji (AI) są zgodne z zasadami etycznymi i prawami człowieka. Oto główne wartości, na których opiera się AI Act.
Poszanowanie praw człowieka
AI Act kładzie duży nacisk na ochronę praw człowieka. Technologie AI muszą być projektowane i wykorzystywane w sposób, który nie narusza podstawowych praw i wolności obywateli, takich jak prawo do prywatności, wolności słowa czy prawo do niedyskryminacji.
Etyka
Regulacja podkreśla znaczenie etycznego podejścia do AI. Obejmuje to przejrzystość w działaniu systemów AI, odpowiedzialność za ich decyzje oraz zapobieganie wykorzystaniu AI do działań niezgodnych z zasadami moralnymi, takich jak manipulacja informacjami czy profilowanie rasowe.
Równość i niedyskryminacja
AI Act stawia sobie za cel zapewnienie, że systemy AI są wolne od uprzedzeń i nie dyskryminują żadnej grupy społecznej. Algorytmy muszą być projektowane i testowane tak, aby unikać wszelkich form dyskryminacji ze względu na rasę, płeć, wiek, orientację seksualną czy inne cechy.
Prywatność
Ochrona danych osobowych i prywatności jest jednym z głównych priorytetów AI Act. Technologie AI powinny gwarantować, że dane użytkowników są zbierane, przechowywane i przetwarzane w sposób bezpieczny i zgodny z przepisami dotyczącymi ochrony danych, takimi jak RODO.
Przejrzystość
AI Act wymaga, aby technologie AI były transparentne. Użytkownicy muszą być informowani, kiedy mają do czynienia z systemem AI oraz muszą mieć dostęp do informacji na temat tego, jak działają te systemy i jakie dane są wykorzystywane do ich działania.
Bezpieczeństwo
Regulacje dotyczące AI mają na celu zapewnienie, że technologie te są bezpieczne dla użytkowników. Obejmuje to rygorystyczne testy i oceny ryzyka dla systemów wysokiego ryzyka, takich jak te stosowane w medycynie, transporcie czy innych krytycznych sektorach.
Odpowiedzialność
AI Act wprowadza mechanizmy odpowiedzialności za działania systemów AI. Firmy i organizacje korzystające z technologii AI muszą być gotowe ponieść odpowiedzialność za skutki ich użycia, zwłaszcza w przypadkach, gdy AI podejmuje decyzje mające istotne konsekwencje dla ludzi.
Autor: Marta Adranowska, adwokat, Senior Associate w Lawspective Litwiński Valirakis Radcowie Prawni Sp.k.
E-mail: marta.adranowska@lawspective.pl