Sztuczna inteligencja odgrywa coraz ważniejszą rolę w sektorze bankowym, przyspieszając procesy, wspierając analizę danych i umożliwiając zaawansowane opcje personalizacji. Jej dynamiczny rozwój wiąże się z koniecznością wprowadzenia regulacji zapewniających jej bezpieczne i odpowiedzialne korzystanie.
Ustawa o sztucznej inteligencjiprzyjęte przez Parlament Europejski jest kluczowym aktem prawnym, który definiuje zasady odpowiedzialnego i etycznego korzystania ze sztucznej inteligencji, nakłada obowiązki na instytucje z niej korzystające i ustala standardy zgodności; nie jest to jednak jedyne rozporządzenie, które jest istotne dla instytucji finansowych w tym zakresie.
W tym artykule przyjrzymy się różnym przepisom dotyczącym sztucznej inteligencji, konsekwencjom ich nieprzestrzegania oraz wyzwaniom związanym z wdrażaniem nowych regulacji.
Podczas Ustawa UE o sztucznej inteligencji Jest to pierwsze kompleksowe rozporządzenie regulujące wykorzystanie technologii sztucznej inteligencji (AI). W obowiązującym prawodawstwie znajdziemy również inne regulacje mające zastosowanie w tym obszarze. Należą do nich inne ogólne przepisy przyjęte przez UE, takie jak ustawa o odporności operacyjnej w dziedzinie cyfrowej (Digital Operational Resilience Act, DORA) i ogólne rozporządzenie o ochronie danych (RODO), które mają również zastosowanie do podmiotów zarówno w Unii Europejskiej, jak i poza nią, jeśli ich działalność wpływa na rynek UE.
W tej części skupiono się na postanowieniach wyżej wymienionych rozporządzeń, które mają znaczenie dla niniejszego artykułu, oraz na tym, w jaki sposób uzupełniają one postanowienia ustawy UE o sztucznej inteligencji.
Niezależnie od poziomu ryzyka określonego dla systemu dostarczanego lub użytkowanego przez dany podmiot, ustawa o sztucznej inteligencji nakłada na ten podmiot obowiązek informacyjny związany z odpowiednim informowaniem osób, na które system może mieć wpływ. W takim przypadku podmiot jest zobowiązany do:
Podczas Ogólne rozporządzenie o ochronie danych (GDPR) Ustawa UE o sztucznej inteligencji koncentruje się na zabezpieczaniu danych osobowych i reguluje odpowiedzialny i bezpieczny sposób, w jaki systemy sztucznej inteligencji powinny wykorzystywać udostępnione im dane.
Do systemów AI wysokiego ryzyka zaliczają się rozwiązania oparte na modelach AI trenowanych na danych, wśród których mogą znajdować się dane osobowe – w takiej sytuacji, oprócz wymogów Ustawy o AI, obowiązują przepisy RODO. Ponadto przepisy te zawierają wytyczne dotyczące przetwarzania danych biometrycznych oraz obowiązki informacyjne dotyczące wykorzystania AI i przetwarzania danych osobowych.
W oparciu o te dane systemy sztucznej inteligencji mogą być również wykorzystywane do zautomatyzowanego podejmowania decyzji w indywidualnych przypadkach, takich jak decyzje o udzieleniu pożyczki. W takiej sytuacji, zgodnie z ustawą o sztucznej inteligencji (AI), osoby fizyczne mają prawo do otrzymania wyjaśnień dotyczących podjętych decyzji, natomiast RODO przyznaje im prawo do niepodlegania decyzjom opartym wyłącznie na zautomatyzowanym przetwarzaniu danych.
W obu rozporządzeniach można znaleźć postanowienia dotyczące analizy ryzyka. Systemy sztucznej inteligencji są przypisane do różnych kategoriiW przypadku przetwarzania danych osobowych ocena ryzyka stanowi podstawę do zapewnienia środków ochrony tych danych. Zarówno ustawa o sztucznej inteligencji, jak i RODO nakładają również obowiązek rejestrowania działań lub zdarzeń w określonych sytuacjach, a także zgłaszania naruszeń i incydentów związanych z bezpieczeństwem, takich jak awarie systemu. Należy w tym miejscu zaznaczyć, że naruszenie bezpieczeństwa danych może nastąpić w wyniku działań wykorzystujących sztuczną inteligencję.
W ten sposób oba rozporządzenia podkreślają wagę przejrzystości działań podmiotów zaangażowanych.

Oboje Ustawa o cyfrowej odporności operacyjnej (DORA) a ustawa UE o sztucznej inteligencji (AI Act) dotyczy nakładających się obszarów, takich jak zarządzanie ryzykiem, zarządzanie danymi i cyberbezpieczeństwo, ze szczególnym naciskiem na integralność i poufność danych. Ustawa DORA ma na celu zapewnienie bezpieczeństwa technologie informacyjno-komunikacyjne (ICT), co pomaga zagwarantować ciągłość usług świadczonych przez instytucje finansowe. Wśród elementów ICT znajdują się również systemy sztucznej inteligencji (AI).
Oba rozporządzenia wielokrotnie odwołują się do zbieżnych koncepcji „dostawców” lub „podmiotów korzystających” z usług ICT lub technologii AI. „Systemy AI”, zgodnie z definicją zawartą w ustawie o AI, wpisują się w definicję „usług ICT” zawartą w ustawie DORA, szczególnie w przypadku systemów AI wysokiego ryzyka. Innym wspólnym problemem poruszanym w obu rozporządzeniach jest wymóg doskonalenia kompetencji i wiedzy podmiotów dostarczających i korzystających z technologii ICT i AI. Wymagany jest również nadzór ludzki nad systemami i procesami. Zarówno DORA, jak i ustawa o AI również postulują wprowadzenie procedur zarządzania ryzykiem.
Wdrożenie postanowień obu ustaw w obszarze usług finansowych zagwarantuje, że systemy bankowe oparte na sztucznej inteligencji będą spełniać odpowiednie standardy operacyjne i etyczne.
Państwa członkowskie UE są zobowiązane do wyznaczenia własnych organów odpowiedzialnych za nadzór nad przestrzeganiem ustawy o sztucznej inteligencji do August 1, 2025 .
Zadaniem tych organów będzie stworzenie spójnych ram prawnych dla rozwoju, wdrażania i nadzoru nad technologiami AI w celu wspierania innowacji i zapewnienia bezpieczeństwa osób i instytucji. Będą one współpracować z Komisją Europejską, Europejską Radą ds. Sztucznej Inteligencji oraz innymi organami samorządowymi o odpowiednich kompetencjach, takich jak ochrona danych czy nadzór finansowy.
Kolejnym obszarem, w którym ustawa o sztucznej inteligencji nakłada obowiązki na każde państwo członkowskie UE, jest utworzenie co najmniej jednego piaskownica regulacyjna do 2 sierpnia 2026 r. A piaskownica regulacyjna to środowisko utworzone przez właściwe organy, które umożliwia dostawcom bezpieczne testowanie technologii i rozwiązań z zakresu sztucznej inteligencji w warunkach rzeczywistych przez określony czas.
Aby zapoznać się z przeglądem powiązań między Ustawą o sztucznej inteligencji a polskimi przepisami obowiązującymi w bankowości, zobacz ten artykuł.

Ponieważ niewłaściwe lub niewystarczająco nadzorowane wykorzystanie technologii sztucznej inteligencji może prowadzić do naruszeń bezpieczeństwa, kluczowe znaczenie ma przestrzeganie przepisów przyjętych przez Parlament Europejski. Kary za nieprzestrzeganie unijnej ustawy o sztucznej inteligencji zależą od wagi naruszenia:
Wdrożenie przepisów unijnej ustawy o sztucznej inteligencji w sektorze bankowym wymaga od organizacji znalezienia sposobów na zapewnienie zgodności z rygorystycznymi przepisami przy jednoczesnym utrzymaniu wydajności operacyjnej.
Należy również uwzględnić powiązane przepisy wymienione w powyższych sekcjach. Zawierają one zestaw odrębnych wymagań, a zapewnienie ich bezkolizyjnej zgodności może stanowić wyzwanie, zwłaszcza pod względem możliwej błędnej interpretacji, co może prowadzić do nieefektywności, a nawet całkowitej niezgodności.
W wielu przypadkach starsze systemy mogą wymagać aktualizacji, co może wiązać się z wyzwaniami technicznymi. Ponadto pracownicy muszą zostać odpowiednio przeszkoleni, aby móc korzystać z systemów AI, zarządzać nimi i nadzorować je w sposób zapewniający ich adekwatność i bezpieczeństwo. Zazwyczaj wymaga to znacznych inwestycji zasobów.
Jednoczesne spełnienie wszystkich wymagań może nadwyrężyć zasoby organizacji. Dlatego ważne jest, aby rozwiązywać potencjalne trudności w sposób proaktywny, poprzez współpracę między działami i wykorzystanie technologii wspierających zgodność, takich jak platformy zarządzania danymi czy narzędzia do automatycznego audytu.

Sztuczna inteligencja (AI) na stałe zagości w naszym życiu, a jej wykorzystanie będzie się tylko zwiększać, w tym w sektorze usług finansowych. Biorąc pod uwagę ryzyko i wyzwania związane z tą technologią, oczywiste jest, że niezwykle ważne jest, aby organizacje opracowały i wdrożyły strategię AI w oparciu o odpowiednie przepisy Ustawy o AI i powiązane z nią przepisy.
Przestrzeganie postanowień ustawy o sztucznej inteligencji:
Dzięki temu banki mogą skutecznie optymalizować swoje operacje, minimalizując ryzyko nieścisłości lub naruszeń, budując jednocześnie zaufanie do swoich kompetencji wśród konsumentów usług finansowych.
Ustawa o sztucznej inteligencji (AI) reguluje wykorzystanie sztucznej inteligencji w sektorze bankowym, wprowadzając nowe obowiązki i przepisy mające na celu zapewnienie bezpieczeństwa, przejrzystości i zgodności technologii AI z normami prawnymi. Ustawa nakłada surowe wymogi, ale jednocześnie stwarza bankom możliwości budowania zaufania klientów i wspierania innowacji.
Szybki rozwój technologii niesie ze sobą zarówno nowe możliwości, jak i w dużej mierze nieprzewidywalne zagrożenia, co oznacza, że zmieniające się przepisy muszą być stale monitorowane.