W ostatnich latach, sztuczna inteligencja (AI) Szybko zyskała na znaczeniu, odgrywając kluczową rolę w życiu ludzi i funkcjonowaniu organizacji, transformując zarówno codzienne działania, jak i operacje biznesowe. Chociaż wykorzystanie systemów sztucznej inteligencji może być korzystne w wielu obszarach, budziło wiele obaw i wywoływało dyskusje na temat regulacji.
W obliczu tych wyzwań Parlament Europejski przyjął rozporządzenie w sprawie sztucznej inteligencji, znane jako Ustawa o sztucznej inteligencji, która jest pierwszym ostatecznym i konkretnym aktem prawnym mającym na celu uregulowanie wykorzystania systemów sztucznej inteligencji na różnych rynkach, w tym w silnie regulowanym sektorze bankowym, w którym informacje finansowe i osobowe muszą być obsługiwane w sposób odpowiedzialny i skutecznie chronione.
Czym jest europejska ustawa o sztucznej inteligencji i jakie ma znaczenie dla bankowości? Na te pytania postaramy się odpowiedzieć w tym artykule.
Istnieje wiele procesów bankowych, które obecnie wykorzystują sztuczną inteligencję i prawdopodobnie będą nadal wykorzystywać te technologie w przyszłości. Wśród nich można wyróżnić:

W tych procesach modele przetwarzania języka są wykorzystywane do analizy i systematyzowania dużych wolumenów danych w sposób, który jest zazwyczaj szybszy i bardziej precyzyjny niż przetwarzanie ręczne. Dlatego wszystkie powyższe wchodzą w zakres ustawy o sztucznej inteligencji.
Sztuczna inteligencja może być wykorzystywana do wielu celów, od rozrywki po wysoce wyspecjalizowane aplikacje biznesowe. Ze względu na potencjał imitacji, symulacji i rozszerzania rzeczywistości, jej nieetyczne wykorzystanie wiąże się z szeregiem zagrożeń i może prowadzić do powstawania fałszywych materiałów medialnych (tzw. deepfake), stronniczości algorytmicznej oraz naruszeń prywatności. Aby zapobiec tym zagrożeniom, konieczne jest ustanowienie jasnych wytycznych dotyczących odpowiedzialnej dystrybucji i konsumpcji sztucznej inteligencji.
Ustawa o sztucznej inteligencji definiuje System AI jako system oparty na maszynach, zaprojektowany do działania na różnych poziomach autonomii. Jego inne cechy to adaptowalność po wdrożeniu oraz zdolność do wnioskowania, jak generować wyniki na podstawie danych wejściowych. Wyniki te mogą przybierać formę prognoz, treści, rekomendacji lub decyzji wpływających na środowisko fizyczne lub wirtualne.
Jednocześnie ustawa nie definiuje Model AI. Wspomina tylko „modele sztucznej inteligencji ogólnego przeznaczenia”, które są trenowane na dużych zbiorach danych i mogą wykonywać szeroką gamę różnych zadań.

W ustawie wskazano, że ustalenie, czy oprogramowanie jest systemem sztucznej inteligencji, powinno opierać się na ocenie jego architektury i funkcjonalności, z uwzględnieniem siedmiu elementów definicji:
Powyższe warunki mogą występować wybiórczo na etapie budowy lub użytkowania systemu.
Metody modelowania To matematyczne i algorytmiczne techniki reprezentacji rzeczywistych procesów w formie modeli, które umożliwiają ich analizę, przewidywanie lub optymalizację. W zależności od podejścia, mogą one opierać się na regułach i formułach lub na danych i samouczeniu.
Poniższa uproszczona klasyfikacja opiera się na: Podsumowanie działań grupy roboczej ds. sztucznej inteligencji na Forum Technologii Bankowych za kwiecień 2025 r..
Modelowanie klasyczne podąża za ustalonymi zasadami i formułami stworzonymi przez ludzi, podczas gdy sztuczna inteligencja opiera się na algorytmach z elementem uczącym się, służących do tworzenia systemów zdolnych do wykonywania zadań, do których zazwyczaj potrzebna jest ludzka inteligencja.
Klasyfikacja metod modelowania
Uczenie maszynowe (ML) Metody częściowo pasują do obu powyższych kategorii, ale ich klasyfikacja nie zawsze będzie prosta. Podczas gdy tradycyjne modele uczenia maszynowego, takie jak regresja liniowa czy drzewa decyzyjne, opierają się na stałych regułach matematycznych i specyficznej logice, istnieją bardziej zaawansowane metody, które uczą się wzorców na podstawie informacji zwrotnych.
Głębokie uczenie (DL) Metody te stanowią podzbiór uczenia maszynowego. Wykorzystują wielowarstwowe sieci neuronowe do analizy złożonych wzorców i dużych zbiorów danych. Są wykorzystywane w analizie dźwięku, rozpoznawaniu obrazów i przetwarzaniu języka naturalnego (NLP).
Generatywna sztuczna inteligencja (GenAI) jest podzbiorem głębokiego uczenia obejmującym metody, które uczą się na podstawie wzorców pochodzących z dużych zbiorów danych w celu generowania podobnej treści, takiej jak obrazy, filmy lub dźwięki.
Każda z powyższych metod modelowania ma inne możliwości, zastosowania i ograniczenia. Odpowiednia klasyfikacja systemów AI pozwala na ich efektywne i odpowiedzialne wykorzystanie, pomagając w ten sposób ograniczyć potencjalne zagrożenia bezpieczeństwa.
Ustawa o sztucznej inteligencji (AI) ma na celu zapewnienie bezpiecznego wykorzystania sztucznej inteligencji przy jednoczesnym zachowaniu podstawowych praw człowieka. Jednocześnie kolejnym celem tej regulacji jest stymulowanie innowacji i zachęcanie do inwestycji w AI. Jest zatem jasne, że Celem ustawy nie jest zakazanie ani ograniczenie wykorzystania sztucznej inteligencji, lecz zachęcenie do odpowiedzialnego jej stosowania.
W niniejszym rozporządzeniu określono różne strony zaangażowane w zastosowanie sztucznej inteligencjiod dostawców, poprzez podmioty wdrażające, importerów i dystrybutorów, aż po producentów, a jego postanowienia mają zastosowanie do wszystkich podmiotów, które spełniają co najmniej jeden z poniższych wymogów:
Należy zauważyć, że unijna ustawa o sztucznej inteligencji ma zakres „horyzontalny”, co oznacza, że zamiast odnosić się do poszczególnych branż, takich jak sektor bankowy, czy konkretnych typów systemów sztucznej inteligencji, rozporządzenie ma szerokie zastosowanie, koncentrując się na wykorzystaniu sztucznej inteligencji w różnych obszarach i terytoriach. Pod tym względem przypomina ono przepisy RODO i DORA, ponieważ również mają one charakter ogólny.
Systemy sztucznej inteligencji są obecnie wykorzystywane do wielu różnych celów, dlatego też, aby regulować ich wykorzystanie, europejski prawodawca zorganizował stosowanie różnych przepisów w oparciu o trzeci wyrażający poziom ryzyka związanego z narzędziem lub jego użytkowaniem.
Ryzyko minimalne lub żadne. Chociaż w tej kategorii nie określono obowiązkowych wymogów, ustawa o sztucznej inteligencji zachęca, aby wszystkie strony zaangażowane w produkcję, dystrybucję i wdrażanie systemów sztucznej inteligencji o minimalnym ryzyku przestrzegały odpowiednich kodeksów postępowania.
Poziomy ryzyka
W ten sposób ustawa UE o sztucznej inteligencji obejmuje wiele różnych systemów i rozwiązań wykorzystywanych w wielu branżach, dostarczając wytycznych dotyczących ich bezpiecznego i odpowiedzialnego stosowania.
Klasyfikując systemy oparte na sztucznej inteligencji pod kątem ryzyka, należy uważnie przyjrzeć się kontekstowi, w jakim dane rozwiązanie ma być wykorzystywane. W tym kontekście konieczna będzie analiza jego wpływu na jednostki i ich prawa, z uwzględnieniem potencjalnego ryzyka szkody.
Praktyki zakazane na mocy przepisów ustawy o sztucznej inteligencji obejmują profilowanie osób w celu przewidywania lub oceny ryzyka popełnienia przez nie przestępstwa, kategoryzowanie osób na podstawie danych biometrycznych w celu określenia wrażliwych cech oraz wyciąganie wniosków na temat emocji danej osoby na podstawie danych biometrycznych.
Wśród zakazanych praktyk można wyróżnić również stosowanie manipulacji lub technik podprogowych w celu wykorzystania podatności jednostek lub grup osób w oparciu o ich wiek, niepełnosprawność lub sytuację społeczną lub ekonomiczną. Przykładem systemu AI, który mógłby znaleźć zastosowanie w bankowości, może być system personalizacji ofert finansowych z wykorzystaniem stronniczych danych; na przykład system bazujący na informacjach o grupach wiekowych klientów mógłby oferować osobom starszym produkty finansowe na niekorzystnych warunkach, powodując dla nich straty finansowe. Ważne jest zatem zapewnienie, że dane i narzędzia wykorzystywane przez banki w procesach wspomaganych przez sztuczną inteligencję są wykorzystywane w sposób odpowiedzialny i odpowiedni do zamierzonych celów.
Wśród mechanizmów zakazanych przez ustawę o sztucznej inteligencji, które mają mniejsze szanse na zastosowanie w bankowości, można wymienić scoring społecznościowy i nieukierunkowane scrapowanie.

Zdecydowana większość obowiązków wynikających z ustawy o sztucznej inteligencji dotyczy systemów wysokiego ryzyka, do których zalicza się także większość zastosowań sztucznej inteligencji w bankowości.
Wśród kryteriów klasyfikowania systemów AI jako rozwiązań wysokiego ryzyka można wymienić wykorzystanie zdalnych systemów identyfikacji biometrycznej, w tym narzędzi AI służących do kategoryzacji biometrycznej na podstawie wrażliwych cech. W obszarze zatrudnienia i zarządzania pracownikami, do tej kategorii zaliczają się również systemy wykorzystywane w procesach rekrutacyjnych lub do przydzielania zadań pracownikom banku. Innym zastosowaniem systemów AI w tej kategorii jest zapewnienie bezpieczeństwa krytycznej infrastruktury cyfrowej.
W zakresie obsługi klientów banku, wśród systemów wysokiego ryzyka znajdziemy narzędzia do oceny zdolności kredytowej oraz, rzadziej, narzędzia do oceny ryzyka ubezpieczeniowego. Przykładem jest system monitorowania ryzyka kredytowego w czasie rzeczywistym, który poprzez samoczynną adaptację do nowych danych, aktualizuje parametry oceny i podejmuje decyzje na podstawie generowanych wyników.
Ustawa o sztucznej inteligencji Przewidziano również utworzenie Europejskiego Urzędu ds. Sztucznej Inteligencji (EABI), organizacji nadzorującej wdrażanie przepisów ustawy, w skład której wchodzą przedstawiciele państw członkowskich UE. Zadaniem Urzędu jest wspieranie rozwoju i odpowiedzialnego wykorzystywania technologii AI, przy jednoczesnym zapewnieniu ochrony przed związanymi z tym zagrożeniami. Do jego obowiązków należy egzekwowanie zasad postępowania dla modeli AI ogólnego przeznaczenia. Instytucja pełni również funkcję doradczą, wspierając organy państw członkowskich w wykonywaniu ich zadań wynikających z ustawy o AI.
W pewnym zakresie nadzór i egzekwowanie ustawy o sztucznej inteligencji (AI) mają zostać powierzone organom odpowiedzialnym za daną branżę. W przypadku usług bankowych i finansowych będą to właściwe organy nadzoru finansowego w państwach członkowskich, wraz z Europejskimi Urzędami Nadzoru (ESA): Europejski Urząd Nadzoru Bankowego (EBA), Europejski Urząd Nadzoru Giełd i Papierów Wartościowych (ESMA) i Europejski Urząd Nadzoru Ubezpieczeń i Programów Emerytalnych (EIOPA).
Ze względu na jej normatywny charakter, natychmiastowe wdrożenie środków zapewniających zgodność z Ustawą o sztucznej inteligencji (AI) byłoby zasadniczo niemożliwe dla większości organizacji. Z tego powodu jej wdrażanie zostało rozłożone na trzy lata.
Z efektywnym wykorzystaniem sztucznej inteligencji w bankowości wiąże się wiele możliwości i optymalizacji procesów. Jednocześnie jej nieodpowiedzialne i niekompetentne wykorzystanie może mieć poważne konsekwencje. Dlatego ważne jest, aby instytucje finansowe potrafiły identyfikować ryzyka związane z wdrażaniem nowoczesnych rozwiązań opartych na sztucznej inteligencji i im zapobiegać.
Umiejętna interpretacja przepisów i zastosowań Ustawy o sztucznej inteligencji w bankowości stanowi fundamentalny krok w kierunku zapewnienia zgodności z przepisami, zwiększenia bezpieczeństwa i przejrzystości systemów sztucznej inteligencji, minimalizacji ryzyka prawnego i budowania zaufania klientów do technologii wykorzystywanych w usługach finansowych.