Bankowość w erze sztucznej inteligencji: spostrzeżenia na temat ustawy o sztucznej inteligencji w sektorze finansowym

Zespół Eximee
Opublikowano 09 czerwca 2025 r.

W ostatnich latach, sztuczna inteligencja (AI) Szybko zyskała na znaczeniu, odgrywając kluczową rolę w życiu ludzi i funkcjonowaniu organizacji, transformując zarówno codzienne działania, jak i operacje biznesowe. Chociaż wykorzystanie systemów sztucznej inteligencji może być korzystne w wielu obszarach, budziło wiele obaw i wywoływało dyskusje na temat regulacji.

W obliczu tych wyzwań Parlament Europejski przyjął rozporządzenie w sprawie sztucznej inteligencji, znane jako Ustawa o sztucznej inteligencji, która jest pierwszym ostatecznym i konkretnym aktem prawnym mającym na celu uregulowanie wykorzystania systemów sztucznej inteligencji na różnych rynkach, w tym w silnie regulowanym sektorze bankowym, w którym informacje finansowe i osobowe muszą być obsługiwane w sposób odpowiedzialny i skutecznie chronione.

Czym jest europejska ustawa o sztucznej inteligencji i jakie ma znaczenie dla bankowości? Na te pytania postaramy się odpowiedzieć w tym artykule.

Obszary zastosowań sztucznej inteligencji w bankowości

Istnieje wiele procesów bankowych, które obecnie wykorzystują sztuczną inteligencję i prawdopodobnie będą nadal wykorzystywać te technologie w przyszłości. Wśród nich można wyróżnić:

  • Należyta staranność wobec klienta (CDD): weryfikacja tożsamości i profilu ryzyka w celu oceny istotnych faktów dotyczących danej osoby lub firmy, aby ograniczyć ryzyko związane z przestępstwami finansowymi.
  • Ocena kredytowa: ocena zdolności kredytowej oparta na algorytmach.
  • Wykrywanie oszustw: analiza wzorców transakcji w celu rozpoznania nieprawidłowości i zidentyfikowania operacji oszukańczych.
  • Automatyzacja procesów: optymalizacja obciążenia pracą poprzez automatyzację powtarzalnych zadań manualnych.
  • Pomoc dla klientów oparta na sztucznej inteligencji: automatyzacja obsługi klienta z wykorzystaniem chatbotów, robo-doradców i osobistych asystentów AI.
  • Personalizacja usług: spersonalizowane komunikaty i oferty oparte na konkretnych cechach klienta i jego dotychczasowych działaniach.
  • Systemy ocen klientów: systemy służące do zbierania i przetwarzania opinii klientów w celu pomiaru zadowolenia klientów i w konsekwencji poprawy jakości obsługi klientów.

W tych procesach modele przetwarzania języka są wykorzystywane do analizy i systematyzowania dużych wolumenów danych w sposób, który jest zazwyczaj szybszy i bardziej precyzyjny niż przetwarzanie ręczne. Dlatego wszystkie powyższe wchodzą w zakres ustawy o sztucznej inteligencji.

Dlaczego należy regulować wykorzystanie sztucznej inteligencji?

Sztuczna inteligencja może być wykorzystywana do wielu celów, od rozrywki po wysoce wyspecjalizowane aplikacje biznesowe. Ze względu na potencjał imitacji, symulacji i rozszerzania rzeczywistości, jej nieetyczne wykorzystanie wiąże się z szeregiem zagrożeń i może prowadzić do powstawania fałszywych materiałów medialnych (tzw. deepfake), stronniczości algorytmicznej oraz naruszeń prywatności. Aby zapobiec tym zagrożeniom, konieczne jest ustanowienie jasnych wytycznych dotyczących odpowiedzialnej dystrybucji i konsumpcji sztucznej inteligencji.

Systemy i modele sztucznej inteligencji zgodnie z ustawą o sztucznej inteligencji

Ustawa o sztucznej inteligencji definiuje System AI jako system oparty na maszynach, zaprojektowany do działania na różnych poziomach autonomii. Jego inne cechy to adaptowalność po wdrożeniu oraz zdolność do wnioskowania, jak generować wyniki na podstawie danych wejściowych. Wyniki te mogą przybierać formę prognoz, treści, rekomendacji lub decyzji wpływających na środowisko fizyczne lub wirtualne.

Jednocześnie ustawa nie definiuje Model AI. Wspomina tylko „modele sztucznej inteligencji ogólnego przeznaczenia”, które są trenowane na dużych zbiorach danych i mogą wykonywać szeroką gamę różnych zadań.

Kluczowe elementy definiujące systemy AI

W ustawie wskazano, że ustalenie, czy oprogramowanie jest systemem sztucznej inteligencji, powinno opierać się na ocenie jego architektury i funkcjonalności, z uwzględnieniem siedmiu elementów definicji:

  1. Warunek konieczny: system oparty na maszynie. System sztucznej inteligencji musi zostać zbudowany i uruchomiony na maszynach, zarówno pod względem sprzętowym, jak i programowym.
  2. Warunek konieczny: system zaprojektowany z uwzględnieniem różnych poziomów autonomii. Autonomia jest tu definiowana w kontekście interakcji człowiek-maszyna, a system AI w tym przypadku rozumiany jest jako system, który może działać niezależnie od zaangażowania człowieka w jego funkcjonowanie. Ręczne dostarczanie danych wejściowych do systemu w celu wygenerowania wyniku nie pozbawia go autonomii, dlatego też jedynie narzędzia wymagające pełnego zaangażowania człowieka w ich działanie nie spełniają tego warunku.
  3. Warunek opcjonalny: system może wykazywać zdolność adaptacji. System może również wykazywać zdolność do samouczenia się w trakcie użytkowania po wdrożeniu. W rezultacie może generować różne wyniki na podstawie tych samych danych wejściowych.
  4. Warunek konieczny: cel systemu jest jawny lub ukryty. Cele niejawne to takie, które nie zostały wyraźnie zdefiniowane przez programistę, ale mogą wynikać z czynników takich jak interakcja systemu ze środowiskiem. Ten warunek jest zawsze spełniony w praktyce.
  5. Warunek konieczny: system generuje dane wyjściowe. System potrafi wnioskować, jak generować wyniki, tworząc modele AI lub algorytmy na podstawie danych wejściowych. Spełnienie tego warunku jest możliwe dzięki zastosowaniu odpowiednich technik modelowania.
  6. Warunek wymagany: typy generowanych wyników. Narzędzia AI wykorzystują zaawansowane systemy modelowania i złożone wzorce, aby generować wyniki klasyfikowane jako prognozy, treści, rekomendacje lub decyzje. Ten warunek jest zawsze spełniony w praktyce.
  7. Warunek opcjonalny: wyniki mogą mieć wpływ na środowisko fizyczne lub wirtualne. Oznacza to, że wyniki generowane przez systemy AI znajdują zastosowanie w rzeczywistych procesach, co jest szczególnie istotne w procesie oceny ryzyka związanego z wykorzystaniem sztucznej inteligencji. Warunek ten jest zawsze spełniony w praktyce.

Powyższe warunki mogą występować wybiórczo na etapie budowy lub użytkowania systemu.

Klasyfikacja metod modelowania

Metody modelowania To matematyczne i algorytmiczne techniki reprezentacji rzeczywistych procesów w formie modeli, które umożliwiają ich analizę, przewidywanie lub optymalizację. W zależności od podejścia, mogą one opierać się na regułach i formułach lub na danych i samouczeniu.

Poniższa uproszczona klasyfikacja opiera się na: Podsumowanie działań grupy roboczej ds. sztucznej inteligencji na Forum Technologii Bankowych za kwiecień 2025 r..

Modelowanie klasyczne podąża za ustalonymi zasadami i formułami stworzonymi przez ludzi, podczas gdy sztuczna inteligencja opiera się na algorytmach z elementem uczącym się, służących do tworzenia systemów zdolnych do wykonywania zadań, do których zazwyczaj potrzebna jest ludzka inteligencja.

Klasyfikacja metod modelowania

Klasyfikacja metod modelowania

Uczenie maszynowe (ML) Metody częściowo pasują do obu powyższych kategorii, ale ich klasyfikacja nie zawsze będzie prosta. Podczas gdy tradycyjne modele uczenia maszynowego, takie jak regresja liniowa czy drzewa decyzyjne, opierają się na stałych regułach matematycznych i specyficznej logice, istnieją bardziej zaawansowane metody, które uczą się wzorców na podstawie informacji zwrotnych.

Głębokie uczenie (DL) Metody te stanowią podzbiór uczenia maszynowego. Wykorzystują wielowarstwowe sieci neuronowe do analizy złożonych wzorców i dużych zbiorów danych. Są wykorzystywane w analizie dźwięku, rozpoznawaniu obrazów i przetwarzaniu języka naturalnego (NLP).

Generatywna sztuczna inteligencja (GenAI) jest podzbiorem głębokiego uczenia obejmującym metody, które uczą się na podstawie wzorców pochodzących z dużych zbiorów danych w celu generowania podobnej treści, takiej jak obrazy, filmy lub dźwięki.

Każda z powyższych metod modelowania ma inne możliwości, zastosowania i ograniczenia. Odpowiednia klasyfikacja systemów AI pozwala na ich efektywne i odpowiedzialne wykorzystanie, pomagając w ten sposób ograniczyć potencjalne zagrożenia bezpieczeństwa.

Jakie są przepisy Ustawy o sztucznej inteligencji?

Ustawa o sztucznej inteligencji (AI) ma na celu zapewnienie bezpiecznego wykorzystania sztucznej inteligencji przy jednoczesnym zachowaniu podstawowych praw człowieka. Jednocześnie kolejnym celem tej regulacji jest stymulowanie innowacji i zachęcanie do inwestycji w AI. Jest zatem jasne, że Celem ustawy nie jest zakazanie ani ograniczenie wykorzystania sztucznej inteligencji, lecz zachęcenie do odpowiedzialnego jej stosowania.

W niniejszym rozporządzeniu określono różne strony zaangażowane w zastosowanie sztucznej inteligencjiod dostawców, poprzez podmioty wdrażające, importerów i dystrybutorów, aż po producentów, a jego postanowienia mają zastosowanie do wszystkich podmiotów, które spełniają co najmniej jeden z poniższych wymogów:

  • podmioty mające siedzibę lub zlokalizowane w UE, które wykorzystują systemy sztucznej inteligencji do celów biznesowych,
  • podmioty mające siedzibę lub działające w UE lub poza nią, dostarczające narzędzia sztucznej inteligencji na rynek UE,
  • podmioty mające siedzibę lub działające w UE lub poza nią, które wykorzystują systemy sztucznej inteligencji do celów biznesowych, a wyniki pracy tych systemów są wykorzystywane na terytorium Unii Europejskiej.

Należy zauważyć, że unijna ustawa o sztucznej inteligencji ma zakres „horyzontalny”, co oznacza, że ​​zamiast odnosić się do poszczególnych branż, takich jak sektor bankowy, czy konkretnych typów systemów sztucznej inteligencji, rozporządzenie ma szerokie zastosowanie, koncentrując się na wykorzystaniu sztucznej inteligencji w różnych obszarach i terytoriach. Pod tym względem przypomina ono przepisy RODO i DORA, ponieważ również mają one charakter ogólny.

Wielopoziomowy system wymogów regulacyjnych

Systemy sztucznej inteligencji są obecnie wykorzystywane do wielu różnych celów, dlatego też, aby regulować ich wykorzystanie, europejski prawodawca zorganizował stosowanie różnych przepisów w oparciu o trzeci wyrażający poziom ryzyka związanego z narzędziem lub jego użytkowaniem.

  • Niedopuszczalne ryzyko. Do tej kategorii zaliczają się systemy oparte na scoringu społecznym oraz systemy wykorzystujące zdalną identyfikację biometryczną w czasie rzeczywistym. Korzystanie z nich jest surowo zabronione na mocy ustawy o sztucznej inteligencji (AI Act).
  • Wysokie ryzyko. Przed wprowadzeniem na rynek systemy wysokiego ryzyka muszą przejść ocenę zgodności, a ich stosowanie jest dozwolone pod warunkiem, że podmiot operacyjny zapewni odpowiednie procesy zarządzania ryzykiem, procedury zarządzania danymi oraz środki cyberbezpieczeństwa. W bankowości do systemów tej kategorii zaliczają się modele scoringu kredytowego oparte na sztucznej inteligencji (AI) oraz systemy wykrywania oszustw.
  • Ograniczone ryzyko. Rozwiązania mające na celu poprawę jakości obsługi klienta, takie jak chatboty i generatywne systemy sztucznej inteligencji, podlegają wymogom przejrzystości, co oznacza, że ​​użytkownik musi zostać poinformowany, że treść, którą przegląda lub z którą wchodzi w interakcję, została wygenerowana przez sztuczną inteligencję.

Ryzyko minimalne lub żadne. Chociaż w tej kategorii nie określono obowiązkowych wymogów, ustawa o sztucznej inteligencji zachęca, aby wszystkie strony zaangażowane w produkcję, dystrybucję i wdrażanie systemów sztucznej inteligencji o minimalnym ryzyku przestrzegały odpowiednich kodeksów postępowania.

Poziomy ryzyka

Poziomy ryzyka

W ten sposób ustawa UE o sztucznej inteligencji obejmuje wiele różnych systemów i rozwiązań wykorzystywanych w wielu branżach, dostarczając wytycznych dotyczących ich bezpiecznego i odpowiedzialnego stosowania.

Kryteria klasyfikacji praktyk zabronionych przez ustawę o sztucznej inteligencji w kontekście podmiotów finansowych

Klasyfikując systemy oparte na sztucznej inteligencji pod kątem ryzyka, należy uważnie przyjrzeć się kontekstowi, w jakim dane rozwiązanie ma być wykorzystywane. W tym kontekście konieczna będzie analiza jego wpływu na jednostki i ich prawa, z uwzględnieniem potencjalnego ryzyka szkody.

Praktyki zakazane na mocy przepisów ustawy o sztucznej inteligencji obejmują profilowanie osób w celu przewidywania lub oceny ryzyka popełnienia przez nie przestępstwa, kategoryzowanie osób na podstawie danych biometrycznych w celu określenia wrażliwych cech oraz wyciąganie wniosków na temat emocji danej osoby na podstawie danych biometrycznych.

Wśród zakazanych praktyk można wyróżnić również stosowanie manipulacji lub technik podprogowych w celu wykorzystania podatności jednostek lub grup osób w oparciu o ich wiek, niepełnosprawność lub sytuację społeczną lub ekonomiczną. Przykładem systemu AI, który mógłby znaleźć zastosowanie w bankowości, może być system personalizacji ofert finansowych z wykorzystaniem stronniczych danych; na przykład system bazujący na informacjach o grupach wiekowych klientów mógłby oferować osobom starszym produkty finansowe na niekorzystnych warunkach, powodując dla nich straty finansowe. Ważne jest zatem zapewnienie, że dane i narzędzia wykorzystywane przez banki w procesach wspomaganych przez sztuczną inteligencję są wykorzystywane w sposób odpowiedzialny i odpowiedni do zamierzonych celów.

Wśród mechanizmów zakazanych przez ustawę o sztucznej inteligencji, które mają mniejsze szanse na zastosowanie w bankowości, można wymienić scoring społecznościowy i nieukierunkowane scrapowanie.

Kryteria klasyfikacji systemów wysokiego ryzyka w kontekście podmiotów finansowych

Zdecydowana większość obowiązków wynikających z ustawy o sztucznej inteligencji dotyczy systemów wysokiego ryzyka, do których zalicza się także większość zastosowań sztucznej inteligencji w bankowości.

Wśród kryteriów klasyfikowania systemów AI jako rozwiązań wysokiego ryzyka można wymienić wykorzystanie zdalnych systemów identyfikacji biometrycznej, w tym narzędzi AI służących do kategoryzacji biometrycznej na podstawie wrażliwych cech. W obszarze zatrudnienia i zarządzania pracownikami, do tej kategorii zaliczają się również systemy wykorzystywane w procesach rekrutacyjnych lub do przydzielania zadań pracownikom banku. Innym zastosowaniem systemów AI w tej kategorii jest zapewnienie bezpieczeństwa krytycznej infrastruktury cyfrowej.

W zakresie obsługi klientów banku, wśród systemów wysokiego ryzyka znajdziemy narzędzia do oceny zdolności kredytowej oraz, rzadziej, narzędzia do oceny ryzyka ubezpieczeniowego. Przykładem jest system monitorowania ryzyka kredytowego w czasie rzeczywistym, który poprzez samoczynną adaptację do nowych danych, aktualizuje parametry oceny i podejmuje decyzje na podstawie generowanych wyników.

Utworzenie Europejskiego Biura ds. Sztucznej Inteligencji

Ustawa o sztucznej inteligencji Przewidziano również utworzenie Europejskiego Urzędu ds. Sztucznej Inteligencji (EABI), organizacji nadzorującej wdrażanie przepisów ustawy, w skład której wchodzą przedstawiciele państw członkowskich UE. Zadaniem Urzędu jest wspieranie rozwoju i odpowiedzialnego wykorzystywania technologii AI, przy jednoczesnym zapewnieniu ochrony przed związanymi z tym zagrożeniami. Do jego obowiązków należy egzekwowanie zasad postępowania dla modeli AI ogólnego przeznaczenia. Instytucja pełni również funkcję doradczą, wspierając organy państw członkowskich w wykonywaniu ich zadań wynikających z ustawy o AI.

W pewnym zakresie nadzór i egzekwowanie ustawy o sztucznej inteligencji (AI) mają zostać powierzone organom odpowiedzialnym za daną branżę. W przypadku usług bankowych i finansowych będą to właściwe organy nadzoru finansowego w państwach członkowskich, wraz z Europejskimi Urzędami Nadzoru (ESA): Europejski Urząd Nadzoru Bankowego (EBA), Europejski Urząd Nadzoru Giełd i Papierów Wartościowych (ESMA) i Europejski Urząd Nadzoru Ubezpieczeń i Programów Emerytalnych (EIOPA).

Harmonogram ustawy o sztucznej inteligencji

Ze względu na jej normatywny charakter, natychmiastowe wdrożenie środków zapewniających zgodność z Ustawą o sztucznej inteligencji (AI) byłoby zasadniczo niemożliwe dla większości organizacji. Z tego powodu jej wdrażanie zostało rozłożone na trzy lata.

  • Ustawa o sztucznej inteligencji weszła w życie August 1, 2024 dając organizacjom czas na dostosowanie się do jego postanowień w miarę upływu czasu.
  • W życie weszły przepisy ogólne i zakaz stosowania systemów sztucznej inteligencji o niedopuszczalnym ryzyku 2 lutego 2025 r.To jest moment, w którym banki powinny już wdrożyć procedury kwalifikacji systemów AI i zapobiegania praktykom zabronionym przez ustawę.
  • W przypadku systemów sztucznej inteligencji ogólnego przeznaczenia stosowanie kodeksów postępowania powinno zostać zakończone do May 2, 2025 .
  • Państwa członkowskie UE są zobowiązane do wyznaczenia własnych organów, których zadaniem będzie nadzór nad przestrzeganiem ustawy o sztucznej inteligencji. August 2, 2025 . Zaczną również obowiązywać kary administracyjne.
  • August 2, 2026 Będzie to ważna data dla sektora bankowego, ponieważ wtedy wejdą w życie przepisy dotyczące stosowania systemów AI wysokiego ryzyka, a większość systemów AI wykorzystywanych w usługach finansowych należy do tej kategorii. Obowiązywać będą również obowiązki informacyjne związane z wykorzystaniem AI.

Instytucje finansowe wobec rozwoju technologii AI

Z efektywnym wykorzystaniem sztucznej inteligencji w bankowości wiąże się wiele możliwości i optymalizacji procesów. Jednocześnie jej nieodpowiedzialne i niekompetentne wykorzystanie może mieć poważne konsekwencje. Dlatego ważne jest, aby instytucje finansowe potrafiły identyfikować ryzyka związane z wdrażaniem nowoczesnych rozwiązań opartych na sztucznej inteligencji i im zapobiegać.

Umiejętna interpretacja przepisów i zastosowań Ustawy o sztucznej inteligencji w bankowości stanowi fundamentalny krok w kierunku zapewnienia zgodności z przepisami, zwiększenia bezpieczeństwa i przejrzystości systemów sztucznej inteligencji, minimalizacji ryzyka prawnego i budowania zaufania klientów do technologii wykorzystywanych w usługach finansowych.

  • Corpo
  • Trendy

Autorzy

Zespół Eximee