Zarządzanie sztuczną inteligencją w bankowości: budowanie zaufania i minimalizowanie ryzyka

Zespół Eximee
Opublikowano 10 lipca 2025 r.

Sztuczna inteligencja otwiera przed bankami nowe możliwości, takie jak: automatyzacja procesów, wspierając analizę ryzyka, personalizację usług czy wykrywanie oszustw. Jednocześnie niesie ze sobą zagrożenia związane z potencjalnymi błędnymi decyzjami podejmowanymi przez algorytmy i zagrożenia dla cyberbezpieczeństwa. Wraz z przepisami takimi jak Ustawa UE o sztucznej inteligencji Po wejściu w życie tej ustawy instytucje finansowe muszą podjąć działania mające na celu efektywne zarządzanie systemami AI, zapewnienie ich przejrzystości i niezawodności, aby móc budować zaufanie klientów i organów regulacyjnych.

W tym artykule omówimy znaczenie Zarządzanie AI, kompleksowe podejście do nadzoru nad systemami AI, obejmujące regulacje, zasady etyki działania i mechanizmy kontroli ryzyka. Będzie ono również próbą odpowiedzi na pytania, jak zarządzanie AI wpływa na budowanie zaufania i jakie ryzyka związane ze stosowaniem systemów AI powinny być monitorowane w sektorze bankowym.

Podstawy zaufania do systemów AI

Powszechne wykorzystanie i szybki rozwój systemów sztucznej inteligencji budzą obawy wśród osób korzystających z tych narzędzi. Dlatego ważne jest, aby zapewnić odpowiednie bezpieczeństwo danych przetwarzanych przez systemy AI oraz transparentność i zrozumiałość procesów.

Według Wytyczne etyczne dotyczące godnej zaufania sztucznej inteligencji opublikowane przez Komisję Europejską, podstawowe elementy budujące zaufanie do systemów sztucznej inteligencji opierają się na czterech zasadach etycznych:

  • Poszanowanie autonomii człowieka. Systemy sztucznej inteligencji nie mogą oszukiwać, kontrolować ani manipulować ludźmi, a interakcje z takimi systemami muszą zapewniać ludziom pełną zdolność do samostanowienia i uczestnictwa w procesie demokratycznym, dając im realne możliwości dokonywania wyborów. Systemy sztucznej inteligencji powinny również rozwijać ludzkie umiejętności poznawcze, społeczne i kulturowe w trakcie takich interakcji oraz wspierać ludzi w środowisku pracy.
  • Zapobieganie szkodom. Systemy sztucznej inteligencji nie powinny mieć negatywnego wpływu na ludzi, zapewniając ochronę ich godności oraz integralności psychicznej i fizycznej. Zasada ta obejmuje również wymóg zapewnienia technicznej niezawodności takich systemów, a także wykluczenia ich podatności na wykorzystanie w celach szkodliwych zarówno dla ludzi, jak i dla środowiska. Ponadto zwraca uwagę na potencjalne sytuacje, w których wykorzystanie sztucznej inteligencji może prowadzić do lub pogłębiać asymetrię władzy lub informacji, na przykład w relacjach między przedsiębiorstwami a konsumentami.
  • Uczciwość. Systemy AI muszą być opracowywane, wdrażane i wykorzystywane w sposób sprawiedliwy zarówno pod względem merytorycznym, jak i proceduralnym, zapewniający sprawiedliwy podział korzyści i kosztów oraz dążący do wzmocnienia sprawiedliwości społecznej. Systemy AI powinny być wykorzystywane w sposób równoważący sprzeczne interesy. Wszelkie procesy decyzyjne wspierane przez AI muszą być zrozumiałe i dawać podmiotom podlegającym możliwość kwestionowania ich wyników, przy jednoczesnym zachowaniu staranności w zakresie identyfikacji podmiotu odpowiedzialnego za te decyzje. Zasada ta podkreśla również, że stosowanie systemów sztucznej inteligencji nigdy nie powinno prowadzić do oszustwa ani ograniczania wolności wyboru użytkowników końcowych.
  • Wyjaśnialność. Systemy sztucznej inteligencji muszą przekazywać jasne i przejrzyste informacje o swoich celach i funkcjonowaniu, a wyniki ich działania muszą być możliwie najłatwiejsze do wyjaśnienia osobom, których dotyczą decyzje podejmowane przez system.

W tym samym dokumencie wymieniono siedem kluczowych czynników niezbędnych do stworzenia godnej zaufania sztucznej inteligencji, które wymagają systematycznej oceny w całym cyklu życia danego systemu AI:

  • Działanie i nadzór człowieka. Systemy sztucznej inteligencji (AI) powinny wspierać ludzi w podejmowaniu świadomych decyzji bez ograniczania ich możliwości wyboru, a autonomia użytkownika musi odgrywać kluczową rolę w działaniu każdego takiego systemu. Jeszcze przed wdrożeniem systemu należy przeprowadzić analizę jego wpływu na podstawowe prawa człowieka – zarówno pozytywnego, jak i negatywnego, w tym poprzez wykorzystanie procesów podświadomych, takich jak manipulacja czy warunkowanie, które mogłyby zagrozić autonomii jednostki. Dzięki temu ludzie powinni mieć dostęp do narzędzi i wiedzy umożliwiających im zrozumienie działania systemu, a także możliwość oceny lub kwestionowania decyzji podejmowanych przez system. Co więcej, im mniejsze prawdopodobieństwo kontroli człowieka nad systemem, tym bardziej rygorystyczne muszą być testy i procedury zarządzania nim.
  • Solidność techniczna i bezpieczeństwo. Systemy AI powinny być niezawodne, aby minimalizować ryzyko błędów i szkód, zarówno celowych, jak i nieoczekiwanych. W ten sposób ich celem jest zapewnienie integralności psychicznej i fizycznej osób z nich korzystających. Ponadto systemy AI muszą być odpowiednio zabezpieczone przed zagrożeniami technologicznymi i wyposażone w mechanizmy reagowania na awarie i sytuacje awaryjne. Działanie systemu powinno również charakteryzować się niezawodnością i powtarzalnością wyników.
  • Prywatność i zarządzanie danymi. Kluczowe jest zapewnienie jakości, integralności i trafności danych w kontekście danego obszaru wdrożenia. W związku z tym dane muszą być zabezpieczone na każdym etapie. Zbiory danych muszą być również wolne od uprzedzeń społecznych, błędów i nieścisłości, a przed rozpoczęciem szkolenia modeli sztucznej inteligencji należy zadbać o wyeliminowanie błędów. Ponadto wszystkie organizacje przetwarzające dane osobowe powinny wdrożyć protokoły regulujące dostęp do gromadzonych i przetwarzanych danych.
  • Przejrzystość. Termin ten odnosi się do przejrzystości danych, systemów i modelu biznesowego. Sposób gromadzenia i przetwarzania danych, stosowane algorytmy oraz decyzje podejmowane przez systemy AI powinny być dokumentowane w sposób zapewniający ich identyfikowalność, co z kolei sprzyja wyjaśnialności procesów technicznych. Co ważne, systemy AI muszą być rozpoznawalne jako takie, a użytkownik ma prawo wiedzieć, że wchodzi w interakcję z systemem AI.
  • Różnorodność, niedyskryminacja i sprawiedliwość. Godna zaufania sztuczna inteligencja musi uwzględniać zasady inkluzywności, różnorodności i równości na każdym etapie swojego cyklu życia, zapewniając równy dostęp i równe traktowanie wszystkim użytkownikom. Aby to osiągnąć, systemy muszą unikać wykorzystywania niesprawiedliwie stronniczych danych. Powinny być również projektowane z uwzględnieniem dostępności i różnorodności, umożliwiając wszystkim użytkownikom, w tym osobom z niepełnosprawnościami, równy dostęp do technologii poprzez włączenie zasad „uniwersalnego projektowania”.
  • Dobrobyt społeczny i środowiskowy. Systemy sztucznej inteligencji (AI) powinny uwzględniać interesy społeczeństwa, środowiska i istot świadomych, promować zrównoważony rozwój i wpływać na społeczeństwo w sposób korzystny dla obecnych i przyszłych pokoleń. Chociaż systemy AI mogą przyczyniać się do dobrostanu społeczeństwa, mogą również negatywnie wpływać na zdrowie psychiczne i fizyczne ludzi, dlatego ich wpływ powinien być uważnie monitorowany.
  • Odpowiedzialność. Wymóg ten wiąże się z koniecznością wdrożenia mechanizmów kontroli, minimalizacji i raportowania negatywnych skutków oraz zapewnienia odpowiednich środków zaradczych zarówno przed, jak i po wdrożeniu systemów AI. Informacje na temat modeli biznesowych i własności intelektualnej związanej z danym systemem AI muszą być szeroko dostępne.

Szanse i zagrożenia związane z wykorzystaniem sztucznej inteligencji

Istnieje wiele nowych możliwości związanych z wykorzystaniem sztucznej inteligencji w sektorze bankowym. Rozwiązania oparte na AI pozwalają bankom zwiększyć efektywność zadań i usług poprzez skrócenie czasu ich realizacji. Złożone zadania można wykonywać sprawnie i systematycznie, nawet z wykorzystaniem nieustrukturyzowanych danych, co w przypadku wdrożenia bez wsparcia AI mogłoby wiązać się z czasochłonnymi i podatnymi na błędy procedurami. W ten sposób umiejętne i efektywne wykorzystanie AI w usługach bankowych przyczynia się do optymalizacji kosztów operacyjnych.

Jednocześnie ważne jest rozpoznanie zagrożeń związanych z korzystaniem z nowych technologii. Poniższa klasyfikacja potencjalnych zagrożeń opiera się na Podsumowanie działań grupy roboczej ds. sztucznej inteligencji na Forum Technologii Bankowych za kwiecień 2025 r. i publikacja źródłowa IBM.

Istniejące wcześniej tradycyjne ryzyka

Tradycyjne ryzyka są to ryzyka, które występują zarówno w przypadku tradycyjne metody modelowania i generatywnej sztucznej inteligencji. Należą do nich:

  • ograniczenia wykorzystania danych, w przypadku których przepisy mogą zabraniać wykorzystywania pewnych danych do szkolenia modeli sztucznej inteligencji, co może prowadzić do generowania niereprezentatywnych wyników,
  • uwzględnienie w danych wykorzystywanych do trenowania modelu poufnych informacji osobistych i danych umożliwiających identyfikację osoby, co może skutkować niechcianym ujawnieniem tych informacji,
  • ponowna identyfikacja oznacza sytuację, w której możliwe jest zidentyfikowanie osób nawet po usunięciu wrażliwych i identyfikowalnych danych osobowych z zestawu danych użytego do trenowania modelu,
  • zatrucie danych,
  • błąd decyzyjny, w którym pewna grupa może zostać niesprawiedliwie uprzywilejowana w wyniku decyzji modelu sztucznej inteligencji ze względu na wykorzystanie stronniczych danych lub szkolenie stronniczego modelu,
  • brak przejrzystości systemu, w tym niewystarczająca dokumentacja, co utrudnia zrozumienie wpływu wyników generowanych przez model na funkcjonalność systemu lub aplikacji.

Ryzyko wzmacniane przez sztuczną inteligencję

Zwiększone ryzyko Odnoszą się do ryzyka intensyfikowanego przez generatywną sztuczną inteligencję, które może również występować w przypadku tradycyjnych metod modelowania. Należą do nich:

  • brak przejrzystości danych szkoleniowych, co może skutkować trudnościami w określeniu reprezentatywności danych,
  • niepewne pochodzenie danych związane z brakiem znormalizowanych metod weryfikacji pochodzenia danych, co może prowadzić do niepożądanych rezultatów ze względu na ryzyko wykorzystania nieetycznie zebranych, zmanipulowanych lub sfałszowanych danych,
  • ograniczenia w zakresie pozyskiwania danych i praw użytkowania wynikające z przepisów prawa, co może skutkować niewystarczającą dostępnością danych potrzebnych do trenowania modelu i generowania reprezentatywnych wyników,
  • błąd danych (w postaci danych opartych na historycznych i społecznych uprzedzeniach), który może prowadzić do generowania wyników dyskryminujących jednostki lub grupy jednostek,
  • niewłaściwa kuracja danych, zarówno w zakresie gromadzenia, jak i przygotowywania danych do trenowania modelu, np. poprzez wykorzystanie sprzecznych lub błędnych informacji,
  • ataki unikające mające na celu spowodowanie, aby docelowy model generował nieprawidłowe wyniki poprzez zniekształcanie danych wejściowych wysyłanych do trenowanego modelu,
  • niska dokładność modelu oznacza, że ​​wydajność modelu jest niewystarczająca do wykonania zadania, do którego został zaprojektowany — w rezultacie użytkownicy końcowi lub systemy, które polegają na wynikach generowanych przez model, mogą zostać negatywnie dotknięte,
  • niewłaściwe użycie, które polega na wykorzystaniu modelu w celu, do którego pierwotnie nie został zaprojektowany, co może skutkować jego nieoczekiwanym i niepożądanym zachowaniem,
  • nadmierne lub niewystarczające poleganie na wynikach generowanych przez model,
  • wyciek danych,
  • niewytłumaczalny wynik oznaczający trudności w wyjaśnieniu decyzji leżących u podstaw wyników wygenerowanych przez model,
  • wyzwania w ustaleniu, kto odpowiada za dany model sztucznej inteligencji, związane z brakiem odpowiedniej dokumentacji i procedur zarządzania,
  • Wpływ sztucznej inteligencji na miejsca pracy, środowisko i ludzką sprawczość w kontekście niezależnego podejmowania decyzji, a także ryzyko wykorzystywania pracowników szkolących modele sztucznej inteligencji.

Nowe zagrożenia

Emerging nowe ryzyka są zazwyczaj związane z generatywną sztuczną inteligencją. Należą do nich:

  • wstrzykiwanie komunikatu natychmiastowego, w którym użytkownik manipuluje strukturą, instrukcjami lub informacjami zawartymi w komunikacie, którego wykonanie przez model ma wygenerować wyniki na korzyść atakującego,
  • włączenie danych osobowych i poufnych do komunikatów, co może skutkować ich włączeniem do wyników generowanych przez model, co w dalszej kolejności może prowadzić do ich przechowywania i wykorzystania do celów takich jak ponowne trenowanie modelu, jeśli dane te nie zostaną skutecznie usunięte z bazy danych,
  • generowanie treści podobnych lub identycznych z istniejącymi dziełami chronionymi prawem autorskim lub dziełami objętymi umową licencyjną open source,
  • użycie bez zgody, w którym generatywne modele sztucznej inteligencji są wykorzystywane do imitowania osób bez ich zgody poprzez generowanie deepfake’ów w formie nagrań dźwiękowych, filmów lub obrazów, co może skutkować rozpowszechnianiem dezinformacji na temat danej osoby,
  • niedopełnienie obowiązku ujawnienia, że ​​dana treść została wygenerowana przez sztuczną inteligencję, o czym osoby wchodzące z nią w interakcję muszą być bezwzględnie wyraźnie poinformowane,
  • toksyczne treści (takie jak treści obraźliwe),
  • szkodliwe wyjście,
  • szerzenie dezinformacji, która może negatywnie wpływać na zdolność ludzi do podejmowania świadomych decyzji,
  • stronniczość wyników prowadząca do niesprawiedliwej reprezentacji jednostek lub grup, co może wzmacniać istniejące uprzedzenia i zachowania dyskryminacyjne,
  • niepewność co do praw własności intelektualnej w przypadku treści generowanych przez sztuczną inteligencję,
  • homogenizacja kultury i myśli wynikająca z nieproporcjonalnej reprezentacji niektórych kultur większościowych w generowanych wynikach, co może negatywnie wpływać na różnorodność kulturową,
  • negatywny wpływ na edukację związany z łatwością, z jaką istniejące prace mogą zostać splagiatowane, a uczniowie mogą ominąć proces nauczania.

Bezpieczeństwo systemów AI opartych na LLM i związane z nimi wyjątkowe ryzyka

Warto tutaj przyjrzeć się niedawnemu przegląd możliwych zagrożeń typowych dla systemów sztucznej inteligencji opartych na dużych modelach językowych (LLM) przygotowane przez OWASP (Otwarty Światowy Projekt Bezpieczeństwa Aplikacji), globalna organizacja non-profit, której celem jest poprawa bezpieczeństwa oprogramowania poprzez udostępnianie różnorodnych zasobów, które pomagają organizacjom i osobom prywatnym w tworzeniu i utrzymywaniu bezpieczniejszych aplikacji. Raport wymienia następujące elementy:

  1. Szybka iniekcja – ryzyko związane z komunikatami, które mogą spowodować niekontrolowaną zmianę w działaniu LLM, prowadzącą do skutków niezamierzonych przez dewelopera, takich jak ominięcie zabezpieczeń lub wykonanie nieautoryzowanych działań.
  2. Ujawnianie poufnych informacji – ryzyko ujawnienia przez LLM informacji poufnych lub wrażliwych.
  3. Łańcuch dostaw – ryzyko wykorzystania podatności zewnętrznych komponentów, bibliotek lub danych na manipulację.
  4. Zatruwanie danych i modeli – zatrucie danych polegające na celowym wprowadzaniu złośliwych lub stronniczych danych w celu wpłynięcia na wydajność modelu w trakcie jego uczenia.
  5. Niewłaściwe przetwarzanie danych wyjściowych – nieprawidłowa walidacja i pominięcie procesu czyszczenia wyników LLM przed udostępnieniem ich użytkownikowi lub zintegrowaniem z innymi systemami.
  6. Nadmierna agencja – nadmierne uprawnienia posiadacza tytułu LLM do wykonywania zadań w odpowiedzi na monit, co może skutkować nieautoryzowanymi operacjami.
  7. Wyciek komunikatu systemowego – ryzyko związane z ujawnieniem poleceń systemowych zawierających chronione dane jednostki lub poufne informacje o architekturze systemu.
  8. Słabość wektorów i osadzania – ryzyko związane z podatnością na manipulację w mechanizmach wektorowych i osadzania stosowanych w RAG (generacja wspomagana pobieraniem).
  9. Mylna informacja – ryzyko, że LLM-y będą generować fałszywe informacje, które wydają się wiarygodne.
  10. Nieograniczona konsumpcja – nieefektywne wykorzystanie zasobów obliczeniowych powodujące wzrost kosztów lub potencjalne przerwy w działaniu systemu.

Zarządzanie sztuczną inteligencją w sektorze bankowym

Zarządzanie AI odnosi się do zestawu procesów i narzędzi zaprojektowanych w celu zapewnienia odpowiedzialnego i skutecznego zarządzania systemami AI, szczególnie w świetle pojawiających się ram regulacyjnych, takich jak Ustawa UE o sztucznej inteligencjiMechanizmy te opierają się na wiedzy i doświadczeniu zespołów interdyscyplinarnych, obejmujących działy prawne, compliance, IT, data science oraz konkretne jednostki biznesowe. Dzięki tej interdyscyplinarnej współpracy organizacje dążą do dostosowania inicjatyw AI do celów biznesowych, jednocześnie minimalizując ryzyko, wspierając zgodność z przepisami i maksymalizując wartość płynącą z technologii AI.

Współpraca podmiotów biznesowych i technicznych w obszarze zarządzania sztuczną inteligencją koncentruje się na:

  • zarządzanie całym cyklem życia systemów AI, obejmujące dokumentowanie, monitorowanie i zarządzanie wydajnością tych rozwiązań,
  • zarządzanie ryzykiem, obejmujące identyfikację, rozwiązywanie i zarządzanie wszystkimi ryzykami związanymi z korzystaniem z systemów AI,
  • zapewnienie zgodności z przepisami poprzez weryfikację zgodności procesów z postanowieniami obowiązujące przepisy, zasady etyczne i zalecane najlepsze praktyki, a także wewnętrzne procedury ustanowione przez organizację.

Obowiązki zespołu zarządzającego sztuczną inteligencją w bankowości

Zapewnienie efektywnych procesów zarządzania AI w sektorze bankowym wymaga interdyscyplinarnej współpracy na styku prawa, technologii, biznesu i zarządzania ryzykiem w celu ustanowienia i egzekwowania obowiązujących w całej firmie polityk dotyczących procesów zarządzania danymi, ryzykiem, cyklem życia modeli i etycznym wykorzystaniem technologii AI. Z tego powodu organizacje powinny powołać odpowiednie zespoły ds. zarządzania AI o szerokim zakresie kompetencji. Zgodnie z zaleceniami Grupa robocza ds. sztucznej inteligencji na Forum Technologii BankowychW skład wzorowego zespołu powinny wchodzić:

  • Oficer AI: osoba koordynująca wdrażanie technologii AI w organizacji i odpowiadająca za zapewnienie zgodności z odpowiednimi przepisami, wdrażanie zasad zarządzania AI i promowanie etycznego wykorzystania sztucznej inteligencji.
  • Inżynier AIOps: osoba zapewniająca wsparcie techniczne w zakresie zgodności operacyjnej, odpowiedzialna za utrzymanie systemu AI, monitorowanie wydajności modelu, wykrywanie anomalii i reagowanie na związane z tym problemy.
  • Naukowiec ds. danych/inżynier sztucznej inteligencji: Osoba techniczna, której obowiązki obejmują budowę systemu AI, zapewnienie jego wydajności i zrozumiałości oraz kontrolę jego jakości. Osoba na tym stanowisku odpowiada również za przygotowywanie danych, przeprowadzanie testów i zapewnienie gotowości systemu do środowisk projektowych.
  • Administrator danych: osoba odpowiedzialna za dane wykorzystywane przez system sztucznej inteligencji pod kątem ich jakości, spójności, poprawności oraz zgodności z przepisami i wewnętrznymi politykami organizacji.
  • Architekt: Osoba odpowiedzialna za projektowanie i nadzór nad architekturą systemu AI. Jej zadaniem jest zapewnienie skalowalności i bezpieczeństwa systemu oraz wspieranie jego integracji z istniejącą infrastrukturą IT.
  • Właściciel Produktu: osoba, która ustala zakres funkcjonalny systemu AI, definiując wymagania biznesowe, od zakresu wykorzystywanych danych po oczekiwane wyniki generowane przez system.
  • Menedżer ds. Ryzyka i Zgodności: osoba odpowiedzialna za zapewnienie zgodności z obowiązującymi przepisami prawa, zasadami etyki i wewnętrznymi politykami organizacji.
  • Ekspert ds. bezpieczeństwa: Osoba odpowiedzialna za identyfikację zagrożeń bezpieczeństwa systemów AI i ich minimalizację. Do jej obowiązków należą działania związane z ochroną danych i cyberbezpieczeństwem.

Bezpieczeństwo systemu AI

Bariery ochronne AI To zestaw technicznych, operacyjnych i etycznych mechanizmów zapobiegawczych, mających na celu zapewnienie, że systemy sztucznej inteligencji działają zgodnie z wartościami, regulacjami i celami danej organizacji, minimalizując ryzyko generowania szkodliwych lub niedokładnych treści. Ich celem jest nie tylko eliminowanie błędów, ale także ochrona prywatności użytkowników, zapobieganie dyskryminacji i zapewnienie zgodności z obowiązującymi przepisami. Te dynamiczne systemy monitorują, analizują i korygują działanie sztucznej inteligencji poprzez klasyfikację treści, wykrywanie danych osobowych, sprawdzanie faktów i analizę semantyki, umożliwiając w razie potrzeby interwencję człowieka. Pozwala to sztucznej inteligencji rozwijać się w sposób kontrolowany, bez ryzyka niepożądanych konsekwencji.

Na podstawie klasyfikacja zaproponowana przez McKinseyMożemy wyróżnić następujące rodzaje barier ochronnych:

  • Bariery odpowiedniości są to mechanizmy mające na celu zapewnienie, że systemy sztucznej inteligencji nie będą generować szkodliwych, stronniczych lub dyskryminujących treści, chroniąc prawo do prywatności, zapobiegając nadużyciom i wspierając zasady uczciwości i godności ludzkiej,
  • Bariery zgodności z przepisami mają na celu zapewnienie, że systemy AI działają zgodnie z obowiązującymi przepisami i regulacjami branżowymi (np. RODO), chroniąc prywatność danych i spełniając standardy bezpieczeństwa,
  • Bariery ochronne halucynacji mają na celu zapobieganie generowaniu przez sztuczną inteligencję treści zawierających błędne lub wprowadzające w błąd informacje, zapewniając, że jej wyniki są zgodne z faktami,
  • Barierki ochronne wyrównawcze zapewnić, że treści generowane przez sztuczną inteligencję są zgodne z oczekiwaniami użytkowników i nie odbiegają od zamierzonego celu — na przykład pomagając zachować spójność marki, 
  • Bariery walidacyjne są to zabezpieczenia techniczne ustanowione w celu zapobiegania niezamierzonym lub szkodliwym działaniom sztucznej inteligencji, obejmujące monitorowanie procesu w celu wykrywania anomalii i błędów oraz ewentualne przesyłanie wyników do oceny przez człowieka.

Guardbariery działają etapowo: najpierw wygenerowana treść jest skanowana pod kątem błędów i niespójności. W przypadku wystąpienia problemu system próbuje ją poprawić. Następnie przeprowadzana jest kolejna kontrola, a cały proces powtarza się, aż wszystkie wykryte niespójności zostaną poprawione. System podejmuje również decyzję, czy wygenerowana treść może zostać zatwierdzona, odrzucona, czy też przekazana do weryfikacji przez człowieka. Dlatego też, oprócz zabezpieczeń opartych na sztucznej inteligencji, organizacja powinna wdrożyć również inne systemy i procedury kontrolujące rozwiązania oparte na sztucznej inteligencji, a nie polegać wyłącznie na zautomatyzowanym systemie.

Przykładem zastosowania sztucznej inteligencji w sektorze bankowym mogą być boty obsługi klienta wyposażone w odpowiednie zabezpieczenia regulacyjne, które mają zapewnić zgodność ich działań z obowiązującymi przepisami i zapobiegać nieetycznym praktykom sprzedażowym.

Przykłady dobrych praktyk w zakresie zarządzania sztuczną inteligencją w bankowości

Skuteczne zarządzanie sztuczną inteligencją (AI) w sektorze bankowym wymaga jasno określonych zasad, które zapewniają zgodność z przepisami, przejrzystość modeli i kontrolę ryzyka. Poniżej przedstawiono kluczowe najlepsze praktyki, które pomagają instytucjom finansowym wdrażać sztuczną inteligencję w bezpieczny, etyczny i skuteczny sposób.

  1. Ustanowić ramy zarządzania. Ten etap obejmuje utworzenie interdyscyplinarnego zespołu, który będzie nadzorował rozwój sztucznej inteligencji w organizacji (w zakresie zgodności, ryzyka, kwestii prawnych, etyki i nauki o danych), a następnie definiowanie zasad gromadzenia danych, zgód, opracowywania modeli, testowania uczciwości i dokumentowania.
  2. Utrzymuj inwentarz modeli z klasyfikacją ryzyka. Obejmuje to śledzenie takich szczegółów, jak funkcja każdego modelu, właściciel, wykorzystane dane i poziom ryzyka. Mechanizmy kontroli powinny być również dostosowane do przypisanych punktów ryzyka.
  3. Zapewnij możliwość wyjaśnienia modelu. W miarę możliwości zaleca się stosowanie modeli interpretowalnych. Ważne jest również, aby wyniki były zrozumiałe dla interesariuszy nieposiadających wiedzy technicznej.
  4. Monitoruj wydajność. Ten etap obejmuje śledzenie dryfu modelu, zmian odchyleń i zmian danych oraz wdrażanie alertów, pulpitów nawigacyjnych i regularne ponowne szkolenia i audyty.
  5. Traktuj modele jak oprogramowanie. Wszystkie aktualizacje modelu, zdarzenia ponownego szkolenia i kluczowe kamienie milowe wydajności powinny być dokumentowane. Do testowania zmian przed wdrożeniem należy wykorzystać środowiska testowe.
  6. Zdefiniuj ograniczenia danych i środowiska. Aby ograniczyć nieoczekiwane zachowania, zaleca się kontrolowanie jakości danych szkoleniowych i ograniczanie środowisk operacyjnych.
  7. Promować nadzór etyczny. Jeszcze przed wprowadzeniem rozwiązań opartych na sztucznej inteligencji należy ocenić ich wpływ społeczny i etyczny, stosując wewnętrzne kryteria uczciwości i dokładności.
  8. Kształć się nieustannie. Należy zapewnić wsparcie w zakresie kompetencji prawnych dla zespołów technicznych oraz wsparcie w zakresie kompetencji AI dla stanowisk związanych z zgodnością z przepisami/prawem. Zaleca się coroczną aktualizację podręczników zarządzania.

Budowanie zaufania poprzez odpowiedzialne zarządzanie sztuczną inteligencją w bankach

Zarządzanie systemami AI w bankowości opiera się nie tylko na prawidłowym wdrażaniu nowych technologii, ale przede wszystkim na zapewnieniu zgodności z przepisami, transparentności i bezpieczeństwa. Kluczowe staje się budowanie zaufania poprzez odpowiedzialne wdrażanie i nadzorowanie systemów AI, aby maksymalizować korzyści przy jednoczesnej minimalizacji potencjalnego ryzyka. Z tego powodu wdrażanie przepisów Ustawy o AI wymaga podejścia interdyscyplinarnego, uwzględniającego dynamiczne zmiany regulacyjne oraz potrzebę stałego monitorowania ryzyk i ich skutecznego ograniczania.

  • Corpo
  • Trendy

Autorzy

Zespół Eximee