Prasa i media Blog GLEIF

Bardziej niezawodna weryfikacja firm z wykorzystaniem AI: nowy front w globalnej walce z oszustwami?

Profesor Damian Borth z Uniwersytetu St. Gallen specjalizujący się w AI i uczeniu maszynowym wyjaśnia, jak wykorzystanie w modelach AI otwartych i znormalizowanych danych o wysokiej jakości dotyczących podmiotów prawnych może zwiększyć przejrzystość, sprawność i bezpieczeństwo interakcji między firmami na całym świecie.


Autor: Prof. Damian Borth specjalizujący się w sztucznej inteligencji i uczeniu maszynowym, Uniwersytet w St. Gallen

  • Data: 2024-04-29
  • Odsłon:

Zapotrzebowanie na rzetelną weryfikację tożsamości podmiotów prawnych nigdy nie było tak duże, jak w dzisiejszej cyfrowej, globalnej gospodarce. Dlatego szybko rośnie zainteresowanie możliwościami wykorzystania AI do zautomatyzowania weryfikacji i monitorowania podmiotów. Gdyby udało się zwiększyć wydajność i skuteczność krytycznych procesów, można by ograniczyć ryzyko oszustw i innych działań przestępczych, tworząc bezpieczniejsze środowisko biznesowe z korzyścią dla wszystkich zainteresowanych stron.

Przed nami jednak nadal sporo wyzwań. Potencjał AI jest w znacznej mierze ograniczony ze względu na to, że dane bazowe nie są znormalizowane, nie można ich łatwo wykorzystywać i udostępniać. Efektem jest nie tylko marnowanie cennej mocy obliczeniowej, ale i coraz większe błędy systemowe.

Kilka najnowszych trendów, zmian i inicjatyw w zakresie standardów danych i monitorowania transakcji odpowiada na wyzwania, które tradycyjnie hamowały wysiłki w zakresie przeciwdziałania praniu pieniędzy (AML). Czy może pan wyjaśnić, jaką rolę może odegrać AI i uczenie maszynowe?

AI i uczenie maszynowe mają spory potencjał w przeciwdziałaniu praniem pieniędzy. Największe możliwości widać w zwiększaniu wydajności i skuteczności monitorowania transakcji oraz procesów zgodności. Mogą one analizować ogromne zbiory danych w celu wyszukiwania złożonych wzorców lub anomalii oraz wykrywania nieuczciwej działalności, wyraźnie poprawiając skuteczność wykrywania podejrzanych transakcji. Co więcej, AI ma zdolność dostosowywania się i uczenia na podstawie nowych danych, jest więc nieocenioną pomocą w ewoluującym krajobrazie AML, gdzie przestępcy i podmioty monitorujące próbują się nawzajem prześcignąć.

W jaki sposób połączenie technologii AI i wysokiej jakości danych może pomóc w kwantyfikacji i lepszym zarządzaniu globalnym ryzykiem biznesowym?

AI oraz zewnętrzne źródła danych o wysokiej jakości mogą znacznie usprawnić zarządzanie ryzykiem poprzez poprawę skuteczności weryfikacji biznesowej. Algorytmy AI mogą również zautomatyzować monitorowanie danych podmiotów prawnych, przyczyniając się do bezpieczniejszego globalnego środowiska finansowego poprzez ograniczenie ryzyka oszustw do minimum.

Jak ocenia pan stosunek wartości dodanej AI do związanego z nią ryzyka w kontekście postępującej automatyzacji procesów biznesowych?

Automatyzacja procesów identyfikacji z wykorzystaniem AI i uczenia maszynowego poprawia wydajność analiz i dokładność danych, ułatwiając zachowanie zgodności z przepisami i zwiększając zaufanie w świecie transakcji biznesowych.

Z drugiej strony technologia ta może też wprowadzać elementy ryzyka, np. potencjalne błędy systemowe, uprzedzenia lub luki w cyberbezpieczeństwie. Dlatego wydaje się, że najlepszym rozwiązaniem jest korzystanie z automatyzacji w połączeniu z nadzorowanie procesów przez ludzi i zapewnienie solidnych środków bezpieczeństwa.

Jak ważne dla społeczności rozwijającej AI są otwarte, wiarygodne, znormalizowane dane o wysokiej jakości?

Mówiąc najprościej, ich znaczenie jest fundamentalne i zawsze były one uznawane za warunek konieczny do odpowiedniego rozwoju systemów sztucznej inteligencji. Dane o wysokiej jakości pozwalają szkolić modele AI na podstawie dokładnych informacji, co prowadzi do bardziej skutecznych i wiarygodnych wyników. Standaryzacja sprzyja interoperacyjności między różnymi systemami AI i zwiększa powtarzalność wyników badań nad AI. Korzystanie z danych o wysokiej jakości ogranicza także występowanie błędów i zwiększa zdolność modeli do podejmowania decyzji, co ma kluczowe znaczenie dla zastosowań we wrażliwych obszarach, takich jak finanse i systemy prawne.

Współpracował pan z GLEIF przy projekcie modelu identyfikacji i sugerowania właściwej formy prawnej podmiotu. Czy może pan w skrócie opowiedzieć o najważniejszych ustaleniach?

Po pierwsze, trzeba pamiętać, że identyfikacja i zrozumienie formy prawnej podmiotu ma kluczowe znaczenie dla różnych procesów finansowych i biznesowych. Mimo to zróżnicowanie systemów prawnych między jurysdykcjami i w ich obrębie wprowadza znaczną złożoność. Zdolność do automatycznej identyfikacji formy prawnej spółki i powiązania jej z odpowiadającym jej kodem ELF (Entity Legal Form) może w związku z tym stworzyć wiele korzyści, zwiększając przejrzystość i wydajność operacyjną przy jednoczesnym ograniczaniu ryzyka.

Nasza współpraca z GLEIF zaowocowała modelem AI pod nazwą Legal Entity Name Understanding (LENU), zdolnym do dokładnego przewidywania formy prawnej podmiotu na podstawie samej nazwy i jurysdykcji. Wytrenowaliśmy model językowy, będący w stanie powiązać określone wzorce w nazwach prawnych i nomenklaturze specyficznej dla jurysdykcji, a następnie na tej podstawie wnioskować o ich formach prawnych. Wysoka dokładność modelu pokazuje potencjał AI w zwiększaniu wiarygodności danych biznesowych. Może to nie tylko przyspieszyć proces nadawania LEI, lecz także znacznie ograniczyć potrzeby w zakresie ich ręcznej weryfikacji.

Poczynione przez nas odkrycia opisaliśmy w artykule pt. „Klasyfikowanie form podmiotów prawnych za pomocą transformera”. Podkreślamy w nim duży potencjał wykorzystania modeli transformerowych do ujednolicania i integrowania danych. Wprowadzanie formy prawnej podmiotu za pomocą standardowych elementów danych zwiększa niezawodność w operacjach kojarzenia z podmiotem, co pozwala tworzyć wiarygodne pary powiązań wśród wielu zbiorów danych, ponieważ każdy podmiot może mieć tylko jedną formę prawną.

Wysoka dokładność modelu pokazuje potencjał AI w zwiększaniu wiarygodności danych biznesowych. Może to nie tylko przyspieszyć proces nadawania LEI, lecz także znacznie ograniczyć potrzeby w zakresie ich ręcznej weryfikacji.

W jaki sposób znormalizowane dane podmiotów prawnych, takie jak LEI, mogą przyczynić się do ekosystemu badań i rozwoju AI?

Znormalizowane dane LEI wzbogacają badania nad AI, zapewniając globalny, spójny zbiór danych do szkolenia i testowania modeli AI w kontekście finansowym i prawnym. Ta jednolitość zwiększa niezawodność modeli w różnych jurysdykcjach i poprawia wydajność rozwiązań AI. Zbiory danych LEI mogą też ułatwić badania nad AI w obszarach takich jak wykrywanie oszustw, weryfikacja podmiotów i zgodność z przepisami. Dane LEI będące punktem odniesienia mogą odgrywać kluczową rolę w ocenie modeli AI w branży finansowej.

Co według pana przyniesie przyszłość?

Jeśli chodzi o AI, to wzmocniona przez standaryzowane i otwarte dane, ma ona olbrzymi potencjał transformacji sektora finansowego i prawnego. Wykorzystując tę synergię, umożliwimy szybkie postępy, które pozwolą zapewnić większą przejrzystość, wydajność i bezpieczeństwo globalnych ekosystemów finansowych. Ta ewolucja pozwala zwiększać zgodność z przepisami, ograniczać przypadki oszustw i uzyskać lepsze zrozumienie złożonych sieci finansowych.

Podsumowując, dowiemy się i zrozumiemy więcej na temat świata, który nie jest teraz łatwo dostępny.

Osoby pragnące umieścić wpis w blogu prosimy o odwiedzenie strony: funkcje internetowego blogu GLEIF w języku angielskim. Imię i nazwisko autora komentarza pojawi się obok wpisu. Adresy e-mail nie będą publikowane. Uczestnictwo w forum dyskusyjnym i korzystanie z niego oznacza zgodę na przestrzeganie obowiązujących Zasad korzystania z blogu GLEIF, które należy uważnie przeczytać.



Wszystkie poprzednie wpisy w blogu GLEIF >
O autorze:

Prof. dr Damian Borth jest dyrektorem Instytutu Informatyki na Uniwersytecie w St. Gallen i profesorem zwyczajnym specjalizującym się w AI oraz uczeniu maszynowym (AIML). Prof. Damian był wcześniej dyrektorem-założycielem Deep Learning Competence Center w Niemieckim Centrum Badań nad Sztuczną Inteligencją (DFKI) w Kaiserslautern, gdzie pełnił również funkcję dyrektora generalnego NVIDIA AI Lab w DFKI.

Prof. Damian prowadzi badania z zakresu uczenia się reprezentacji za pomocą głębokich sieci neuronowych w dziedzinach takich jak wizja komputerowa, teledetekcja i audyt finansowy. Za swoją pracę otrzymał nagrodę ACM SIGMM Test of Time Award w 2023 r., nagrodę Google Research Scholar Award w 2022 r., nagrodę NVIDIA AI Lab na GTC 2016, nagrodę za najlepszy artykuł na ACM ICMR 2012 oraz nagrodę McKinsey Business Technology Award w 2011 r. Obecnie prof. Damian jest członkiem rady powierniczej International Computer Science Institute (ICSI) w Berkeley w Kalifornii, zarządu German Data Science Society, komitetu doradczego Roman Herzog Institute oraz rady doradczej HSG Institute of Behavior Science & Technology.

Po uzyskaniu tytułu doktora prof. Damian prowadził badania w UC Berkeley i International Computer Science Institute (ICSI) w Berkeley, gdzie uczestniczył w projektach związanych z Big Data w Lawrence Livermore National Laboratory. Stopień doktora uzyskał na Uniwersytecie w Kaiserslautern i Niemieckim Centrum Badań nad Sztuczną Inteligencją (DFKI). W tym czasie prof. Damian prowadził badania w Digital Video and Multimedia Lab na Uniwersytecie Columbia w Nowym Jorku.


Znaczniki artykułu:
Globalny Indeks LEI, Global Legal Entity Identifier Foundation (GLEIF), Listę kodów formy prawnej podmiotu, Jakość danych, Otwarte dane