Menu luk

AI stiller nye krav til compliance

Nye værktøjer er effektive til eksempelvis at få øje på potentiel hvidvask. Men i takt med, at banker tager kunstig intelligens i brug, opstår nye risici.

6. jun. 2023
4 min

I takt med, at brugen af kunstig intelligens breder sig i bankerne, bliver det vigtigere med interne kontroller af, hvordan teknologien bruges.

Det mener Thais Lærkholm Jensen, chef for analysemodeller i Nationalbanken og tidligere chef for Nationalbankens data science-team, som beskæftiger sig med nye redskaber inden for kunstig intelligens. 

”Perspektivet er, at complianceafdelingerne skal have nogle datakyndige ansatte. Man skal ikke kun ansætte dataeksperter i første linje – der skal være nogen i anden linje, som kan udfordre brugen af datamodellerne, og som rent faktisk forstår den programmeringskode, som er anvendt i modellen,” siger Thais Lærkholm Jensen.

"Data ændrer sig over tid, og de her modeller skal lære af alle de nye data, de får ind. Derfor vil der altid være et løbende behov for at evaluere på, om de stadig gør det, de skal."
- Thais Lærkholm Jensen, chef for analysemodeller i Nationalbanken

Løbende evaluering

Nye værktøjer inden for kunstig intelligens og machine learning kan få øje på mistænkelige mønstre og potentiel hvidvask. På den måde kan de spare de ansatte for mange timers manuelt arbejde.

Men med de avancerede modeller følger også risikoen for fejl. Det skyldes blandt andet, at værktøjerne ikke er bedre end de data, de er baseret på. Og at modellerne hele tiden lærer af nye data, og derfor skal undersøges løbende – ikke kun, når man tager dem i brug.

”En ting er, at de performer godt, når man tester dem, og når man begynder at arbejde med dem. Men data ændrer sig over tid, og de her modeller skal lære af alle de nye data. Derfor vil der være et løbende behov for at evaluere på, om de stadig gør det, de skal,” siger Thais Lærkholm Jensen.

Kan opdage hvidvask

På hvidvaskområdet kan man sætte en såkaldt machine learning-model til at lede efter mistænkelige transaktioner ved at give den en række faresignaler, den skal holde øje med.

Men modellerne er effektive, fordi de også kan gå skridtet videre og udføre processen i den modsatte rækkefølge: Ved at give modellen eksempler på transaktioner, som er blevet vurderet som mistænkelige – for eksempel de sager, som banken har valgt at give videre til politiet – kan man få modellen til at findes fællestræk ved sagerne, som man kan bruge som kriterier, næste gang man skal undersøge sine data.

”Nogle gange er det svært, når man bare sætter de gammeldags regler op, om at det for eksempel skal undersøges, hvis kunder har hævet store kontantbeløb. Det resulterer i enormt mange alarmer, som så skal gennemgås manuelt. Der er typisk brug for at opsætte endnu flere kriterier,” siger Thais Lærkholm Jensen og tilføjer, at kunstig intelligens netop er effektivt til at finde disse kriterier.

Chef for analysemodeller i Nationalbanken Thais Lærkholm Jensen forventer, at der bliver strammet op for brugen af chat-GPT blandt medarbejdere, når der kommer mere fokus på datasikkerhed. Foto: Privat

Strammere regler

I øjeblikket er EU i gang med forarbejdet til ny lovgivning om kunstig intelligens. 

LÆS OGSÅ: Nyt AI-kodeks klar om få uger

Loven kommer sandsynligvis til at indebære, at virksomheder skal lave en risikovurdering af alle værktøjer inden for kunstig intelligens, som man benytter. Det foreløbige udkast indeholder også muligheden for store bøder til virksomheder, som ikke overholder reglerne.

I takt med, at området bliver mere reguleret af lovgivning, forventer Thais Lærkholm Jensen, at ledelserne rundt omkring i virksomhederne vil øge deres fokus på det.

”Det er stadig et begyndende felt, som man gør sig forsøg med, men i fremtiden vil det være nødvendigt med et øget ledelsesmæssigt fokus på den risiko, der er, hvis man anvender det forkert,” siger han og tilføjer:

”Bankerne er i virkeligheden godt rustet til at håndtere risikoen ved AI, fordi det, de i lang tid har lavet, er at bruge matematiske modeller. Der er man måske længere som industri end mange andre brancher. AI er i bund og grund bare et stykke programkode, der kører, selvom der er lidt flere ting, der kan gå galt.”

"Virksomheder har meget lidt kontrol med, hvad deres medarbejdere gør, når de går ind og åbner chat-GPT-browseren."
- Thais Lærkholm Jensen, chef for analysemodeller i Nationalbanken

Vigtigt at passe på data

Den meget omtalte chat-GPT og lignende, sprogbaserede programmer, bliver allerede brugt en del steder, blandt andet for at lette arbejdet med at producere tekst. Her forventer Thais Lærkholm Jensen, at der bliver strammet op for brugen blandt medarbejdere, når der kommer mere fokus på datasikkerhed.

”Jeg tror, at der vil komme et lille tilbageslag, når nogle af virksomhederne bliver opmærksomme på, hvad det er for noget data, de sætter ind i deres chat-GPT. Virksomheder har meget lidt kontrol med, hvad deres medarbejdere gør, når de går ind og åbner chat-GPT-browseren,” siger Thais Lærkholm Jensen.

Oplysningerne, man fodrer et chatprogram med, kan potentielt ende på en server hos den virksomhed, som udbyder løsningen, og så mister man kontrollen med sine data.

”Det vil nok gøre, at virksomhederne strammer op over for de her værktøjer. Men samtidig går udviklingen stærkt, og derfor kan man nok ikke undgå at komme til at bruge de her modeller i sit arbejdsflow,” siger Thais Lærkholm Jensen og forventer, at netop det problem vil blive løst, når nye tilbud kommer på markedet.

”Chat-GPT-programmerne bliver udviklet hele tiden, og der vil sandsynligvis også snart komme nogle versioner, hvor man på en eller anden måde giver datakontrollen tilbage til den enkelte virksomhed og lukker kredsløbet om sine data, så der ikke er noget, som bliver sendt tilbage til chat-GPT-systemerne.”

Seneste nyt