Rozhoduje umělá inteligence v otázce poskytování úvěrů?

Tamás Keiger

Algoritmy, které užívají umělou inteligenci (AI) a strojové učení (ML) k automatizaci složitých úkolů, převratně mění odvětví finančních služeb. Zároveň ale představují určité riziko.

Algoritmy na vyhodnocování úvěruschopnosti žadatelů pomáhají finančním institucím snížit počet nesplacených úvěrů, vyladit kritéria pro schvalování úvěrů, zefektivnit proces podávání žádostí, snížit počet zaměstnanců a zlepšit zákaznickou zkušenost.

S těmito metodami jsou ovšem spjata i určitá rizika. Algoritmy založené na umělé inteligenci jsou zdánlivě neutrální, zdání ale možná klame. Pokud bude možné dokázat, že jejich výpočty diskriminují určitou skupinu žadatelů, například příslušníky některého etnika, hrozí, že budou finanční instituce muset čelit finančním a právním rizikům a že bude ohrožena jejich pověst. I neúmyslná diskriminace je diskriminace. Vede ke ztrátám, když je třeba vyrovnat soudní spory vedené státem nebo jednotlivci. Navíc vede i k potřebě se omluvit veřejnosti, což není nikdy dobře.

Při vyhodnocování úvěruschopnosti se poskytovatelé úvěrů tradičně zaměřovali na údaje, jako je poměr půjčovatelových dluhů k příjmům anebo poměr úvěru k hodnotě. Velká pozornost se také obvykle věnovala schopnosti žadatele splácet starší závazky. Ovšem díky údajům o využívání internetu mohou dnešní analytikové hodnotící úvěruschopnost žadatelů zohlednit žadatelovy zvyklosti během hledání na internetu, nakupování a trávení volného času online.

Data ze sociálních médií, jako je průměrné hodnocení úvěrové minulosti žadatelových „přátel“, mohou být užitečným indikátorem neschopnosti splácet. Zároveň ale také mohou vést k tomu, že se budou zamítat úvěry lidem, kteří ve skutečnosti jsou v tomto ohledu důvěryhodní.

Není vždy jasné, jak algoritmy vybírají a analyzují proměnné a identifikují významnější vzorce v rámci velkých množin dat. Přesně to nevědí dokonce ani vývojáři programů. Nedostatek algoritmické transparentnosti ztěžuje možnost určit, kde a jak se do systému dostávají vychýlení.

Poskytovatelé úvěrů by měly být připraveni vysvětlit, proč bylo, na základě algoritmů, zamítnuto poskytnutí některého úvěru. Měli by to vysvětlit způsobem, kterému zákazník snadno porozumí, ale který je zároveň dostatečně zformalizovaný, aby bylo možné ho využívat ve velkém měřítku.

Společnosti by měly zajistit, aby vývojáři programů AI a ML prošli školením o zákonech ošetřujících diskriminaci při spravedlivém poskytování úvěrů a aby byli schopni identifikovat diskriminativní výsledky a předcházet jim.

Je nesmírně důležité, aby se prováděla analýza vkládaných dat za účelem identifikace systémové anebo výběrové neobjektivnosti. Některé společnosti poskytující finanční služby začínají zveřejňovat technické detaily svých návrhů algoritmů a setů dat. Umožňují tak nezávislým třetím stranám, aby je zkoumaly a testovaly, zda nedocházejí k diskriminativním výsledkům.

Finanční instituce, které algoritmus na stanovení úvěruschopnosti žadatele staví na jeho osobních atributech, by měly doložit obchodní zdůvodnění a testovat výsledky, které se ukazují jako objektivní.

Chytří uživatelé AI získají výhody této přelomové technologie a zároveň budou očekávat a minimalizovat rizika nezáměrné diskriminace, kterou může její užívání způsobit.

Podobné články

O město se můžete starat, jenom když ho dobře znáte

Brno má podle statistického úřadu zhruba 380 tisíc obyvatel. Ve skutečnosti je ale ve městě lidí mnohem víc.

Přečíst článek

Analýza Big Dat: Kdy se vyplatí vyrazit na prázdniny?

Víte, kdy do zahraničí vyráží nejvíce obyvatel? Odpověď nám poskytla analýza Big Dat.

Přečíst článek

Evropské odvětví plateb roste a americká konkurence zatím hrozí zpovzdálí

Technicky zdatné firmy cítí šanci se s velkými bankami utkat o rostoucí řadu služeb.

Přečíst článek