Příčiny a důsledky předpojatosti umělé inteligence
Umělá inteligence (AI) změnila řadu průmyslových odvětví a přinesla efektivitu, inovace a lepší rozhodovací schopnosti. Nicméně bylo také zjištěno, že některé systémy umělé inteligence mají v sobě zabudované předsudky, které mají významné důsledky ovlivňující výsledky, spravedlnost, a dokonce i důvěryhodnost systémů.
Je důležité pochopit, proč a jak k předpojatosti umělé inteligence dochází, jaké to má důsledky a jak se jí vyhnout nebo ji alespoň omezit, aby bylo možné z umělé inteligence těžit a zároveň si uvědomit její možné nevýhody.
Příčiny předpojatosti umělé inteligence
Existují technické a společenské příčiny předpojatosti nebo zkreslení umělé inteligence. Jednou z nich je zkreslení dat. Z obrovského množství dat se vyvozují závěry, a pokud jsou tato data zkreslená nebo obsahují omezené informace, pak se systém umělé inteligence učí a opakuje zkreslení. Například historické informace, které obsahují různé předsudky vůči určitým skupinám lidí, mohou po začlenění do rozhodovacího systému umělé inteligence způsobit diskriminaci.
Další příčinou je algoritmický návrh. Ukazuje se, že volba návrhu algoritmů, jako jsou vybrané funkce, techniky trénování a použité optimalizační metriky, může vnášet zkreslení. Někdy mohou prohloubit předsudky, které jsou již obsaženy v trénovacích datech, nebo vyloučit určité kategorie osob.
Dopady předpojatosti umělé inteligence
Předpojatost umělé inteligence může mít závažné dopady na společnost a podnikání v různých oblastech lidského konání. V případě náboru a přijímání zaměstnanců mají předpojaté algoritmy umělé inteligence potenciál diskriminovat kandidáty určitého pohlaví, rasy nebo jiných ukazatelů nízkého socioekonomického statusu. To jen upevňuje existující nerovnosti v rámci pracovní síly.
Podobně může být předpojatost využita v aplikacích, které využívají umělou inteligenci pro hodnocení rizik nebo pro vytváření podkladů pro udělování trestů v systémech trestního soudnictví, což je aspekt, který může znamenat předpojatost vůči menšinám. Umělá inteligence ve zdravotnictví, která není vyvinuta tak, aby byla neutrální, může ovlivnit pacienta a jeho léčebný plán, včetně chybné diagnózy nebo nespravedlivého doporučení preventivních postupů, a tím ovlivnit důvěru pacientů v řešení umělé inteligence ve zdravotnictví.
Dále je zřejmé, že zaujatost umělé inteligence ve finančních službách může vést k diskriminačnímu úvěrovému skórování, protože úvěrová rozhodnutí jsou založena na vlastnostech, které jsou pro úvěruschopnost irelevantní, jako je etnický původ nebo pohlaví. Tyto nepříznivé účinky nejenže poškozují dotčené osoby, ale také snižují přijetí technologií umělé inteligence.
Strategie zmírnění dopadů
Pro přístup k problému zaujatosti v umělé inteligenci je třeba na problém nahlížet z hlediska sběru dat, návrhu algoritmů a hodnocení. Zde jsou uvedeny klíčové strategie pro zmírnění zkreslení umělé inteligence:
Různorodá a reprezentativní data
Je zásadní zaručit, aby trénovací soubor dat vyjadřoval populaci, se kterou se bude systém umělé inteligence pravděpodobně setkávat. To se hodí při snižování zkreslení, která mohou být v souboru dat, protože díky tomu se algoritmy umělé inteligence učí v rozmanitém prostředí.
Transparentnost algoritmu
Zvyšte interpretovatelnost rozhodovacího procesu algoritmů umělé inteligence tak, aby tento proces mohl být vysvětlen každému, koho zajímá. Techniky vysoké dostupnosti mohou také pomoci uživatelům pochopit proces, kterým umělá inteligence dospívá ke svému rozhodnutí, a také vypíchnout zkreslení.
Pravidelné audity a revize
Doporučuje se provádět pravidelné audity a hodnocení rizik systémů umělé inteligence s cílem odhalit zkreslení, která se mohou časem objevit. K řešení tohoto problému se používá následující proaktivní přístup, který má zajistit, aby systémy umělé inteligence byly spravedlivé a nestranné s tím, jak se mění společenské normy a kontext.
Různorodé týmy a zapojení zúčastněných stran
Podporujte zapojení kulturní a genderové diverzity do vývoje aplikací umělé inteligence a zapojte zainteresované strany do vývojových fází a zkoušek. To pomáhá identifikovat slepá místa běžná v organizacích, kde ve vývojovém týmu chybí zastoupení nedostatečně zastoupených skupin, a zaručuje, že vyvíjené systémy umělé inteligence nebudou diskriminovat prognózy těchto skupin.
Etické zásady a řízení
Zajistěte, aby existovaly dobře definované etické normy a pravidla pro tvorbu a používání umělé inteligence. Tyto rámcové předpisy by se měly skládat ze zásad upravujících správné používání umělé inteligence, postupů pro vyřizování stížností, které se týkají přítomnosti předpojatosti, a pravidelných procesů pro zlepšování a monitorování.