Řešení problému stínové umělé inteligence (shadow AI)
Umělá inteligence (AI) patří k nejzásadnějším technologickým průlomům a poskytuje řadu výhod a příležitostí v mnoha odvětvích. Nicméně vedle rozvoje všech těchto nedávných inovací nelze ignorovat aspekt nově vznikajících problémů, jako je například problém stínové umělé inteligence (shadow AI).
Pochopení problému stínové umělé inteligence
Předpokládáme, že tajná umělá inteligence, tedy skrytá umělá inteligence, která je provozována netransparentně a bez kontroly, je největším problémem, který je třeba vyřešit, aby bylo možné umělou inteligenci používat bezpečným a užitečným způsobem. Zjišťujeme však, že tyto inteligentní systémy fungují většinou v pozadí a činí rozhodnutí, která řídí výsledek a osud obětí systému, aniž by o jejich případu získaly představu. Pod koloritem umělé inteligence se mohou skrývat dvě formy, jako jsou podvodné algoritmy, neobjektivní modely a neautorizované programy umělé inteligence.
Kontroverzi stínové umělé inteligence podněcuje stále výkonnější a dostupnější software a hardware umělé inteligence. S tím, jak se umělá inteligence stává levnější a jednodušší pro implementaci do každodenního života, mohou subjekty používat systémy umělé inteligence, aniž by znaly jejich důsledky nebo se zabývaly etickými důsledky a právními předpisy.
Důsledky problému stínové umělé inteligence
Pseudonymní moc umělé inteligence představuje několik naléhavých problémů, například pro společnost, obchodní korporace a soukromé osoby.
Etické obavy
Rizika neobjektivního zacházení, jako je stínová umělá inteligence, mohou vést k ještě větší nerovnosti. Tyto systémy mohou například posilovat předsudky nebo být vedeny stejnými předsudky, protože systémy byly vytvořeny na základě neobjektivních dat, nebo také proto, že neprošly dostatečným dohledem a kontrolou.
Regulační rizika
Nesledované a nekontrolované autonomní systémy umělé inteligence, které nejsou v souladu s předpisy, mohou vést k porušení požadavků na ochranu osobních údajů, bezpečnosti a dalších předpisů, a proto mohou následovat právní a finanční důsledky.
Poškození pověsti
Příklady neangažovaných technologií umělé inteligence, které by selhaly z etického hlediska nebo poskytly společnostem škodlivé výsledky, by mohly vnést negativní světlo na obchodní značku. Takové situace by mohly vést ke ztrátě důvěry spotřebitelů, povědomí o značce a dalším.
Bezpečnostní hrozby
Hrozba může vzniknout, když se k systému umělé inteligence dostane subjekt se zlými úmysly, i když nemá vojenské nebo donucovací záměry. Takové systémy umělé inteligence se za nepropustnými zdmi mohou stát vstupním bodem pro cílení na kritické systémy, což může vést k narušení dat, odhalení kritické infrastruktury atd.
Strategie řešení problému stínové umělé inteligence
Strategie pro řízení stínové umělé inteligence, které zajistí bezpečnou, kompatibilní a efektivní umělou inteligenci.
Transparentnost a odpovědnost
Společnosti a vlády by se měly zavázat ke zvýšení transparentnosti a odpovědnosti ohledně vytváření a používání aplikací a systémů umělé inteligence. To proto, že to předpokládá vytvoření mechanismů pro dokumentaci algoritmů umělé inteligence, zdrojů dat a rozhodovacích procesů, aby byly dohledatelné a kontrolovatelné.
Etické řízení umělé inteligence
Vytvoření silných rámců etické správy umělé inteligence by tak mohlo být zásadním krokem k překonání některých nevýhod stínové umělé inteligence. To vyžaduje nejen stanovení jasného etického rámce a standardů, které je třeba dodržovat, ale také zavedení architektur přezkumu a dohledu.
Vzdělávání a informovanost
Rozvíjení občanské odpovědnosti v oblasti umělé inteligence lze dosáhnout zvýšením porozumění etice, rizikům a osvědčeným postupům v oblasti umělé inteligence mezi vývojáři, datovými vědci a osobami s rozhodovací pravomocí. Jen tak lze zabránit šíření stínové umělé inteligence. Klíčovými faktory pro zajištění etiky umělé inteligence mohou být školení a výukové aktivity, workshopy a pomůcky pro vzdělávání.
Dodržování právních předpisů
Organizace musí zaručit dodržování příslušných zákonů, předpisů a norem týkajících se vývoje a nasazení umělé inteligence. Může se jednat o předpisy na ochranu osobních údajů (jako je GDPR), soukromoprávní nástroje a jurisdikční přístupy a také o nový vývoj správy umělé inteligence.
Spolupráce a partnerství
Účast všech průmyslových subjektů, zákonodárců, akademické obce a občanské společnosti pomůže být účinnější v pokračujícím boji proti problému „stínové umělé inteligence“. Prostřednictvím spolupráce budou mít zúčastněné strany možnost sdílet osvědčené postupy, spolupracovat na stávajících standardech a vytvářet pokyny, díky nimž bude vývoj umělé inteligence co nejzodpovědnější.
Průběžné monitorování a hodnocení
Měla by být zavedena pravidelná kontrola výkonnosti, chování a důsledků systémů umělé inteligence. Tento řídicí mechanismus umožní odhalovat a řešit případy stínové umělé inteligence. Organizace musí vybudovat způsoby průběžného monitorování, zpětné vazby a hodnocení výkonnosti, aby si byly jisté, že nástroje umělé inteligence fungují eticky a funkčně.