Plánování reakce na incidenty s využitím umělé inteligence
S rychlým rozvojem umělé inteligence existuje značná pravděpodobnost selhání. Žádný technologický vývoj se neobejde bez selhání, jen by výsledek selhání neměl být katastrofální. Selhání umělé inteligence se mohou shlukovat na základě bezpečnosti, porušení soukromí, nebo nedostatečné transparentnosti a odpovědnosti. Společnosti musí být připraveny reagovat na masivní selhání, která mohou zahrnovat právní pomoc.
Databáze incidentů umělé inteligence poskytují přehled o různých incidentech, ke kterým došlo, a o důležitosti aktualizace údajů. Selhání umělé inteligence mohou způsobit obrovské finanční ztráty a také poškodit pověst společnosti. Zde přicházejí na pomoc plány reakce na incidenty umělé inteligence. Plány reakce na incidenty jsou nezbytné, protože umělá inteligence se liší od ostatního tradičního softwaru.
Vstupní data, na kterých umělá inteligence pracuje, jsou historická data, takže je třeba je neustále aktualizovat s časem. Složitost umělé inteligence, zejména systémů, které zahrnují generativní umělou inteligenci nebo hluboké učení, má mnoho vzájemně propojených uzlů, což ztěžuje identifikaci místa, kde došlo k chybě. Drobné nepřesnosti v systému mohou vést k masivním selháním, která ovlivní lidstvo.
Plány reakce na incidenty s umělou inteligencí musí obsahovat pokročilá opatření kybernetické bezpečnosti, která jsou nad rámec tradičních opatření kybernetické bezpečnosti, jež se přijímají především v případě specifických hrozeb, jako je narušení bezpečnosti dat.
Zde je uvedeno několik kroků, které je třeba dodržet při reakci na incidenty s umělou inteligencí:
Příprava
- Při řešení konkrétní reakce na incidenty je třeba dodržovat určité zásady a postupy. Reakce musí definovat termín a hrozbu, kterou způsobila, a role a odpovědnosti, které za ni byly převzaty.
- Zahrňte událost a chybu, která vedla ke vzniku této hrozby, a také výsledek z vnějšího útoku.
- Rámcové zásady a postupy zahrnují selhání ve všech fázích životního cyklu modelu nebo systému.
- Iniciujte v organizaci školení k provozu a provádění pravidel, aby si lidé byli vědomi této události.
Identifikace
- Postupujte podle průmyslových standardů pro detekci incidentu.
- Monitorujte platformy umělé inteligence, abyste zjistili škody, které může umělá inteligence způsobit.
- Vyhledejte zpětnou vazbu od spotřebitelů nebo organizací, které ji provozují.
Omezení
- Přijměte opatření k řešení okamžitých škod, poté pozastavte provoz a hledejte záložní řešení situace.
- Postupujte podle procedurálních pokynů k vyhodnocení incidentu, jinak může způsobit vážné škody.
- Pokuste se provést technickou opravu podle zjištění techniků, abyste minimalizovali škody, které způsobí.
Odstranění
- Odstraňte systém, který incident způsobil, a neprovádějte v něm žádnou modernizaci, dokud nebude přezkoumán a nebude poskytnuta zpětná vazba, že v budoucnu nedojde k žádnému dalšímu incidentu týkajícího se tohoto systému.
- Proveďte dokumentované testování v revidovaném nebo nahrazeném systému, zejména těch systémů, které vedly k incidentu.
Obnova
- Revidovaný systém by měl být před nasazením zabezpečen.
- Před provedením dalšího vývoje nebo modernizace proveďte benchmarking nahrazeného systému a výstupů.
Jedním z nejlepších způsobů, jak zmírnit škody způsobené umělou inteligencí, je zapojit do organizace mezioborové týmy. Manažeři rizik mohou pomoci zásadní roli při koordinaci mezi technology a právníky, která nám může pomoci tyto ztráty zmírnit.