Martin Kysilka, 5. PROSINCE 2017
V čem je problém: IT vědci, právníci a experti na kognitivní funkce se shodují, že umělá inteligence by měla zodpovídat za svá rozhodnutí. A co je důležité: aniž by odhalila svá tajemství – prozradila knowhow vývojářů.
Již dnes je zřejmé, že umělá inteligence bude hrát ve společnosti velmi významnou roli. Měla by tedy i nést následky za svá rozhodnutí. Pokud budeme na AI spolehát v řešení životně důležitých rozhodnutí, budeme také potřebovat mechanismus, který tato rozhodnutí bude kontrolovat.
Dostat od AI systému vysvětlení (proč a jak udělal dané rozhodnutí) je však velmi složitý proces. Jedním z problémů je cena – jak vývojář, tak i klient budou muset vynaložit značné úsilí a obětovat nemalý peníz, aby ze zabudovaného AI systému vydolovali potřebná data, jež vysvětlí daná rozhodnutí.
Dalším problémem může být prozrazení choulostivých dat, jak o fungování AI systému, tak o společnosti klienta. Získaná vysvětlení mohou být navíc pro člověka zcela nepochopitelná. Výhoda AI systémů je především v tom, že dokážou najít korelace v nepřeberném množství dat (lidem často nepřístupným) – pro člověka naprosto neuchopitelný proces, který ani nemusí dávat smysl. Aby byla daná rozhodnutí za každou cenu plně pochopitelná i pro člověka, musela by se umělá inteligence ořezat a stát se méně výkonnou. Takovéto řešení by však mohlo ohrozit celou její existenci.
Řešení: Odpověď na tuto velmi složitou otázku bychom mohli nově najít ve společné práci vědců a profesorů z Harvardu. Tým expertů v této studii klade a zodpovídá klíčové otázky práva a regulace, řeší klíčové problémy a navrhuje potencionální řešení.
Experti z Harvardu nejdřívě začali se samotnou definicí slova „vysvětlovat“. „Když mluvíme o podaní vysvětlení k jistému rozhodnutí, spíše tím požadujeme důvod nebo ospravedlnění než podrobné vysvětlení samotného rozhodovacího procesu“.
Tento rozdíl je pro danou problematiku velmi podstatným. Profesorka a expertka na informační technologie Doshi-Velez tvrdí, že je možné vysvětlit, jak AI systém vytváří svá rozhodnutí, stejně jako lze vysvětlit, jak funguje gravitace nebo se peče dort. Toho bychom měli dosáhnout stanovením jistých pravidel, které AI systém bude dodržovat, aniž by odkazoval na konkrétní padající objekt nebo dort.
K vysvětlení toho, proč objekt padá například z důvodu rozbitého stroje v továrně, nepotřebujeme vysvětlit otázky gravitace. Požadovaného vysvětlení většinou dosáhneme otázkami typu: Jaké byly hlavní faktory v daném rozhodnutí? Ovlivnila by změna jistého faktoru celé rozhodnutí? Proč dva podobné případy vedly k rozdílnému rozhodnutí?... Zodpovězení otázek tohoto typu nemusí nutně vyžadovat detaily, které prozradí, jak daný AI systém funguje.
V jakém připadě bychom tedy měli požadovat vysvětlení? Společnost nemůže požadovat vysvětlení ke každému rozhodnutí, protože vysvětlení nejsou zadarmo – jejich generování stojí čas a námahu. Užitek z daných vysvětlení proto musí být balancován cenou. Příklad: když doktor sdělí postup všech svých dignóz a zákroků jinému doktorovi, může pak učinit méně chyb, ale také ztratit několik potencionálních pacientů. Proto je běžné, že čerstvě vystudovaný doktor vysvětluje svá rozhodnutí (postupy) zkušenému doktorovi, nikoliv zkušený doktor tomu čerstvě vystudovanému – pravděpodobnost, že doktor udělá chybu se snižuje a hodnota (zkušenost) doktora se časem zvyšuje. Požadovat vysvětlení bychom tedy měli vždy, pokud přínosy převyšují náklady.
Podle harvadského týmu bychom také měli požadovat vysvětlení, pokud má rozhodnutí dopad na někoho jiného, než na dotyčného, který rozhodnutí učinil. Musí existovat hodnota, která zjistí, zdali bylo rozhodnutí vykonáno chybně. A také musí existovat důvod domnívat se, že chyba se vyskytla v rozhodovacím procesu.
Pozorovatelé mohou mít například podezření, že rozhodnutí bylo ovlivněno irelevantním faktorem – chirurg například odmítá operovat kvůli současné fázi měsíce. Anebo systém učinil dvě stejná rozhodnutí ve dvou zcela odlišných situacích. V tomto případě bychom systém mohli podezřívat z toho, že nebral v potaz jeden z mnoha důležitých faktorů. Dalším důvodem může být neférové zvýhodňování jedné strany.
Zkrátka tu nejdříve musí být dobrý důvod myslet si, že dané rozhodnutí bylo špatné, předtím než začneme požadovat vysvětlení. Může však nastat situace, kdy budeme požadovat vysvětlení, abychom například zvýšili důvěru zákazníků.
Dopad: Harvardský tým expertů analyzuje právní situace, ve kterých je z nějakého důvodu požadováno vysvětlení – případy ručení, diskriminace, rozvod, administrativní rozhodnutí (soudci, porota...) a tak dále. Úroveň detailu se však velmi liší.
Všechny tyto faktory jsou však pro umělou inteligenci velmi důležité. Tým expertů usuzuje, že dostat srozumitelné vysvětlení od umělé inteligence je právně zcela proveditelné. Z velké části i díky tomu, že vysvětlení daného rozhodnutí může být učiněno, aniž by systém prozradil, jak funguje. Doshi-Velez dále dodává, že vysvětlovací část systému by měla fungovat zcela separátně od samotného AI systému.
I když generování pro člověka pochopitelných vysvětlení bude velmi složité, bude možné, což tým vede k jasnému závěru: „Prozatím by současné AI programy měly podléhat stejným právním normám jako podléhají lidé“. Umělá inteligence se však časem bude transformovat do formy, které nyní ještě nemůžeme rozumět. Právo a regulace by se proto měly vyvíjet společně s umělou inteligencí.
Pokud my lidé budeme v budoucnu spoléhat na systémy hlubokého učení, které za nás budou dělat důležitá rozhodnutí, měli bychom také porozumět tomu, jak fungují jejich rozhodovací procesy. V jakých situacích by měla AI vysvětlovat svá rozhodnutí a jak bychom tomu měli přizpůsobit zákony?
Originální článek