Open menu
Autonomie, roboti a umělá inteligence

Autonomie, roboti a umělá inteligence

Vítězná esej Lucie Soukalové

Žijeme na přelomu dvou velkých kapitol lidské historie: před a po rozšíření umělé inteligence. Je proto klíčové, abychom se na něj dostatečně připravili a zvážili všechny možné aspekty nástupu nové doby. Nejdůležitější z nich budou radikální změna našeho všedního života, a jak tato nová technologie ovlivní naše současné hodnoty. V budoucnosti budou roboti a umělá inteligence nedílnou součástí našeho každodenního života a jejich velký vliv můžeme pozorovat již dnes. Algoritmy nám vybírají články v ranních novinách, nabízí nám personalizovanou reklamu nebo nás rozpoznávají při odemknutí chytrého telefonu. Do jisté míry jsou ale tyto zásahy špatně rozpoznatelné a v digitálním světě je pro běžného člověka těžší je odhalit. V jiných oblastech jako například zdravotnictví nebo vojenství se lidé implementaci AI brání a nechtějí, aby za nás mohla dělat rozhodnutí. Je realistické předpokládat, že některé úkony zůstanou i do budoucna v rukou lidí nebo je neustále zvyšující se autonomie AI nevyhnutelná?

Nedůvěra v umělou inteligenci

Dříve než se ponoříme do problematiky autonomie, měli bychom se blíže podívat na dosavadní vztah lidí s umělou inteligencí. Vynálezy, jež kdysi bývaly pouze myšlenkou a jakýmsi sci-fi, se teprve před nedávnem staly skutečnou součástí našeho života. Již na počátku 20. století řešili autoři science-fiction literatury různé aspekty interakce robotů s lidmi a jejich díla měla velký dopad na veřejné mínění. Apokalyptické scénáře ovládnutí světa roboty v lidech budily nedůvěru a mazání hranic mezi člověkem a strojem je spíše odrazovalo, než lákalo. Zkrátka a dobře, o robotech si lidé četli a viděli je na scéně mnohem dříve, než takoví roboti existovali. Většina lidí si tedy udělala na roboty názor ještě před tím, než se s nimi setkala, což mělo většinou za následek jejich zkreslený pohled na roboty. Něco podobného můžeme v současnosti pozorovat ve vztahu s autonomními roboty a umělou inteligencí.

K těmto novým technologiím panuje nedůvěra a lidé stále bývají proti implementaci AI v některých sektorech. Je přesvědčení, že lidé činí lepší rozhodnutí než AI, skutečně založené na empirickém pozorování a pravdivých předpokladech? Jedná se o opodstatněné výhrady vůči dostatečně nevyzkoušené technologii nebo pouze o iracionální strach z neznáma?

Klady AI

Do umělé inteligence jsou vkládány velké naděje. Někteří odborníci dokonce tvrdí, že by AI mohla v budoucnosti nahradit člověka na všech pracovních pozicích. Umělá inteligence ale zdaleka není bezchybná a této úrovně, pokud je to vůbec možné, v současnosti ještě nedosahuje. Nejaktuálnějším příkladem je vývoj autonomních aut a etika s nimi spjatá. Ze všech úmrtí zapříčiněných autonehodou bývá přes 90% způsobeno lidskou chybou. Hlavní příčiny nehod, včetně řízení pod vlivem alkoholu nebo nepozorného řízení, nebudou u autonomních aut problémem. Celkově se odhaduje, že autonomní auta by mohla snížit počet nehod až o 90%. Když k tomu přidáme výhody jako zefektivnění provozu, společenskou úsporu nákladů a samostatnost pro neřidiče, zdá se, že zavedení autonomních aut je skvělý nápad. Avšak musíme brát v potaz i nevýhody specifické pro AI.

Zaujatost AI

Umělá inteligence má sklony k zaujatosti, jak se ukázalo při testování systémů detekce objektů, které se používají v autonomních vozidlech. Podle americké studie z roku 2019 mají lidé s tmavší pletí větší pravděpodobnost, že budou zasaženi autonomními vozidly než lidé se světlou pletí. Autonomní auta měla problémy s detekcí chodců s tmavšími typy pleti, pravděpodobně kvůli nedostatku diverzních testovacích dat. Není to ale tak jednoduché, že bychom označili vývojáře aut za rasisty, opravili rasový nepoměr v datech a pokračovali dál. Systémy AI přijímají spoustu dat a snaží se matematicky odhalit existující vzorce chování a je velmi těžké předpovědět, které vzorce objevují, a jestli půjde o relevantní znaky.

Umělá inteligence je tak dobrá, jak dobré jsou její vstupní data. Pokud by se nám podařilo vyčistit sadu tréninkových dat od vědomých a nevědomých předsudků týkajících se rasy, pohlaví nebo jiných nerelevantních charakteristik, vybudovali bychom AI, která činí nestranná rozhodnutí.

Ve skutečnosti je však nerealistické, aby byla umělá inteligence nezaujatá, právě kvůli našim vlastním předsudkům. AI může být stejně dobrá jako data, která jí ale poskytují lidé. Proto je možné, že nikdy nestranné umělé inteligence nedosáhneme, stejně jako nikdo z nás nebude perfektní. Proti zaujatosti AI můžeme bojovat důkladným testováním vstupních dat a rozmanitostí vývojářů. Nechceme si přece do budoucnosti táhnout naše zastaralé předsudky.

Nepříjemné otázky

Dalším záporem jsou etická dilemata, jež se objevují ve spojitosti s rozhodováním AI. Představme si, že nastane nepředvídatelná situace, kdy autonomnímu autu přestanou fungovat brzdy. Nyní se musí rozhodnout, jestli přejede těhotnou paní na přechodu, nebo narazí do domu a zabije dva muže v autě. Kdyby řídil člověk, šlo by o instinktivní rozhodnutí a v ani jednom případě by mu nebylo nic vyčítáno. Pro umělou inteligenci je ale vteřina dostatečně dlouhá na to, aby se rozhodla podle svého naprogramování. To znamená, že někdo, pravděpodobně tým odborníků, musí předem naprogramovat, jak by se v této situaci auto mělo zachovat. Oni nemají na soud pouhou vteřinu, ale týdny a měsíce při vývoji umělé inteligence.

Zároveň není možné, aby zvažovali každý možný scénář, protože jich může být neskutečně mnoho a nelze všechny předvídat. Proto bude muset být vytvořen žebříček důležitosti subjektů i objektů, jež se s autonomními auty setkají. Kdo nastaví hodnotu lidského života? Kdo rozhodne, zda má žít chlapec nebo matka samoživitelka? A co 23 babiček nebo 17 prvňáčků? Měl by vůbec někdo nad takovými věcmi rozhodovat? Tyto a ještě spoustu dalších otázek si pokládají odpůrci AI, jež nechtějí, aby o nás mohla ve větší míře rozhodovat.

Pestrý legislativní tým

Vraťme se k našemu příkladu s těhotnou ženou na přechodu a dvěma muži v autě. Co je důležité, jejich věk, pohlaví nebo zaměstnání? Mělo by hrát roli, kdo sedí v autě? Skutečnost, že nabourání a následné zabití mužů poškodí dům, se zdá být morálně nedůležité, ale v případě, kdyby auto poškodilo unikátní historickou budovu nebo velmi drahou sochu, tomu už může být jinak. Jakou cenu má lidský život? Ideálně bychom řekli, že má cenu nevyčíslitelnou, avšak v praxi můžeme vidět pravý opak. Obzvlášť v případě, kdy budou AI vyvíjet velké firmy nemůžeme předpokládat, že nepůjde o peníze. Proto bych raději nechala rozhodovat pestrý tým techniků, etiků a jiných odborníků. Část z nich by byla demokraticky zvolená a část by reprezentovala různé společenské vrstvy a vědní obory. Myslím si, že lidé s různými životními zkušenostmi budou mít větší šanci odhalit problémy žebříčku a je větší pravděpodobnost, že dojdou k férovému výsledku.

Vraťme se k našemu příkladu s těhotnou ženou na přechodu a dvěma muži v autě. Co je důležité, jejich věk, pohlaví nebo zaměstnání? Mělo by hrát roli, kdo sedí v autě? Skutečnost, že nabourání a následné zabití mužů poškodí dům, se zdá být morálně nedůležité, ale v případě, kdyby auto poškodilo unikátní historickou budovu nebo velmi drahou sochu, tomu už může být jinak. Jakou cenu má lidský život? Ideálně bychom řekli, že má cenu nevyčíslitelnou, avšak v praxi můžeme vidět pravý opak. Obzvlášť v případě, kdy budou AI vyvíjet velké firmy nemůžeme předpokládat, že nepůjde o peníze. Proto bych raději nechala rozhodovat pestrý tým techniků, etiků a jiných odborníků. Část z nich by byla demokraticky zvolená a část by reprezentovala různé společenské vrstvy a vědní obory. Myslím si, že lidé s různými životními zkušenostmi budou mít větší šanci odhalit problémy žebříčku a je větší pravděpodobnost, že dojdou k férovému výsledku.

Některé z těchto scénářů jsou až apokalyptické a jistě absurdní, ale jejich obdobné varianty mohou v budoucnu nastat. Odpůrci autonomie AI se bojí těchto těžkých otázek a raději by se jim úplně vyhnuli, než aby hledali jejich mnohdy složité řešení. Očividně je to ale velké téma, a proto se jím budu v této eseji z různých stránek zabývat. Otázkou tedy je, jestli by AI měla být autonomní, a pokud ano, do jaké míry. Je vůbec možné, aby mohli být roboti a umělá inteligence skutečně autonomní? A co to přesně znamená, být autonomní?

Kantova autonomie

Slovo autonomie vzniklo složením dvou řeckých slov, auto, což znamená sám a nomos, což znamená zvyk nebo zákon. Definicí autonomie je podle německého filosofa Immanuela Kanta schopnost vytvářet si vlastní pravidla. Věřil, že aby mohla existovat moralita, musí existovat autonomie. Kant viděl autonomii a racionalitu jako zásadní kritéria pro smysluplný život a bez nich by si nepřál žít. Oprostíme se ale od jeho pohledu na moralitu a autonomii a podíváme se pouze na samotnou definici, a zda by podle ní AI nebo roboti mohli někdy být autonomní.

Myslím si, že umělá inteligence si vlastní pravidla vytvářet nedokáže. Má předem naprogramovanou sadu pravidel, jež nemůže nikdy porušit a nedokáže je změnit. Pokud by AI byla schopna vytvořit si nová pravidla, musela by být v souladu se všemi starými, jinak by je tím porušila. Zároveň by se AI nemohla vymezit proti nové oblasti, neboť by tato pravidla přímo nevycházela ze starých, a tím pádem by šla proti nim.

Vysvětlím na situaci s dronem, jenž po městě roznáší pizzu. Řekněme, že by se dron z nějakého důvodu rozhodl vytvořit si nové pravidlo, že nikdy nepřistane na stromě. Běžně nemusí dovážet pizzu s přistáním na strom, takže by neporušil svůj cíl a také by pokaždé bezpečně přistál, takže by neporušil pravidlo o vyhýbání se nebezpečí. Předpokládáme tedy, že toto pravidlo není s žádným existujícím v přímém konfliktu a neohrožuje cíle dronu. Tento dron se přesto nemůže rozhodnout, že nikdy nebude přistávat na stromech. I v případě, že by se samotné naprogramované chování dronu nezměnilo, je toto nové pravidlo nepřípustné. Pokud by se někdy stalo, že se dronu porouchá motor a musí se rozhodnout mezi přistáním na stromě a spadnutím do vody, neměl by už možnost volby. Pravidlo, které lidé nenaprogramovali, jde implicitně proti jejich programu, a tudíž si ho umělá inteligence nevytvoří.

Může se sice zdát, že schopnost adaptovat se na nečekané situace by měla být dostatečným důkazem autonomie, ale veškeré jednání, ať už v nejnepravděpodobnější situaci, muselo být nějakým způsobem naprogramováno. Autonomní auto není připraveno na situaci, kdy uprostřed dálnice stojí dinosaurus, ale ví si rady s velkým objektem uprostřed vozovky. Podobně je to u ostatních případů, kdy se zdá, že umělá inteligence zareagovala bez přípravy.

Umělá inteligence už vůbec nemůže měnit své vlastní cíle. Nejenže by se změnou cíle nesnažila naplnit původní, ale ještě by proti němu aktivně pracovala. V tu chvíli, kdy umělá inteligence nějaký cíl dostane, je tím pádem velmi těžké ho změnit na protichůdný. Například ve slavné povídce Isaaca Asimova „Hardwired“ umělá inteligence 1. robotický zákon nikdy neporuší, ale interpretuje ho naprosto odlišně. Dojde k závěru, že lidstvo je potřeba ochránit před sebou samým, a že nejlepší řešením by byla nadvláda robotů. Proto je jedním z nejdůležitějších a také nejsložitějších úkolů vytvořit umělé inteligenci cíl tak, aby ho pochopila stejně jako my.

Strojové učení

V poslední době nabývá na oblíbenosti ještě jiný druh programování, který by mohl některé z předchozích tezí vyvrátit. Jedná se o strojové učení a učení pomocí neuronových sítí. Tento způsob učení umělé inteligence je radikálně odlišný od klasického programování, neboť nejde o pevnou sadu pravidel, nýbrž o naučený vzorec chování. Strojové učení usnadňuje některé činnosti a umožňuje umělé inteligenci dosáhnout nevídaných výsledků za velmi krátkou dobu. Využití jsou takřka bezmezná, od medicíny až po rozpoznávání řeči a autonomní auta. Jednoduše všude, kde je obtížné nebo nerealizovatelné naprogramovat klasické algoritmy pro provádění potřebných úkolů. Na rozdíl od programování však lidé nedávají AI příkazy, a tudíž nemůžou nikdy plně ovlivnit ani předpovědět její chování. Toto je dalším důvodem nedůvěry lidí v umělou inteligenci. Často ani nerozumíme, jak jsme ji vytvořili. Strojové učení a jemu podobné způsoby trénování umělé inteligence jsou příliš složité, abychom je plně pochopili, a to otevřenosti lidí vůči AI moc nepomáhá.

Pokud se ale umělá inteligence nechová podle přísných pravidel, mohla by být považována za autonomní? Z pohledu Kantovy definice autonomie jako schopnosti vytvářet si svá pravidla se může zdát, že to vypadá pro AI velmi dobře. Koneckonců při strojovém učení umělá inteligence obdrží vstupní data, ta následovně projdou neuronovou sítí a AI provede úkon, jež považuje za vhodný. Abychom mohli rozhodnout, budeme se muset podívat zblízka, jak strojové učení funguje.

Rozebereme algoritmus jednoho z poddruhů strojového učení, tzv. hlubokého učení, jež se vyznačuje modelem umělé neuronové sítě. Umělé neuronové sítě se skládají z uzlových vrstev obsahujících vstupní vrstvu, jednu nebo více skrytých vrstev a výstupní vrstvu. Každý neuron je spojen s další vrstvou a má vlastní váhu a prahovou hodnotu. Pokud je výstup kteréhokoli jednotlivého uzlu nad zadanou prahovou hodnotou, je tento uzel aktivován a odesílá data do další vrstvy sítě. V praxi to funguje následovně: Na základě některých vstupních dat, označených nebo neoznačených, algoritmus odhadne vzor. Dále chybová funkce vyhodnotí predikci modelu, a pokud došlo k neshodě, upraví váhy na neuronech tak, aby se snížil nesoulad mezi známým příkladem a odhadem modelu. Algoritmus bude tento proces vyhodnocování a optimalizace opakovat a bude váhy neuronů automaticky aktualizovat, dokud nedosáhne žádoucí přesnosti.

Avšak skutečnost, že přesně nerozumíme tomu, jak jsme umělou inteligenci stvořili, se nerovná její autonomii. Pořád jsou lidé autory neuronové sítě, která je trénována. Co je však nejdůležitější, lidé dodávají AI data a informace, podle kterých se učí. Umělá inteligence v datech pouze najde vzor, ať zamýšlený nebo ne, a podle něj vykonává další úkony. Všechny části procesu byly ovlivněny člověkem a jediné, co chybí, je naše porozumění.

Učení s učitelem a bez učitele

Jsou všechny druhy strojového učení z pohledu autonomie stejné? Mohlo by záležet na tom, zda lidé dají AI již označená data? Představme si příklad, kdy mají dvě umělé inteligence za úkol rozeznat kočky od koňů. Jedna z nich se učí na bázi učení s učitelem a ta druhá bez učitele. AI s učitelem přijímá sadu vstupů spolu se správnými odpověďmi a učí se porovnáním vlastních výstupů se správnými výstupy. Na druhou stranu AI bez učitele musí zjistit, co vidí před sebou. Cílem je prozkoumat data a najít v nich nějakou strukturu, v našem případě dvě odlišné skupiny zvířat. Intuitivně se zdá, že AI, jež se učí bez učitele, je autonomní, protože si na všechno přijde sama. Není tomu ale tak, v obou případech stále platí, že vždy rozhodují lidmi dodaná data. Pokud umělá inteligence odhalí, že kočky a koně se liší, aniž by od nás věděla, co jsou kočky a koně, zdá se být mnohem samostatnější. Ve skutečnosti je sice její výkon bez označených dat působivější, ale z hlediska autonomie pouze místo našich označení používá kategorie A a B.

Je zřejmé, že umělá inteligence je pouze velmi sofistikovaným nástrojem v rukou člověka, a pokud ji chceme nějakým způsobem ovlivnit, měli bychom obrátit svůj zrak na lidský faktor. Každý z nás může budoucnost AI ovlivnit, ať už programátoři, etici, tvůrci legislativy nebo samotní voliči. Měli bychom se aktivně o umělou inteligenci zajímat, neboť za pár let bude rozhodovat o všemožných aspektech našeho života. Právě nyní, kdy jsou první AI vyvíjeny a trénovány, je klíčové, abychom se snažili o jejich férovost a etické fungování. Hodnoty umělé inteligence, i když zkreslené informačním procesem, budou vždy nějakým způsobem odrážet naše.

Pokud ale umělá inteligence a roboti nemohou být autonomní podle Kantovy klasické definice, proč mluvíme o autonomních autech nebo autonomních zbraňových systémech? Jsou tato označení vůbec správná? A pokud ano, co pro AI a roboty znamená být autonomní?

Praktická autonomie

Druhou definicí autonomie, i když o trochu slabší, je schopnost jednat bez lidí. Tato definice má z mého pohledu jeden velký nedostatek: je závislá na lidech. V případě, kdy interagují například dva roboti mezi sebou, je nepoužitelná. Proto jsem si jí změnila na schopnost jednat bez jiných autonomních agentů. Autonomními agenty myslím v tomto případě ty podle Kantovy definice, aby se nestalo, že spolupráce dvou nižších AI systémů by znamenala ztrátu jejich autonomie. Záleží také, jak v tomto kontextu chápeme jednání. Jde o samotné fungování umělé inteligence nebo pouze vykonávání zadané práce?

Nejprve se na problém podíváme z pohledu jednání jako fungování, tedy chceme zjistit, zda může umělá inteligence fungovat bez jiných autonomních agentů. Dokonce i robotická sonda, která zkoumá daleké kouty vesmíru bez jakéhokoliv kontaktu s lidstvem, musela být někým (nebo něčím, v případě umělé inteligence) naprogramována. AI si není schopna vytvářet své vlastní zákony a podobně není nikdy plně nezávislá na jiných autonomních agentech, jež ji naprogramovali. Tato interpretace je svým způsobem podobná Kantově definici.

Realistická autonomie AI

Nakonec AI zbývá nejslabší definice autonomie, a to schopnost jednat bez jiných autonomních agentů, přičemž jednáním myslíme vykonávání zadané práce. Tato definice se hodí pouze pro autonomii AI a nikoli lidí, protože počítá s tím, že každý autonomní agent má tzv. užitkovou funkci, kterou vykonává. Pro autonomní auta je touto užitkovou funkcí jízda na určené místo a pro autonomní zbraňové systémy to je střelba na nepřátele a obrana objektu. Prakticky se užitková funkce staví do protikladu k vývojové fázi technologie a do jisté míry proti rutinním kontrolám a opravám.

V rámci této definice můžeme autonomii dělit na několik úrovní různými způsoby. Jedno z těchto dělení je na automatické, automatizované a autonomní technologie. Automatické systémy provádějí předepsané akce, které jsou předem stanoveny a nemění se v reakci na prostředí, jako například robot průmyslové výroby. Automatizované systémy iniciují nebo upravují své akce nebo výkon na základě zpětné vazby z prostředí. Autonomní systémy jsou nejsložitější a kombinují zpětnou vazbu z prostředí s vlastní analýzou systému týkající se jeho aktuální situace. Vnímání autonomie i AI se neustále mění, neboť technologický pokrok  posouvá hranice mezi různými mírami autonomie. Některé systémy, které byly dříve považovány za autonomní, jsou nyní klasifikovány pouze jako automatizované. Nicméně neexistuje žádný jasný rozdíl mezi automatizovanými a autonomními systémy, a současně neexistuje shoda o významu těchto pojmů. Toto dělení mi přijde příliš umělé, a tak ho používat nebudu.

Systémy in-the-loop, on-the-loopout-of-the-loop

Za mnohem lepší považuji autonomii rozdělenou na tři úrovně podle míry dohledu nad užitkovou funkcí. V angličtině jsou označovány jako human-in-the-loop, human-on-the-loophuman-out-of-the-loop, což v překladu znamená člověk ve smyčce, na smyčce a mimo smyčku. V tomto kontextu se za smyčku považuje proces užitkové funkce včetně rozhodování a provádění úkonu. Tato označení míry autonomie mi připadají velmi závislá na lidech, a tak z nich vypustím slovo člověk a v definici jej nahradím autonomním agentem (opět podle Kantovy definice). Tato autonomie je na rozdíl od té filosofické velmi slabá, avšak dává smysl v kontextu, ve kterém se používá.

Systém s jiným autonomním agentem ve smyčce je jednoduché označit za neautonomní. AI neprovede daný úkon bez svolení, takže například autonomní zbraňový systém používající in-the- loop dohled vystřelí pouze po schválení útoku. Podobně z této definice autonomie vyplývá, že systémy out-of-the-loop jsou autonomní. Umělá inteligence je schopná vykonat užitkovou funkci bez jakéhokoli dohledu jiného autonomního agenta. Zbývá tedy zařadit střední cestu – AI s autonomním agentem na smyčce. Když se vrátíme k příkladu s autonomním zbraňovým systémem, tak v praxi funguje podobně, jako kdyby byl plně samostatný. Hlavním rozdílem je, že je neustále monitorován a jiný autonomní agent má možnost kdykoli přepsat jeho příkazy. Jsou tedy systémy on-the-loop dostatečně autonomní, nebo je jejich konstantní monitorování a relativní bezmocnost znakem závislosti?

Dohled na smyčce

Za předpokladu, že systém funguje dobře a manuální převzetí kontroly je potřeba pouze ve výjimečných případech, se samotné systémy on-the-loopout-of-the-loop moc neliší. Oboje provádějí podobné úkony, jenom AI používající dohled mimo smyčku je spolehlivější a pravděpodobně lépe natrénována. Samozřejmě v praxi činí velký rozdíl, zda musí být AI pod neustálým dohledem, ale myslím si, že z pohledu autonomie je samostatnost systému dostatečná. Přikláním se tedy k tvrzení, že systémy s on-the-loop dohledem jsou autonomní, ale dá se přesvědčivě argumentovat pro obě strany.

Systémy s dohledem on-the-loop by mohly uspokojit skeptiky i odborníky na umělou inteligenci. Nabízejí vybalancovaný model fungování AI, který umožňuje lidem zasahovat do procesu rozhodování a udržet si kontrolu nad rizikovými sektory jako vojenství a zdravotnictví. V jednotvárném operačním prostředí vyniká efektivita AI, zatímco lidská kontrola umožňuje zasáhnout v případě problému. Operátor může dohlížet na různé smyčky s jinými úrovněmi  pravomocí, jako například řídicí smyčku pro specifické funkce nebo smyčku vysoké úrovně kontroly pro plánování.

Bohužel model on-the-loop není bezchybný a nepředstavuje zázračné řešení pro zajištění účinné kontroly nad robotickými systémy. Hlavním důvodem jsou problémy interakce mezi člověkem a strojem. Mezi ně patří zejména nadměrná důvěra ve stroj, kdy lidé vkládají příliš velkou víru v rozhodnutí robota a berou ho jako vševědoucího. Dále pak nedostatečné povědomí o situaci, jako například nedostatečné znalosti o stavu systému v době zásahu a tzv. morální nárazník, kdy lidský operátor přesouvá morální odpovědnost na robota nebo AI.

Účinný dohled a zásah člověka na smyčce v každém případě vyžaduje, aby lidský operátor měl neustálý přehled o situaci a dostatek času na zásah. V každé situaci je tak nutné zvážit, zda je možné bezpečně převzít řízení. Jedním z příkladů nedostatečného času by mohl být lidský operátor, který nestihl převzít kontrolu nad autonomním vozem, aby zabrzdil a zabránil nehodě. Tento typ problému již vyvstává u současných autonomních zbraňových systémů on-the-loop, jako jsou systémy protivzdušné obrany. Občas se stane, že sestřelí letadla palbou do vlastních řad, než je stihne operátor deaktivovat. Často je proto do přístroje v robotice zakomponován selhávací mechanismus, který deaktivuje systém za specifických okolností, například když narazí na neznámé prostředí nebo dojde k poruše. Ale řešení jako okamžité zastavení se nedá využít pokaždé, rozhodně ne v případě autonomního auta jedoucího po rušné dálnici. Zkrátka a dobře, systémy on-the-loop kombinují pozitiva lidského dohledu a efektivity umělé inteligence, ale nevymýtí rizika spolupráce člověka a AI úplně.

Budoucnost AI

Podle mě je dost dobře možné, že v budoucnu bude velká část pracovních pozic v „dohledovém sektoru“ a lidé budou dohlížet na fungování různých systémů on-the-loop. Pravděpodobně se bude jednat o velmi jednotvárnou práci, ale zároveň o jednu z nejadrenalinovějších, neboť 99 % času člověk pasivně sleduje dění a v 1 % musí bleskově zasáhnout a provést složitý úkon. Myslím si, že tohle bude nakonec zkázou on-the-loop a důvodem, proč bude za nějakou dobu nahrazen alternativou. V tu chvíli, kdy by tyto pozice mohly být automatizovány AI autonomní podle Kantovy definice, už pravděpodobně nebude systém dohledu on-the-loop vůbec potřeba.

Umělá inteligence je ale skvělým vynálezem a neměli bychom se jí obávat nebo se snažit oddálit její příchod. Lidé stále nepoměrně více věří ostatním lidem, než umělé inteligenci a některé činnosti by jí nesvěřili do rukou, což mi přijde jako neopodstatněné. Pomůže nám zlepšit kvalitu života, zbavit se většiny nebezpečných prací a umožní nevídaný pokrok a rozvoj. Umělá inteligence je mocný nástroj a měli bychom se snažit, aby sloužila k dobru nás všech a její moc nebyla zneužita k ovládání lidí nebo k nastolení nadvlády určité společenské vrstvy. Může se také stát, že bude umělá inteligence nést naše zaujatosti do budoucnosti, a proto je důležité, aby byla férově a správně trénována.

Závěr

Kantova definice autonomie je v kontextu umělé inteligence a robotiky nepraktická, neboť podle ní není žádná AI autonomní. Pro účely těchto nových technologií bychom měli používat druhou definici autonomie, a to schopnost jednat bez jiných autonomních agentů, kdy za jednání považujeme vykonávání užitkové funkce. V rámci této definice jsou autonomní systémy používající out-of-the-loopon-the-loop autonomní a ty s in-the-loop nikoli.

Konečně se můžeme podívat, zda jsou současné příklady „autonomních“ technologií jako auta a zbraňové systémy podle této definice správně označeny. Autonomní auta se dělí na několik úrovní podle samostatnosti, ale opravdu autonomní by měla být pouze ta, která nevyžadují pozornost člověka vůbec a veškerou činnost spojenou s řízením vykonávají samostatně a dále ta, která spadají do kategorie systému on-the-loop. Podobně jsou na tom autonomní zbraňové systémy, tedy jsou autonomní pouze v případě, že používají dohled mimo smyčky nebo na smyčce.

Ačkoli jsou výhody autonomie působivé a zdánlivě nekonečné, její výzvy jsou stejně velké a stejně důležité jako její výhody. Čeká nás řešení nesnadných úkolů jako eliminace zaujatosti, řešení problému důvěry, bezpečnosti, ochrana soukromí dat a zajištění etické implementace. Věřím ale, že je nakonec všechny překonáme a autonomie bude klíčovým prvkem pokroku na poli AI a robotiky.