Open menu

Novinky

Existenční rizika a AI

Existenční rizika a AI

Polemika

Tento text vznikl primárně jako reakce na brožuru Máme se bát umělé inteligence?, kterou zveřejnila skupina z Centra Karla Čapka pro studium hodnot ve vědě a technice. Brožurka je pěkná a informativní. Popisuje jak základní principy AI systémů, tak i etické problémy, které už dnes lidstvo trápí. A souhlasím, že je potřeba čelit výzvám budoucnosti ohledně trhu práce, dezinformací či diskriminace. Nicméně nesouhlasím s některými konkrétními tvrzeními, a hlavně s celkovým vyzněním části o existenčních rizicích (str. 10–13), jejíž závěr je, že „úvahy o rizicích spojených s obecnou umělou inteligencí jsou předčasné a odvádějí naši pozornost od problémů, které jsou až příliš reálné“.

Opatrně s výzvami o AI

Opatrně s výzvami o AI

David Černý

O umělé inteligenci čteme či slyšíme prakticky každý den a často je zde vykreslována v negativních barvách. Skupina odborníků a dalších známých osobností ji dokonce považuje za existenční riziko (mající potenciál vyhubit lidstvo), možná dokonce riziko největší. Pro novináře jsou tyto pochmurné vize nepochybně lákavé a ze záplavy zpráv a článků se musí zdát, že takřka neodvratná pohroma číhá za nejbližším rohem. K tomuto étosu nepochybně přispívají veřejné výzvy, které před umělou inteligencí varují, zvláště když je podepsali lidé jako Elon Musk, Bill Gates či známý informatik Stuart Russell.


I PowerPoint už je umělá inteligence

I PowerPoint už je umělá inteligence

František Hakl

Podle dubnového průzkumu společnosti IPSOS a Fakulty žurnalistiky UK by 59 procent Čechů uvítalo pozastavení vývoje umělé inteligence. Mají z ní obavy. Odborník na strojové učení František Hakl je vyvrací.

Morální hodnoty v jazykových modelech napříč jazyky

Morální hodnoty v jazykových modelech napříč jazyky

Přednáška

Centrum Karla Čapka pro studium hodnot ve větě a technice srdečně zve všechny zájemce na přednášku Jindřicha Libovického (MFF UK) "Morální hodnoty v jazykových modelech napříč jazyky".

Abstrakt

Neuronové jazykové modely slouží jako základ pro řešení mnoha úloh, které se týkají přirozeného jazyka. Vícejazyčné verze jazykových modelů se navíc dají použít k přenosu úloh mezi jazyky: úlohu se naučíme v jednom jazyce, pro který existují data a vícejazyčný model je schopen "zadarmo" úlohu řešit i v dalších jazycích. Prostřednictvím trénovacích dat do modelů vnikají určité hodnotové preference -- některé žádoucí, jiné méně (např. rasové nebo genderové předsudky). Při práci s více jazyky tak hrozí, že se kromě schopnosti řešit nějakou úlohu mohou přenášet i nějaké hodnotové vzorce, což může, ale nemusí být žádoucí. Náš výzkum se zaměřuje na to, jak je to hodnotovými preferencemi ve vícejazyčných modelech. Porovnání s jednojazyčnými modely ukazuje, že vícejazyčné modely mají tendenci částečně stírat kulturní rozdíly. Jako větší problém se u vícejazyčných modelů ukazuje neporozumění významovým nuancím napříč jazyky.