Open menu

Novinky

Opatrně s výzvami o AI

Opatrně s výzvami o AI

David Černý

O umělé inteligenci čteme či slyšíme prakticky každý den a často je zde vykreslována v negativních barvách. Skupina odborníků a dalších známých osobností ji dokonce považuje za existenční riziko (mající potenciál vyhubit lidstvo), možná dokonce riziko největší. Pro novináře jsou tyto pochmurné vize nepochybně lákavé a ze záplavy zpráv a článků se musí zdát, že takřka neodvratná pohroma číhá za nejbližším rohem. K tomuto étosu nepochybně přispívají veřejné výzvy, které před umělou inteligencí varují, zvláště když je podepsali lidé jako Elon Musk, Bill Gates či známý informatik Stuart Russell.


I PowerPoint už je umělá inteligence

I PowerPoint už je umělá inteligence

František Hakl

Podle dubnového průzkumu společnosti IPSOS a Fakulty žurnalistiky UK by 59 procent Čechů uvítalo pozastavení vývoje umělé inteligence. Mají z ní obavy. Odborník na strojové učení František Hakl je vyvrací.

Morální hodnoty v jazykových modelech napříč jazyky

Morální hodnoty v jazykových modelech napříč jazyky

Přednáška

Centrum Karla Čapka pro studium hodnot ve větě a technice srdečně zve všechny zájemce na přednášku Jindřicha Libovického (MFF UK) "Morální hodnoty v jazykových modelech napříč jazyky".

Abstrakt

Neuronové jazykové modely slouží jako základ pro řešení mnoha úloh, které se týkají přirozeného jazyka. Vícejazyčné verze jazykových modelů se navíc dají použít k přenosu úloh mezi jazyky: úlohu se naučíme v jednom jazyce, pro který existují data a vícejazyčný model je schopen "zadarmo" úlohu řešit i v dalších jazycích. Prostřednictvím trénovacích dat do modelů vnikají určité hodnotové preference -- některé žádoucí, jiné méně (např. rasové nebo genderové předsudky). Při práci s více jazyky tak hrozí, že se kromě schopnosti řešit nějakou úlohu mohou přenášet i nějaké hodnotové vzorce, což může, ale nemusí být žádoucí. Náš výzkum se zaměřuje na to, jak je to hodnotovými preferencemi ve vícejazyčných modelech. Porovnání s jednojazyčnými modely ukazuje, že vícejazyčné modely mají tendenci částečně stírat kulturní rozdíly. Jako větší problém se u vícejazyčných modelů ukazuje neporozumění významovým nuancím napříč jazyky.

Máme se bát umělé inteligence?

Máme se bát umělé inteligence?

Publikace CEVASTu

Umělá inteligence je poslední dobou takřka všudypřítomná. Kromě nadšení a touhy objevovat její nové dovednosti však v nemálo lidech vzbuzuje i obavy. Někteří autoři se dokonce domnívají, že umělá inteligence představuje existenční riziko, podle některých dokonce riziko nejvyšší.

V publikaci Máme se bát umělé inteligence se pokoušíme poněkud zmírnit obavy, které současné pokroky na poli umělé inteligence mohou vzbuzovat. Snažíme se ukázat, že hlavním problémem není samotná umělá inteligence, ale naše pasivita. Chtěli bychom tak přispět k současné diskusi a současně ji směřovat od AI ke způsobům, jakým jejích systémů využíváme. Umělou inteligenci můžeme chápat jako úžasný nástroj a kognitivní a fyzické rozšíření nás samotných. Aby ale tento nástroj  dobře fungoval, musíme se naučit používat ho rozumně, moudře a morálně správně.

Publikaci lze stáhnout kliknutím na tento odkaz..