Odpovědnost nesmí být jen na koncových uživatelích

18.01.2020 19:07

 

Pojďme se podívat na data, na kterých se neuronová síť učí. Neil Postman varoval, že každá databáze je nutně nedokonalé zachycení světa. Zachytí jen to, na co má kolonku. Takže můžeme mít dojem, že reflektuje skutečný svět, ale přitom už jsme jen strukturou databáze ovlivnili, jaká data lze a nelze zachytit. Pokud však neuronová síť udělá na základě těchto dat rozhodnutí, bude se zvenku zdát, že je to objektivní rozhodnutí na základě pozorování reálného světa. Přitom je to rozhodnutí na základě malého specifického výseku světa zachyceného v databázi. Ztratí se nuance a kontext?
Ano, toto je problém. A mám dobrý příklad podobného zkreslení. Jeden z výsledků strojového učení, který si může vyzkoušet už skoro každý, jsou automatické odpovědi, které vám nabízí komunikační klient (například Gmail). Když vám přijde e-mail, systém vám nabídne automatickou odpověď, stačí na ní kliknout a hned se odešle odpověď. Ale uvědomme si, že tyto odpovědi nejsou psané lidmi. Mění tedy mezilidskou komunikaci, která však navenek stále vypadá lidsky. To je jeden z důsledků života v době, kdy jsou stroje schopné tvořit komunikaci, která vypadá inteligentně.

Co by přispělo k tomu, aby veřejnost lépe chápala fungování a dopady AI?
Je potřeba ukazovat příležitosti, které strojové učení přináší, ale také případné problémy, o kterých je dobré vědět. Psát a přednášet o umělé inteligenci je velmi těžké. Zatím se ta diskuze moc nevede, a když už vede, tak o lokálních problémech řešených hlavně v USA. Jsem si jistá, že při snaze aplikovat neuronovou síť natrénovanou na datech z USA někde jinde ve světě bude zase docházet k úplně novým problémům. Co funguje v angličtině, nebude fungovat jinde.

Víme, že velké firmy chtějí nabízet nějaká řešení postavená na AI, která mohou použít lidé po celém světě. A to hodně zasáhne do technologického ekosystému. Je proto důležité ukazovat, jaké dopady to má a může mít na lidi.

Klíčové je vzdělávání veřejnosti. Lidé by se měli zajímat o to, jak jsou používána jejich data. Nedívat se na strojové učení jako na povstání robotů, ale na práci s daty.

Není nerealistické vyžadovat po veřejnosti, aby zodpovídala za svoje data a vzdělávala se v oblasti umělé inteligence a datové a analýzy? Vždyť ani právníci nečtou dvacetistránková smluvní ujednání, která jsme všichni museli odsouhlasit, abychom mohli používat online nástroje. Jakou šanci má běžný člověk zorientovat se v tom, komu svěřit svá data a komu ne? Působ to na mne trochu alibisticky: „Copak jste si nepřečetli podmínky použití? Tam píšeme, že vaše data patří nám!“ Vždyť jinde bychom takový argument nepřijali. Když jdu do obchodu, nemusím se bát, že koupím jedovaté jídlo, protože vím, že existují přísné předpisy a kontroly.
Ano, je potřeba zvážit, jaké regulace jsou rozumné. Jak určit firmám jasnou zodpovědnost za to, co dělají s daty. Nemůžeme všechno házet jen na osobní zodpovědnost jednotlivců. Potřebujeme rozproudit veřejnou debatu o tom, jaká pravidla mají platit pro tuto infrastrukturu budoucnosti. Musíme najít způsob, jak to zvládnout. V EU vzniklo GDPR, které jde myslím správným směrem.

Říct lidem, nelíbí se vám, jak sociální sítě pracují s vašimi daty, tak ty služby nepoužívejte, to nic neřeší, to není skutečná volba.

Ve své přednášce říkáte, že musíme najít způsob, jak zajistit, že strojové učení nám bude pomáhat a nebude nám škodit. Není to utopie? Myslím, že vlastně cokoli, co má potenciál pomáhat, má taky potenciál škodit.
Stoprocentní to nebude, ale jde o princip. Podívejte se na lékařství. Už dvě tisíciletí profesionální lékaři přísahají: V prvé řadě neškodit. (V moderní verzi: „Upustím od všeho, co by nemocnému mohlo škodit nebo jej zbytečně zatěžovalo.“, pozn. red.)

Jak by to vypadlo, kdybychom něco takového začali prosazovat i u technologií? Kdybychom si uvědomili, že technologie jsou namířené na lidi, a že není správné zneužívat data lidí proti nim samotným? Znamenalo by to od základu proměnit, jak se stavíme k datům a k ekonomice na datech postavené. A na těchto datech by vznikala nová generace strojového učení.

Pokud se nám podaří prosadit princip, že data mají být shromažďována se zodpovědností vůči lidem, tak si myslím, že můžeme budovat budoucnost, kde technologie jako strojové učení přináší lidem užitek a řeší skutečné problémy.