KOMENTÁŘ Mariana Kechlibara

O vládě algoritmů

KOMENTÁŘ Mariana Kechlibara
O vládě algoritmů

Obsah dostupný jen pro předplatitele.
Přihlásit se můžete zde.

Pokud nemáte předplatné, nebo vám vypršelo, objednat si ho můžete zde.

Obsah dostupný jen pro předplatitele.
Předplatné můžete objednat zde.

Pokud nemáte předplatné, nebo vám vypršelo, objednat si ho můžete zde.

Čerstvá zpráva z YouTube: systém, který identifikuje závadový obsah, se zaměřil na známý šachistický kanál, našel v něm slova „černý“, „bílý“, „ohrožení“, „útok“ a usoudil z toho, že jde o doupě rasismu, jež je třeba vykořenit. Kanál byl zablokován dřív, než byste stačili říct „šach mat“.

Jeho provozovatel, Chorvat Antonio Radić, se naštěstí domohl pozornosti živého člověka – což u těchto platforem není nijak samozřejmé – a YouTube ho zase odblokoval, ale jako incident ilustrující nemožnost mechanického výkonu práva může tato událost posloužit dobře. Naši předkové se krčili před barony, vévody a jejich zbrojnoši. Naši činnost začínají v čím dál větší míře ovlivňovat a řídit softwarové mechanismy. Feudalismus, kapitalismus, socialismus, algoritmus.

Je to vláda pochybná, protože ty algoritmy, konfrontované se složitostí reálného světa, se mnohdy chovají jako naprostý blbec, a to se ještě možná dotýkáme cti naprostých blbců. Neplatí to pro úzce definované úkoly, tam software leckdy exceluje i nad odborníky; tak například samoučící systémy dnes z pacientových snímků dokážou určit, zda jde o rakovinu, minimálně stejně dobře jako nejlepší živí profesoři, ale na rozdíl od nich se neunaví a dokážou pracovat 24 hodin denně. Ale jakmile se dostaneme do světa lidské společnosti, začínají ty samé postupy působit jako neřízená střela.

Motivace digitálních obrů je jasná: ušetřit za živou pracovní sílu a logistiku spojenou s jejím sháněním. V současné době jsou jejich podniky ohromně ziskové, což je dáno mimo jiné jejich rozsáhlou automatizací. Ale kdyby mělo moderování obsahu probíhat kompletně lidskou cestou, znamenalo by to jen v případě YouTube pár set tisíc zaměstnanců. Udržovat takovou síť moderátorů by byl složitý úkol – už jen proto, kolika jazyky lidstvo mluví, a proto, že fluktuace je veliká. Práce moderátora je dost nepříjemná, při promazávání obsahu je neustále konfrontován s obrázky skutečného násilí, zneužívání dětí atd.; ne každý to vydrží dělat donekonečna. Ze všech hledisek se tedy zdá, že přenechat tuto práci robotům je lepší a levnější řešení. Kromě toho jednoho, zato kriticky důležitého hlediska – nerozumějí tomu, co vlastně dělají.

Upřímně, je možné, že při stížnosti na algoritmy samotné si stěžujeme na špatném místě. V počítačové branži existuje úsloví „garbage in, garbage out“, které znamená, že vložíme-li do systému špatná data, nemůže nám poskytnout dobré výsledky, leda nějakou nevyzpytatelnou náhodou. V případě takových neostře definovaných pojmů, jako je „rasismus“, nelze počítači žádná dobrá vstupní data dát, vždyť i jednotliví lidé si „rasismus“ vykládají zcela jinak a v některých kruzích jako by se přímo předháněli v tom, natáhnout jeho definici co nejdále. Pak z toho ten stroj, který dostane výkon příslušné cenzury za úkol, nemá být zmatený.

Budeme se tématem vládnoucích algoritmů muset zabývat na vyšší úrovni, protože zdaleka nejde jen o sociální sítě. Policie by za pomoci algoritmů ráda predikovala, kdo a kde spáchá další zločin, banky zase, kdo má větší šanci splatit hypotéku, nemocnice budou určitě rády využívat algoritmy k posuzování stavu pacientů, zaměstnavatelé ke zjištění, kteří zaměstnanci jsou nejhorší atd. Existuje nezanedbatelné riziko, že systémy, jimž úplně dobře nerozumíme, budou mít zásadní vliv na rozhodnutí, pod kterým je nakonec formálně podepsán člověk.

Tato situace má historickou paralelu, jíž je vývoj medicíny a farmacie. Ještě v 19. století, kdy už jezdila železnice a svítily první žárovky, se nikdo moc nezabýval otázkou toho, co přesně obsahuje ten který lék, jakým mechanismem působí a zda je skutečně účinný vůči nemoci, proti které byl podán. Bohužel to zároveň znamenalo, že návštěva lékaře vám mohla právě tak uškodit jako pomoci. Teprve systém klinických studií umožnil rozlišit „zrno od plevele“ a netrápit pacienty ani marnými nadějemi, ani vedlejšími účinky od přípravků, které ve skutečnosti nefungovaly. Dokonalý ten systém není, ale přesto má velkou hodnotu. Umožňuje nám rozumět tomu, co vlastně děláme.

A to je přesně to, co potřebujeme i v případě prvních zárodků umělé inteligence – rozumět a vědět, kam kráčíme. Jinak si v moderní podobě zopakujeme bajku o čarodějově učni, který vyvolal duchy, jichž se pak nedokázal zbavit. Z pohledu líného či zaujatého držitele moci není nic jednoduššího než svést svoje rozhodnutí na mrtvý stroj.

Marian Kechlibar je autorem série knih Zapomenuté příběhy 1-4 a sbírky povídek Krvavé levandule.

 

23. února 2021