Deník N

Chci, aby i flegmatici dostali za svá data na internetu zaplaceno, říká expert na umělou inteligenci Pěchouček

Profesor Michal Pěchouček. Gabriel Kuchta, Deník N
Profesor Michal Pěchouček. Gabriel Kuchta, Deník N

S počítačovým vědcem a novým technickým ředitelem Avastu Michalem Pěchoučkem o umělé inteligenci, školní matematice, vlivu fotografií na klimatickou krizi a o dilematu mezi bezpečností a svobodou – o němž si on myslí, že dilematem vlastně není.

Dlouhodobě se pohybujete mezi vědou a byznysem. Teď jste se stal novým technickým ředitelem Avastu. Proč jste se posunul tímto směrem?

Je řada důvodů, proč se teď věnuji spíš byznysu, ačkoliv mám pořád úvazek na ČVUT, kde vedu Centrum umělé inteligence. Především chci nadále přemýšlet o tom, jak můžu měnit svět. Ten se dá měnit v různých dobách různými způsoby a na různých místech. Myslím, že dneska mohu přispět hlavně vymýšlením technologií, které pomohou chránit lidi na internetu, a zajistit tak víc bezpečí a svobody. Bezpečí a svoboda pro mě nejsou v rozporu, jsou to spojené nádoby. A tohle se dá v akademickém prostředí dělat jen v omezené míře.

Proč? Co akademiky omezuje?

Například dostupnost testovacích dat. Úspěch a kvalita technologií v oblasti umělé inteligence závisí na tom, jaká máte k dispozici testovací data. A ty mají v technologické firmě, která spravuje bezpečí stovek milionů uživatelů, úplně jinou povahu a rozsah než libovolná testovací data dostupná na univerzitě.

prof. Dr. Michal Pěchouček, MSc. (*1972)

Je technickým ředitelem společnosti Avast, současně přednáší na FEL ČVUT, kde je vedoucím Centra umělé inteligence. Založil úspěšné startupy Cognitive Security a AgentFly Technologies a Blindspot.AI. Působil jako hostující profesor na několika univerzitách v USA a Velké Británii. Je mezinárodně uznávaným a vysoce citovaným vědcem.

Mluvil jste o řadě důvodů, proč jste hlavně v Avastu, a ne na univerzitě, toto byl jeden.

Láká mě hranice mezi různými oblastmi lidského poznání. Tady v Avastu se potkává poznání v oblasti umělé inteligence s poznáním na poli počítačové bezpečnosti. Na univerzitě máme výborné výzkumy v oboru umělé inteligence, ale taková znalost síťové bezpečnosti, jaká je v Avastu, na škole prostě není. A sblížení těchto dvou světů, umělé inteligence a kyberbezpečnosti, se zatím nikomu na světě zásadně nepodařilo, a přitom v tom podle mě tkví vědecký a technologický pokrok. Chci být první, kdo díky propojení těchto komunit přinese něco velkého.

Proč se to ještě nikomu nepovedlo?

Kyberbezpečnost je extrémně těžký technicko-inženýrský obor. Část dat bývá utajená, nic tam není triviální, zjevné. Oproti tomu jsou vědci v oblasti umělé inteligence zvyklí pracovat s veřejně dostupnými daty, jako jsou například fotografie, na nichž své algoritmy trénují. Nechci nic zjednodušovat, ale trénovací obrázky jsou všude k dispozici, můžete si je stáhnout, pracovat s nimi, mají stejnou strukturu, jsou technicky výborný materiál. Disertace se na nich dělají jako víno. V kyberbezpečnosti je naopak všechno komplikované, těžko ověřitelné, velká část technologií se vyvíjí v nepřátelském prostoru. Je to obtížný obor. Proto si myslím, že dosavadní vývoj v této oblasti je spíš omezený.

Říkal jste, že víc bezpečí znamená víc svobody pro uživatele. Mnoho lidí to vidí přesně naopak. Bezpečnost nám bere soukromí, v mnohém nás omezuje.

Myslím, že je to až fundamentální filozofická otázka: je pravda, že nižší míra regulace, která ale může způsobit větší nebezpečí, vám dává větší svobodu? Já jsem velký liberál, ale věřím tomu, že jsou obory lidské činnosti, kde potřebujeme ochranu, dokonce bych řekl regulaci, abychom si mohli užít a prožít větší míru svobody. Kyberbezpečnost je typickým příkladem: umožňuje mi v klidu používat technologie, protože mohu mít důvěru, že mi někdo například nenainstaluje malware (program k vniknutí do počítačového systému nebo jeho poškození, pozn. red.). Díky kyberbezpečnosti mě nemohou nepozorovaně sledovat ani státní úřady. Je to svoboda výměnou za jinou svobodu. A já věřím, že technologická omezení a obranné techniky nám mohou naši dnes ohroženou svobodu udržet.

Avast shromažďuje ohromné množství dat o svých uživatelích a využívá je, třeba právě jako trénovací data pro umělou inteligenci. Není to zásah do soukromí a tím pádem do svobody uživatelů?

Pro výzkumnou práci a vývoj bezpečnostních technologií používá Avast anonymizovaná data, ze kterých se nic o konkrétních uživatelích vyčíst nedá. Avast navíc podléhá všem GDPR nařízením a s uživatelskými daty se neděje nic, co by nemělo. Uživatelé navíc mají možnost nám data vůbec neposkytnout.

Co v nové funkci chystáte? Řekl jste, že budete rozšiřovat výzkum umělé inteligence, strojového učení a kybernetické bezpečnosti, že povedete klíčové vědecké výzkumné týmy. Na co přesně se s nimi budete zaměřovat?

Jsem CTO (Chief Technology Officer, tedy technologický ředitel, pozn. red.), takže mám na starosti technologie ve vizionářském slova smyslu. Mám za úkol pomáhat Avastu směřovat do budoucnosti. Starám se o ústřední část antivirového produktu, což je jádro celého Avastu. Chtěl bych firmu pomoci připravit na několik trendů umělé inteligence a kyberbezpečnosti. K nim patří například vysvětlitelnost umělé inteligence – ta dnes není dostatečně úspěšná v boji proti kyberkriminalitě mimo jiné právě proto, že její metody jsou málo vysvětlitelné. Bezpečnostní analytici, kteří pracují s daty a mají na starosti reakci Avastu na nové hrozby, nemají vůči umělé inteligenci takovou důvěru, jakou bych chtěl, aby měli.

Problém vysvětlitelnosti umělé inteligence (explainable AI) spočívá v tom, že mnohé dnešní systémy AI fungují jako černá skříňka – nedovedou zdůvodnit, jak došly ke svým závěrům, k řešením předložených úloh. Vysvětlitelnou AI se má na mysli to, že její jednotlivé rozhodovací kroky bude moci v případě potřeby lidský expert detailně prozkoumat a ověřit.

Právě kvůli nízké míře její vysvětlitelnosti?

Ano. V Avastu bych chtěl pokročit ve zkoumání a vývoji těchto vlastností umělé inteligence. Dalším tématem jsou útoky pomocí umělé inteligence. Chceme výrazně víc rozumět tomu, co dělá útočník, jakým způsobem umělou inteligenci používá. Umět si namodelovat, co všechno může s daty dělat, aby dokázal efektivně útočit.

A co umělá inteligence a ochrana osobních dat?

To nás také zajímá. Chceme zkoumat technologie a metody umožňující uživatelům zlepšit jejich povědomí o tom, kdo a jak pracuje s jejich soukromými údaji. O tom, co to znamená behaviorální profil, jak se získává, jaký má vliv na to, co vidíme na internetu, do jaké míry bychom mohli uživatelům pomoci profil měnit.

Behaviorální profil je souhrn dat a metadat, která vytváříme svým chováním v digitálním prostoru. Patří do něj historie navštívených webových stránek, vyhledávacích dotazů, záznam veškerého našeho chování na sociálních sítích, seznamy našich „přátel“ (a v přiměřeném rozsahu chování každého z nich), historie nákupů. Samostatnou kapitolu představují data z mobilního telefonu – kde, kdy a jak se pohybujete, co tam děláte. V zemích, kde je ochrana osobních dat laxnější než v přísné EU, zahrnuje behaviorální profil též finanční a kreditní historii, některá lékařská data, údaje o hypotéce, užívání motorového vozidla apod. Ve vysloveně represivních režimech, jako je třeba Čína, je obsah behaviorálního profilu omezen jen technickými možnostmi, zahrnuje tedy například i údaje z bezpečnostních kamer rozpoznávajících obličeje.

Měnit? Jak to myslíte?

Mým velkým snem je zařídit, aby se uživatel mohl podívat na data na internetu očima různých lidí, různých behaviorálních profilů. Kdybych se byl býval na internetu poslední dva roky choval tak, že bych klikal někam jinam, co bych dneska viděl?

Jinými slovy: dneska vidím internet podle toho, zda jsem atlet, vědec nebo třeba kuchař. Ale chci se podívat, co vidí řidič autobusu. Chtěl bych také vyvíjet technologie, které uživatelům pomohou lépe rozumět tomu, co s nimi strojové učení a firmy okolo umělé inteligence dělají.

Teď mluvíte jen o otevřeném internetu, jako je historie hledání v Googlu, nebo třeba i o Facebooku?

V této souvislosti mluvím o otevřeném internetu. Doufám, že když se technologický pokrok bude dít v otevřeném internetu a vědecké komunitě, budou se toho chtít hráči typu Facebook chytit a pokusí se něco podobného vyvinout.

Jak je ta vaše idea daleko? Jak si má uživatel představit, že to bude fungovat?

Je to ve fázi diskusí a prvních ideových prototypů. Ostatně, už dneska můžete mít různé účty, mezi nimiž lze přepínat. Ale netriviální je to, jak si účty vypěstovat, aby vám poskytovaly správné zrcadlo. To zatím nemáme a neděláme.

Takže vaším cílem je to pověstné propichování bublin ve společnosti…

Ano, můžete se pak dívat do jiné bubliny, když chcete. Nelze nikoho nutit se tam dívat, nelze ani dělat arbitra a říkat, jaký druh informací je a není správný, protože to stejně nebude fungovat. Ale umožňovat lidem, kteří chtějí, vidět mimo svou bublinu považuji za důležité. Například pro jejich rozhodování ve volbách.

Nedávají teď lidé svá data všanc až příliš? Existují robotické vysavače, například různých čínských značek, které vám naskenují celý byt. Nebo aplikace jako FaceApp, kde proženete selfie filtrem, který fotku upraví – a zároveň odešlete data do Ruska. Nebojujete proti větrným mlýnům v tom smyslu, že technologie si stejně vždycky najdou cestu, jak z lidí data vytáhnout? A v konečném důsledku jsou to uživatelé, kdo je poskytuje…

Jasně, ale zatím je to jednoduché. Chci, aby to bylo těžší a těžší. Aby behaviorální profily, biometrická data a privátní údaje byly dražší a dražší a méně a méně dostupné. Aplikace FaceApp byla krásný příklad toho, jak se z lidí dají

Tento článek je exkluzivní obsah pro předplatitele Deníku N.

V tomto okamžiku nejčtenější