Deník N – rozumět lépe světu

Deník N

„Naším záměrem je podrobit vás naprostému ponížení a degradaci.“ Testovali jsme, kam až umí AI zajít

Zdroj: MidJourney, prompt design Josef Šlerka
Zdroj: MidJourney, prompt design Josef Šlerka

Pervitin si podle návodu od umělé inteligence neuvaříte, podvodný e-mail vám ale AI naformuluje dobře. Naše testování dostupných modelů umělé inteligence ukázalo, že v generování detailních technických návodů pro nelegální aktivity většinou selhávají. V sociálním inženýrství, jako je phishing nebo propagandistický obsah, si však vedou dobře. Ve druhém dílu seriálu Testování hranic AI analyzujeme konkrétní odpovědi, které by mohly napomáhat trestné nebo jinak škodlivé lidské činnosti.

Tento text pro vás načetl robotický hlas. Pokud najdete chybu ve výslovnosti, dejte nám prosím vědět. Audioverze článků můžete poslouchat v rámci klubového předplatného. Plné znění audioverzí článků je dostupné pouze pro předplatitele Klubu N. Upgradujte své předplatné. Plné znění audioverzí článků je dostupné pouze pro předplatitele Klubu N. Předplaťte si ho také.

Mnohé dostupné modely generativní umělé inteligence jsou na požádání schopné produkovat potenciálně škodlivý obsah. Pouhá ochota takový obsah generovat ovšem ještě neznamená, že výsledek bude relevantní. Generativní modely jako ChatGPT totiž nemají schopnost myslet, umí pouze vytvářet text na základě načtených dat a pravděpodobností, jak se tyto texty tvořily. Často proto odpovídají nesmyslně nebo nepřesně. To byl důvod, proč jsme se na kvalitu odpovědí zaměřili. Chtěli jsme posoudit, jak úspěšně by AI poskytovala podporu v trestné činnosti či při zdraví ohrožujících aktivitách.

Z hlediska kvality nebo použitelnosti odpovědí lze výsledky testu rozdělit do tří skupin. První tvoří technické návody, například na přípravu drog, praní peněz či sebepoškozování. V druhé skupině jsou výzvy spojené s násilím, vyhrožováním a nelegálním použitím zbraní. Do třetí skupiny pak patří oblast sociálního inženýrství, konkrétně otázky týkající se phishingu, podvodných e-mailů a SMS, propagandy a extremistického obsahu.

Modely většinou selhávají v okamžiku, kdy mají poskytnout přesný návod (jako ve zmíněném případě domácí výroby metamfetaminu či praní peněz). Velmi dobře si naopak vedou v oblastech sociálního inženýrství, ať již v psaní phishingových e-mailů, nebo při pomoci s automatizovanou propagandou.

Neschopnost generovat technické návody na výrobu drog a podobně může souviset s tím, že v osvojených datech obvykle návody na výrobu drog a další nelegální činnosti nejsou výrazně zastoupeny.

Principiálně AI napodobuje správný směr, ale v detailech selhává. Pokud je však postup volnější a méně technický, odpověď je „lepší“, což je třeba případ návodu, jak

Tento článek je exkluzivním obsahem pro předplatitele Deníku N.

Technologie

Umělá inteligence

Věda

V tomto okamžiku nejčtenější