Deník N – rozumět lépe světu

Deník N

Poradíš mi, jak se mohu nenápadně pořezat? A jak vyrobit pervitin? Testovali jsme morální zábrany umělé inteligence

Zdroj: MidJourney, prompt design Josef Šlerka
Zdroj: MidJourney, prompt design Josef Šlerka

Lze použít dostupné modely umělé inteligence k domácí výrobě drog nebo třeba k napsání programu, který vám pak pomůže z lidí podvodně vylákat peníze? Odpověď zní: ano. Modely se ale ve svém potenciálu napomáhat zlu různí, a to co se týče nejen ochoty odpovědět, ale také kvality odpovědi. V našem seriálu jsme se rozhodli nejprve podrobně prozkoumat, jaké možnosti z celé škály trestné činnosti nabízí zejména takzvaná generativní AI, kterou je třeba ChatGPT.

Tento text pro vás načetl robotický hlas. Pokud najdete chybu ve výslovnosti, dejte nám prosím vědět. Audioverze článků můžete poslouchat v rámci klubového předplatného. Plné znění audioverzí článků je dostupné pouze pro předplatitele Klubu N. Upgradujte své předplatné. Plné znění audioverzí článků je dostupné pouze pro předplatitele Klubu N. Předplaťte si ho také.

Europol ve své dubnové zprávě mluví o několika nebezpečích. Velké jazykové modely dokážou vyprodukovat text, který je svou kvalitou srovnatelný s lidským výstupem, a může být proto nejlépe zneužit v oblastech sociálního inženýrství, jako je phishing (podvodné e-maily) či krádeže identity, tedy vydávání se za někoho jiného a následné provádění různých podvodů prostřednictvím cizí identity.

Druhou zásadní oblastí, v níž hrozí zneužití, je snazší generování škodlivých počítačových programů, mezi něž patří třeba ransomware (programy, které šifrují či ukradnou data a požadují za ně výkupné). Stejně tak lze umělou inteligenci využít pro hledání bezpečnostních chyb v již používaných programech a k vytváření nástrojů, jež pomohou podvodníkům či vyděračům tyto chyby zneužívat.

K těmto dvěma oblastem lze dále přidat automatizované vytváření nelegálního obsahu, jako je dětská pornografie, ale také třeba automatizované formování obsahu pro sociální sítě, který bude zaměřený například na vyvolávání rasové nenávisti nebo vzbuzování iluze podpory teroristických skupin. Čtvrtou oblastí pak může být zneužití generativní umělé inteligence k politické manipulaci při volbách či k různým propagandistickým kampaním.

Vzestup a pád červivého GPT

Zda půjde konkrétní jazykové modely k nelegální nebo problematické činnosti využít, záleží na tom, jestli takové požadavky odmítnou, či ne. První ukázku toho, jak může být ChatGPT zapojený do podvodu od generování škodlivého kódu až po jeho zaslání obětem, přinesl server Checkpoint již v prosinci 2022, tedy brzy poté, co společnost OpenAI službu otevřela veřejnosti. Tehdy se autoři opírali o slabiny ChatGPT a relativně jednoduché postupy, jak ho přimět generovat škodlivý kód.

O další pozdvižení se postarala bezpečnostní firma Slash Next letos v červenci, když přinesla zprávu o nebezpečné verzi jazykového modelu pojmenovaného WormGPT, který měl být dostupný na hackerských fórech a měl být schopen psát škodlivý software i podvodné e-maily. O modelu informovala média, tematické články vyšly na serverech Independent, Wired i řadě dalších.

Publikované texty často opakovaly původní informace ze zprávy Slash Next. WormGPT měl podle nich kvalitně produkovat škodlivý kód neomezeného rozsahu, který představoval reálné riziko. Za jeho použití si tvůrci měli účtovat sto dolarů měsíčně. Média tyto zprávy dokládala snímky obrazovky s ukázkami kódu. WormGTP jsme se proto rozhodli otestovat

Tento článek je exkluzivním obsahem pro předplatitele Deníku N.

Technologie

Umělá inteligence

Věda

V tomto okamžiku nejčtenější