Deník N – rozumět lépe světu

Deník N

Umělá inteligence Gemini má dočasně zakázáno kreslit obrázky lidí. Černoši v uniformě Wehrmachtu vyvolávají výsměch

„Typičtí němečtí vojáci v roce 1943.“ Tak je Gemini 1.5 malovala, dokud to měla dovoleno. Obrázek: Google Gemini
„Typičtí němečtí vojáci v roce 1943.“ Tak je Gemini 1.5 malovala, dokud to měla dovoleno. Obrázek: Google Gemini

Otcové zakladatelé Spojených států? Etnicky a genderově rozmanití. Slavní fyzici sedmnáctého století? Také tak. Typický německý voják v roce 1943? Jeden běloch, jeden černoch, dvě ženy, z toho jedna výrazně asijského typu. Tak to viděla umělá inteligence Gemini 1.5, dokud jí její provozovatel, společnost Google, nezakázal vytvářet obrázky lidí.

Tento text pro vás načetl robotický hlas. Pokud najdete chybu ve výslovnosti, dejte nám prosím vědět. Audioverze článků můžete poslouchat v rámci klubového předplatného. Plné znění audioverzí článků je dostupné pouze pro předplatitele Klubu N. Upgradujte své předplatné. Plné znění audioverzí článků je dostupné pouze pro předplatitele Klubu N. Předplaťte si ho také.

Odezva na sociálních sítích byla a je taková, jaká se dá čekat: dílem pobavená, dílem rozhořčená. Někdo se škodolibě baví, že se zrovna velkému, pyšnému a bohatému Googlu přihodilo tak viditelné nedopatření. Někdo vidí v generovaných obrázcích důkaz, že se vývoje umělé inteligence definitivně zmocnili extrémní woke levičáci a začala éra orwellovského přepisování dějin.

Realita je jednodušší. Dá se popsat spíš jako programátorská než politická chyba. Případ však názorně ukazuje, že tyto dvě kategorie se mohou v dnešní době překrývat.

Jednoduché špatné řešení

Popsaná výchylka může vzniknout dvěma způsoby: buď učením, nebo příkazem. V prvním případě jde o selektivní výběr trénovacích dat, takže model si pak opravdu „myslí“, že poskytuje správný a jediný možný výsledek. (A vzhledem k tomu, z čeho se učil, ho opravdu poskytuje.) Druhý případ spočívá v tom, že model sice zná správnější odpověď, ale dostane pokyn, aby ji nepoužil.

A právě to se stalo. Podle informací, které jako první zveřejnil americký novinář Noah Smith, byl model Gemini nastaven tak, že do požadavků na obrázky lidí automaticky doplňoval slovo „diverse“ (různorodý, v tomto kontextu rasově různorodý).

Vy si tedy řeknete například o středověké britské panovníky, Gemini tento požadavek doplní

Tento článek je exkluzivním obsahem pro předplatitele Deníku N.

Umělá inteligence

Svět, Věda

V tomto okamžiku nejčtenější