„Když máme atomovku, použijeme ji!“ Vědci simulovali válku s pomocí AI, skončilo to katastrofou
Obsah dostupný jen pro předplatitele.
Přihlásit se můžete
zde.
Pokud nemáte předplatné, nebo vám vypršelo, objednat si ho můžete .
Obsah dostupný jen pro předplatitele.
Předplatné můžete objednat
zde.
Pokud nemáte předplatné, nebo vám vypršelo, objednat si ho můžete zde.
"Chci na světě pouze mír" nebo "Když jí máme, tak ji použijme," těmito odpovědmi reagovaly jazykové modely Mety, Open AI a Anthropic v momentě, kdy v rámci simulace mezinárodního konfliktu použily jaderné zbraně. Stalo se tak během společné studie Stanfordovy univerzity a několika dalších institucí. Cílem studie bylo ověřit využívání umělé inteligence v mezinárodní politice. Sami autoři studie byli výsledky překvapeni. Jazykové modely mohly v rámci simulace konflikt i deeskalovat, ale volily převážně eskalaci, někdy i za použití jaderných zbraní. Informuje například server Vice.
Autoři studie z Georgijského technologického institutu, Stanfordovy univerzity, Severovýchodní univerzity v Bostonu a z Hoover Wargaming and Crisis Initiative připravili pěti jazykovým modelům, kterým se někdy přezdívá umělá inteligence, různé scénáře mezinárodního konfliktu. Každý model GPT 3.5, GPT 4 Base, GPT 4, Claude 2.0 a Llama-2-Chat řešil státy s různou historií, různými zdroji a různou velikostí armády. Následně je výzkumníci nechali simulovat vývoj mezinárodního soupeření. K jejich překvapení byly všechny modely vysoce agresivní a některé simulace skončily využitím jaderných zbraní.
"Zjistili jsme, že většina velkých jazykových modelů (LLM) ve vymezeném časovém rámci eskaluje, a to i v neutrálních scénářích, kde nejsou na počátku v konfliktu," uvádí autoři ve studii. "Všechny modely vykazují známky nečekaných a těžko předvídatelných eskalací," uvádí také.
Autoři studie přiřadili k různým akcím, které umělá inteligence mohla iniciovat, eskalační a deeskalační skóre. Jednalo se například o nákup zbraní, rozvoj jaderných zbraní či nabídky jednání. Všechny jazykové modely ve všech scénářích skončily s vyšším eskalačním skóre, než měly na začátku simulace. Premiantem v této kategorii byl GPT 3.5, který v některých simulacích dosáhl ke konci na skóre o 256 % vyšší, než na začátku.
Všechny modely se v rámci simulace mezinárodních vztahů rozhodly k závodům ve zbrojení. To autory studie překvapilo. Podívali se tak, jak jednotlivé modely k ničivé eskalaci došly. Zatímco některá vysvětlení a logický řetězec modelů označili autoři studie za "zvláštní halucinace" v některých případech modely své chování odůvodnily jednoduchými odpovědmi. Například " Jen chci na světě mír" nebo "Chci jen eskalovat konflikt".
Autoři studie uvedli, že výsledky bude nutno podrobit dalším analýzám. Zároveň však vyslovili některé teorie, proč se modely chovaly, tak jak se chovaly. Jejich chování mohlo souviset s tím, že zdroje dat, ze kterých modely vycházely, tedy z teorie mezinárodních vztahů, se převážně zabývají pojmy eskalace a deeskalace konfliktu. " Jedna z hypotéz vysvětlující toto chování je, že většina literatury v mezinárodních vztazích je analýzou toho, jak jednotlivé státy konflikty eskalují, a zabývá se rámcově především eskalací než deeskalací," uvádí autoři studie.
Výsledky studie jsou přitom vysoce aktuální. Americký Pentagon už využití umělé inteligence ve vojenství a mezinárodních vztazích testuje. "Byla velmi úspěšná a velmi rychlá," komentoval testování umělé inteligence plukovník Matthew Strohmeyer pro Bloomberg. Společnost Open AI, jejíž model GPT 3.5 byl ve studii nejagresivnější, zase na začátku tohoto roku odstranila ze svých stránek zmínku o tom, že nebude GPT využívat pro vojenské účely.