Společnost OpenAI na sklonku ledna značně pozměnila „pravidla hry“. Ze svých zásad totiž odstranila zákaz týkající se poskytování umělé inteligence armádám. Proč? Kvůli prevenci!
Spolupráci s Pentagonem navázalo „dítko“ Elona Muska a Sama Altmana v polovině ledna, a to konkrétně v oblasti kybernetické bezpečnosti. Projekt, do kterého společnost prozatím zapojila je však ryze preventivní – jeho hlavním úkolem je totiž předcházet sebevraždám veteránů.
OpenAI o svém novém, ušlechtilém, záměru informovala veřejnost na Světovém ekonomickém fóru v Davosu. Zároveň však upozornila, že v pravidlech i nadále zachovává zákaz využívání svých nástrojů pro vývoj zbraní a dalších nástrojů, které mohou škodit nebo jakkoli poškozovat majetek.
Snaha vyhovět
Podle mnohých expertů je poměrně výrazná změna v pravidlech pouze reakcí na potřeby různých vládních úřadů. Ty totiž neustále hledají cesty, jak možnosti umělé inteligence vložit do svých vládních programů.
„Spolupracujeme s ministerstvem obrany také na nástrojích kybernetické bezpečnosti pro open-source software, který zabezpečuje kritickou infrastrukturu,“ prohlásila viceprezidentka pro globální záležitosti Anna Makanjuová.
Čas jednat
Aktuálně je však předmětem zkoumání využití umělé inteligence v rámci prevence sebevražd válečných veteránů – problému, který armáda stále nedokáže řešit vlastními silami. Jen v roce 2012 spáchalo sebevraždu zhruba 7500 bývalých vojáků.
Ve stejném roce zemřelo vlastní rukou více příslušníků aktivní služby, konkrétně 177, v boji jich přitom přišlo o život 176.