Google potichu mění pravidla. Už se nebrání využívání své AI ke sledování nebo při vývoji zbraní
GOOGLE A AI
Společnost Google potichu změnila své etické principy pro umělou inteligenci (AI) a odstranila závazek, že nebude využívat AI pro zbraně a systémy hromadného sledování. Informuje například CNBC.
Dřívější verze principů jasně uváděla, že Google nebude vyvíjet technologie AI určené k přímému způsobení škod lidem ani k porušování mezinárodně uznávaných norem v oblasti sledování. Tyto klíčové body z aktualizované verze AI principů zcela zmizely.
Místo toho je v dokumentu Googlu o principech vývoje jeho umělé inteligence pasáž o geopolitickém soupeření a národní bezpečnosti. „V dnešním stále složitějším geopolitickém prostředí probíhá celosvětová soutěž o vedoucí postavení v oblasti umělé inteligence. Jsme přesvědčeni, že demokracie by měly mít vedoucí postavení ve vývoji AI a měly by se řídit základními hodnotami, jako je svoboda, rovnost a dodržování lidských práv. A věříme, že společnosti, vlády a organizace sdílející tyto hodnoty by měly spolupracovat na vytváření AI, která chrání lidi, podporuje globální růst a národní bezpečnost,“ uvádí dokument.
PODCAST: Smysl pro koherenci – když trauma neústí v další neštěstí
Změny reflektují rostoucí ambice společnosti nabízet své AI technologie nejen soukromým firmám, ale i vládním institucím, včetně vojenských složek. Tento posun je součástí širší debaty o nutnosti USA udržet si technologický náskok nad Čínou. CTO společnosti Palantir, Shyam Sankar, v pondělí uvedl, že „vítězství v AI závodu bude vyžadovat celonárodní úspěch, který překračuje samotné ministerstvo obrany“. Firma Palantir, kterou spoluzakládal Peter Thiel, byla jedna z prvních v Silicon Valley, která spolupracovala s americkým ministerstvem obrany a dodává mu analytické systémy.
Google měl v minulosti s kontrakty ve vojenství a obraně problém a čelil i tlaku zaměstnanců tento sektor nepodporovat. V roce 2018 se po vnitřním odporu zaměstnanců rozhodl neobnovit smlouvu s americkou vládou v rámci Projektu Maven, který se zaměřoval na vývoj AI pro analýzu videa z dronů. Pod tlakem zaměstnanců se také vzdal účasti v tendru na Pentagonem financovanou cloudovou službu JEDI.
Ke změně AI principů patrně Google směřoval už delší dobu a ve společnosti mohla tato změna vyvolávat napětí. V loňském roce firma propustila přes 50 zaměstnanců po protestech proti smlouvě Project Nimbus, společnému kontraktu Google a Amazonu na poskytování cloudových a AI služeb izraelské vládě.
Podle dokumentů zveřejněných The New York Times smlouva zahrnovala technologie pro sledování a identifikaci objektů, které by mohly být využity ve vojenských operacích. Google sice tvrdil, že kontrakt není v rozporu s jeho AI principy, ale v interních dokumentech se objevily obavy, že poskytované služby mohou být spojeny s porušováním lidských práv.