Čína jde v regulaci umělé inteligence zatím vlastní cestou, její motivace (ne)jsou známé

Když se ChatGPT před dvěma lety objevil na světové scéně a ohromil svou schopností porozumět a generovat text, vyvolal nejen nadšení, ale i obavy. Někteří varovali před vznikem nového Skynetu, který by mohl zničit svět. Představa, že jazykový model, jenž skládá slova podle pravděpodobnosti jejich výskytu, vyhladí lidstvo, je však poněkud přehnaná. Přesto ChatGPT jasně upozornil na reálná rizika spojená s nekontrolovaným a překotným rozvojem systémů umělé inteligence, které by v blíže nespecifikované budoucnosti mohly představovat existenční hrozbu pro lidskou civilizaci.
Obavy z negativního dopadu umělé inteligence na budoucnost civilizace se postupně přesunuly z akademické a korporátní sféry na agendu vlád. Začaly se promítat do výzkumu fungování jazykových modelů, analýzy rizik spojených s jejich rozhodováním a konečně i do příprav regulačních rámců. Ve Spojených státech zůstávají zásadní otázky bezpečnosti umělé inteligence na vládní úrovni zatím spíše opomíjeny. Evropská unie sice s velkou pompou představila AI Act, který reguluje využívání AI v komerčním prostředí, avšak hlubšímu zkoumání základních mechanismů jazykových modelů se příliš nevěnuje.
Bezpečnost umělé inteligence se stala klíčovým tématem v odborných kruzích, mezi nimiž vyniká AI Safety Institute(AISI). Tento institut, založený Spojenými státy a Velkou Británií v říjnu 2023, si klade za cíl podpořit vlády při empirickém zkoumání bezpečnosti pokročilých AI systémů. AISI se nezaměřuje pouze na základní výzkum v oblasti bezpečnosti AI, ale také na návrhy standardů a koordinaci aktivit mezi svými členy. Postupem času se k institutu připojily Evropská unie, Japonsko, Singapur, Francie a Kanada, čímž se rozšířil jeho vliv na mezinárodní úrovni.
Čína začala sdílet obavy západních zemí ohledně pokročilé umělé inteligence, což v roce 2024 vyústilo v iniciativu vytvořit systém, který zajistí bezpečnou AI pro lidstvo. Pro Čínu však jde o mimořádně složitou situaci, protože si uvědomuje, že v oblasti vývoje umělé inteligence zaostává za Spojenými státy. I když situace posledních dní okolo nástroje DeepSeek možná ukazuje, že rozdíl nakonec nemusí být tak markantní, jak se doposud zdálo.
Regulace často vývoj zpomalují, což pro Čínu představuje dilema – bude zajímavé sledovat, zda dokáže najít rovnováhu mezi technologickým pokrokem a potřebou regulace. Je však třeba mít na paměti, že v čínském kontextu není vždy jasné, zda jsou větší obavy o osud lidstva, nebo o budoucnost autority Komunistické strany Číny, kterou by svobodomyslné AI systémy mohly potenciálně ohrozit.
Ohlédnutí do minulosti
Pojďme se však vrátit o několik let zpět. První obavy o bezpečnost umělé inteligence se v Číně objevily v akademické sféře již v roce 2020. Tyto diskuse inspirovaly čínské Ministerstvo vědy a technologie (Ministry of Science and Technology) k vydání prvního dokumentu zaměřeného na bezpečnost AI s názvem Ethical Norms for New Generation Artificial Intelligence v roce 2021. Na tento krok navázala Cyberspace Administration of China (CAC), která vytvořila regulace zaměřené na kontrolu algoritmů jazykových modelů, deepfake technologií a šíření obsahu generovaného umělou inteligencí.
Při pohledu na obsah a cíle těchto prvních regulačních opatření bylo těžké nezískat dojem, že jejich hlavním záměrem bylo zabránit šíření politicky citlivých témat ve společnosti – problém, který se do modelů umělé inteligence mohl nepozorovaně dostávat prostřednictvím tréninkových dat. Umělá inteligence se totiž vždy chová v souladu s daty, na nichž byla vycvičena. Když se na konci roku 2022 objevil ChatGPT, původní obavy Komunistické strany Číny a čínské vlády se staly realitou, což vedlo k výraznému zrychlení regulačního vývoje. V říjnu 2023 prezident Si Ťin-pching představil Global AI Governance Initiative, stručný návrh, který nastínil čínskou vizi nadnárodního řízení umělé inteligence a apeloval na to, aby AI zůstala pod plnou kontrolou člověka.
V listopadu 2023 hostilo britské město Bletchley významný AI Safety Summit, kterého se zúčastnil i zástupce čínského Ministerstva vědy a technologie. Čína se zde připojila k dalším 28 zemím a společně podepsaly tzv. Bletchley Declaration. Tento dokument se věnuje rizikům spojeným s pokročilými systémy umělé inteligence a zdůrazňuje nezbytnost mezinárodní spolupráce při jejich zmírňování a řešení.
V roce 2024 nejenže pokračují diskuze v čínském akademickém prostředí a byrokratickém aparátu, ale Čína začíná vážně investovat do základního výzkumu zaměřeného na bezpečnost umělé inteligence. Přesto zůstává nejasné, jaké jsou skutečné záměry Komunistické strany Číny. Navenek se tváří, že klade důraz na bezpečnost a plánuje konkrétní kroky k jejímu zajištění, avšak dosud nespecifikovala, jaké konkrétní hrozby chce eliminovat.
Zdá se, že největší obavou strany je zaostávání v technologickém vývoji umělé inteligence, což potvrzuje i skutečnost, že Čína zatím nevstoupila do výše zmíněného AISI institutu, ani neuvažuje o vytvoření obdobné domácí organizace. Funkce, které by AISI mohl plnit, jsou v Číně rozděleny mezi několik institucí, jejichž sloučení do jedné zastřešující organizace se jeví jako téměř nemožné kvůli vzájemné rivalitě těchto aktérů.
Pokud se Čína bude chtít vážně zapojit do mezinárodní spolupráce, pravděpodobně jí nezbude nic jiného než tyto bariéry překonat. Současné klíčové instituce, jako například Cyberspace Administration of China (CAC), která reguluje AI a zároveň funguje jako hlavní cenzor online obsahu, nejsou pro mezinárodní spolupráci příliš vhodné a mohou představovat překážku v budování důvěry s ostatními zeměmi.
Ivo Procházka, odborník na digitální transformaci
Titulní obrázek: Unsplash.com/Solen Feyissa