Umělá inteligence | Legislativa

Jak zregulovat umělou inteligenci? OpenAI a další navrhují omezit přístup k výkonnému hardwaru

Experti ze Stanfordovy a Georgetownské univerzity a inženýři z OpenAI nedávno zveřejnili obsáhlý dokument (PDF), který vzešel z debat s dalšími vědci loni na podzim. Varují v něm před potenciálním zneužíváním generativních AI a navrhují několik řešení.

Do poměrně široké definice generativních AI spadá jakýkoliv softwarový automat na bázi strojového učení a neuronových sítí, který syntetizuje nová data. Může to být třeba Midjourney a Stable Diffusion (generování grafických dat), anebo dnes zdaleka nejpopulárnější ChatGPT (generování smysluplného textového dialogu) a jemu podobné technologie, kterých se dočkáme v Bingu a Googlu.

f5cb4615-1e9b-4a2f-ba20-c516058e2a59
Fiktivní Emma Watson, kterou vytvořila služba Midjourney

Problém spočívá v tom, že nástroje z ranku generativních AI nemusejí pouze pomáhat, ale dokážou také škodit. Mohou třeba masivně generovat fake news, mohou vytvářet zcela novou generaci spamů a řetězových e-mailů a jejich schopnostmi vybavený chatbot dokáže zničit jakoukoliv legitimní diskuzi na webu.

Povinná radioaktivita umělé inteligence

Podle expertního panelu, ve kterém nechybějí ani tvůrci samotného ChatGPT, by tak mohli autoři podobných technologií vnášet do svých modelů třeba nějaká povinná „radioaktivní data.“ Jakousi formu skrytého digitálního vzoru, díky kterému detektor vždy pozná, že daný obrázek, video, zvukovou nahrávku atp. vytvořil právě nějaký AI model.

f06a63d7-6431-416d-818b-d0724609902f
„Radioaktivní data“ ve formě žlutých teček na tisku z mašiny HP Color LaserJet CP1515n

U složitých binárních dat je to snadné – do obrázku snadno vložíte nějakou pro člověka neviditelnou masku –, otázkou ovšem zůstává, jak něco takového promítnout i do krátkého textového výstupu chatbota o jednom souvětí. To je prakticky nemožné.

Podobné skryté vzory používají k identifikaci i tiskárny.

Omezení svobody pohybu robotů na internetu

Další návrh expertního panelu zmiňuje případnou regulaci sběru studijních dat. Tedy omezení svobody pohybu robotů na internetu, kteří indexují obrázky nebo text, na kterém se pak učí AI. Autoři zprávy zmiňují třeba podobný právní rámec, který na internet přinesla evropská norma GDPR.

Fiktivní robots.txt, který zamezí indexaci JPEG na daném webu pro účely umělé inteligence:

User-agent-class: ai
Disallow: *.jpg$

Mimochodem, na místní úrovni už některé takové předpisy existují. Například illinoiský Biometric Information Privacy Act (BIPA) zakazuje bez vědomí dotčené osoby sbírat data biometrické povahy, kam patří i fotografie s identifikovatelnou tváří.

Stručně řečeno, pokud někde veřejně vystavíte své fotografie z dovolené, internetový robot by je bez vašeho vědomí nemohl použít pro cvičení nějaké příští AI. Vědci si slibují, že by se díky tomu stroje učily na kvalitnějších a k tomu určených datech a ne na čemkoliv, co jejich indexovací robot vyčmuchá na webu.

Regulace a kontrola AI hardwaru

Asi nejkontroverznějším návrhem zprávy je nicméně bod 5.2.5 na straně 48, který navrhuje kontrolu a omezení přístupu pod kontrolou vlád k tomu nejvýkonnějšímu hardwaru.

d38c6bf3-a617-4ee7-ba52-bae3da4717cc
Regulace hardwaru v případě použití pro cvičení AI

Takže pokud byste chtěli svoji velmi složitou AI cvičit na farmě procesorů kdesi v cloudu, anebo byste si sami chtěli postavit superpočítač, úřady by mohly mít dohled, k čemu takový výkon chcete přesně použít.

Nutno podotknout, že ani tento požadavek není úplně novým nápadem, už dnes totiž třeba USA regulují export těch nejsofistikovanějších křemíkových technologií včetně pokročilých integrovaných obvodů, čipů pro satelitní navigaci atp.

a70a92bb-da90-485d-a3ab-4a3a1be51fae
Dobrý den, prosil bych tisíc karet Tesla V100. Žádný problém, ale čekejte dvakrát ročně audit z Národního úřadu pro AI, k čemu je vlastně používáte

Homologace AI

Poslední podmínkou z mnoha je samozřejmě vybudování povinných etických pravidel pro AI, na čem se dnes už pracuje jak v USA, tak v EU. Výsledkem by měla být jakási homologovaná AI, která bude moci figurovat na daném trhu jen v případě, že splní všechny stanovené předpisy.

96411e3e-10a3-4c86-b87b-b3f9bb8eaaaa
AI by mohla mít něco podobného jako štítek o shodě CE

Pokud si dnes v Česku nekoupíte žehličku, která probíjí a občas někoho zabije (respektive bude poté okamžitě stažená z trhu), stejně tak nebude moci nikdo v Česku provozovat AI, která objektivně škodí. Tedy alespoň podle návrhů panelu.

Regulace není evropské unikum

Nutno ovšem podotknout, že se jedná pouze o akademické návrhy. Nicméně návrhy, které by mohly být základem nějakého dalšího rámce, který bude za deset let možná a chtě nechtě naprostou samozřejmostí.

Je to zároveň doklad toho, že ambice k regulaci AI neexistují jen v Evropské unii, ale samozřejmě i v její zámořské kolébce.

Diskuze (27) Další článek: S mužskými těly se děje něco divného. Kvalita spermií se zhoršuje, ale průměrná délka penisů zvětšuje

Témata článku: , , , , , , , , , , , , , , , , , , , , , , , ,