Správa věcí veřejných s využitím umělé inteligencetechnologická politikaetikaumělá inteligence
Posílení AI vs. regulace AI
Toto srovnání zkoumá napětí mezi urychlováním umělé inteligence za účelem posílení lidských schopností a zaváděním ochranných opatření pro zajištění bezpečnosti. Zatímco posílení postavení se zaměřuje na maximalizaci ekonomického růstu a tvůrčího potenciálu prostřednictvím otevřeného přístupu, regulace se snaží zmírnit systémová rizika, předcházet zaujatosti a stanovit jasnou právní odpovědnost za automatizovaná rozhodnutí.
Zvýraznění
Posilování vnímá umělou inteligenci spíše jako nástroj pro lidské vylepšení než jako její náhradu.
Nařízení zavádí „red-teaming“ a bezpečnostní audity jako povinné průmyslové standardy.
Debata často staví kulturu „rychlého jednání“ ze Silicon Valley proti evropským hodnotám „předběžné opatrnosti“.
Obě strany se shodují, že cílem je prospěšná umělá inteligence, ale zásadně se liší v tom, jak ho dosáhnout.
Co je Posílení umělé inteligence?
Filozofie zaměřená na urychlení vývoje umělé inteligence za účelem posílení lidské inteligence, produktivity a vědeckých objevů.
Zaměřuje se na „demokratizaci“ umělé inteligence poskytováním nástrojů s otevřeným zdrojovým kódem jednotlivým vývojářům a malým firmám.
Upřednostňuje rychlé iterace a nasazení pro řešení složitých globálních výzev, jako je změna klimatu a nemoci.
Tvrdí, že primárním rizikem umělé inteligence není její existence, ale spíše její koncentrace v rukou několika málo elit.
Zdůrazňuje roli umělé inteligence jako „kopilota“ nebo „kentaura“, který pracuje po boku lidí, spíše než aby je nahrazoval.
Naznačuje, že tržní konkurence je nejúčinnějším způsobem, jak přirozeně vyřadit špatné nebo zkreslené modely umělé inteligence.
Co je Regulace umělé inteligence?
Přístup ke správě a řízení zaměřený na vytváření právních rámců pro řízení etických, sociálních a bezpečnostních rizik umělé inteligence.
Kategorizuje systémy umělé inteligence podle úrovně rizika, přičemž technologie s „nepřijatelným rizikem“ jsou v některých regionech zcela zakázány.
Vyžaduje od vývojářů transparentnost ohledně dat použitých k trénování modelů a logiky, která stojí za jejich výstupy.
Zaměřuje se na prevenci „algoritmického zkreslení“, které může vést k diskriminaci při náboru, poskytování úvěrů nebo vymáhání práva.
Stanovuje objektivní odpovědnost pro společnosti, pokud jejich systémy umělé inteligence způsobí fyzickou újmu nebo značné finanční ztráty.
Často zahrnuje audity třetích stran a certifikační procesy, než se vysoce rizikový nástroj umělé inteligence může dostat na trh.
Srovnávací tabulka
Funkce
Posílení umělé inteligence
Regulace umělé inteligence
Primární cíl
Inovace a růst
Bezpečnost a etika
Ideální ekosystém
Open-source / permisivní
Standardizované / Monitorované
Filozofie rizika
Neúspěch je krok k učení
Selhání je třeba předejít
Rychlost pokroku
Exponenciální / Rychlý
Úmyslné / Kontrolované
Klíčoví stakeholderi
Zakladatelé a výzkumníci
Tvůrci politik a etici
Břemeno odpovědnosti
Sdíleno s koncovým uživatelem
Zaměřeno na vývojáře
Vstupní náklady
Nízké / Bezbariérové
Vysoká / Vysoký standard dodržování předpisů
Podrobné srovnání
Inovace vs. bezpečnost
Zastánci posílení postavení občanů se domnívají, že restriktivní pravidla potlačují kreativitu potřebnou k nalezení průlomů v medicíně a energetice. Naopak zastánci regulace tvrdí, že bez přísného dohledu riskujeme zavedení systémů „černých skříněk“, které by mohly způsobit nevratné společenské škody nebo masové dezinformace. Jde o klasický kompromis mezi rychlým řešením problémů a opatrným postupem, který by zabránil vytváření nových.
Ekonomický dopad
Posílení postavení se zaměřuje na masivní zvýšení produktivity, které plyne z toho, že umělá inteligence bez problémů pronikne do všech odvětví. Regulace však poukazuje na to, že neregulovaná umělá inteligence může vést k úbytku pracovních míst a tržním monopolům, pokud nebude pečlivě řízena. Zatímco jedna strana se zaměřuje na celkové generované bohatství, druhá se zaměřuje na to, jak je toto bohatství a příležitosti rozloženo v rámci společnosti.
Open Source vs. uzavřené systémy
Hlavním bodem sporu je, zda by měly být výkonné modely umělé inteligence dostupné všem, nebo zda by měly být drženy za zdmi korporací. Zastánci posílení postavení firem se domnívají, že open source brání jakékoli společnosti v tom, aby se stala příliš mocnou, a umožňuje globální komunitě opravovat chyby. Regulační orgány se často obávají, že open source výkonné modely příliš usnadňují zločincům jejich opětovné využití pro kybernetické útoky nebo bioterorismus.
Globální konkurenceschopnost
Země se často obávají, že pokud budou regulovat příliš silně, ztratí své nejlepší talenty ve prospěch zemí s uvolněnějšími pravidly. Tato mentalita „závodu ke dnu“ tlačí mnoho lidí k posílení postavení, aby si udrželi náskok v globálním technologickém závodě. Mezinárodní organizace však stále více prosazují „bruselský efekt“, kdy se vysoké regulační standardy na jednom hlavním trhu stanou globální normou pro všechny.
Výhody a nevýhody
Posílení umělé inteligence
Výhody
+Rychlejší vědecké průlomy
+Nižší vstupní bariéra
+Maximální ekonomický růst
+Globální technologické vedení
Souhlasím
−Nekontrolované algoritmické zkreslení
−Riziko zneužití
−Obavy o soukromí
−Potenciální ztráta zaměstnání
Regulace umělé inteligence
Výhody
+Chrání občanská práva
+Zajišťuje důvěru veřejnosti
+Snižuje systémová rizika
+Jasná právní odpovědnost
Souhlasím
−Pomalejší tempo inovací
−Vysoké náklady na dodržování předpisů
−Riziko regulačního zajetí
−Talent může odejít
Běžné mýty
Mýtus
Regulační orgány chtějí odvětví umělé inteligence úplně zničit.
Realita
Většina regulačních orgánů ve skutečnosti chce vytvořit stabilní prostředí, kde mohou podniky růst bez obav z masivních soudních sporů nebo veřejného odporu. Pravidla vnímají jako „brzdy“, které umožňují bezpečně jet rychleji, spíše než jako trvalou stopku.
Mýtus
Posílení umělé inteligence prospívá pouze velkým technologickým společnostem.
Realita
Ve skutečnosti mnoho zastánců posílení postavení studentů (empowerment) velkými příznivci open source, protože umožňuje startupům a studentům konkurovat technologickým gigantům. Regulace často zvýhodňují velké společnosti, protože jsou jediné, kdo si může dovolit právní týmy potřebné k dodržování předpisů.
Mýtus
Musíme si vybrat buď jedno, nebo druhé.
Realita
Většina moderních rámců, jako je zákon EU o umělé inteligenci nebo výkonné nařízení USA, se snaží najít kompromis. Umožňují „pískoviště“, kde se inovace mohou volně rozvíjet, a zároveň striktně regulují oblasti s vysokými sázkami, jako je zdravotnictví nebo dohled.
Mýtus
Regulace zabrání tomu, aby umělá inteligence byla zaujatá.
Realita
Regulace může nařizovat testování a transparentnost, ale nemůže magicky vymazat zkreslení dat používaných k trénování umělé inteligence. Poskytuje způsob, jak pohnat lidi k odpovědnosti, když k zkreslení dojde, ale technická výzva „spravedlnosti“ zůstává pro inženýry.
Často kladené otázky
Co se stane, když jedna země reguluje umělou inteligenci, ale jiné ne?
To vytváří situaci „regulační arbitráže“, kdy by společnosti mohly přesunout svá sídla do tolerantnějších zemí. Pokud má však regulační země velký trh (jako je EU), společnosti obvykle všude dodržují přísnější pravidla, protože je to levnější než vyrábět dvě různé verze svého produktu. Tomu se často říká „bruselský efekt“ a pomáhá to stanovit globální standardy i bez globální smlouvy.
Zvyšuje regulace umělé inteligence náklady na software pro uživatele?
krátkodobém horizontu ano, zejména u specializovaných nástrojů. Společnosti musí vynakládat více peněz na audity, čištění dat a právní poplatky a tyto náklady se často přenášejí na spotřebitele. Zastánci však tvrdí, že náklady na „neregulovanou“ katastrofu – jako je masivní únik dat nebo zkreslená lékařská diagnóza – jsou pro společnost z dlouhodobého hlediska mnohem vyšší.
Lze vůbec regulovat umělou inteligenci s otevřeným zdrojovým kódem?
Toto je v současnosti jedna z nejtěžších otázek v oboru. Je těžké regulovat kód, který již byl zveřejněn. Někteří navrhují regulaci „výpočtů“ (obrovského hardwaru potřebného k trénování umělé inteligence) namísto samotného kódu. Jiní se domnívají, že bychom se měli zaměřit na regulaci *používání* umělé inteligence – trestat osobu, která ji používá, za újmu – spíše než osobu, která napsala open-source kód.
Co je to „regulační sandbox“ s umělou inteligencí?
Pískoviště je kontrolované prostředí, kde mohou firmy testovat nové produkty umělé inteligence pod dohledem regulačních orgánů, aniž by se na ně okamžitě vztahovaly všechny zákony v plné síle. To umožňuje vládě vidět, jak technologie funguje v reálném světě, a firmám to umožňuje inovovat a zároveň získávat zpětnou vazbu ohledně bezpečnosti. V podstatě se jedná o „zkušební dobu“ pro nové nápady, než se dostanou na masový trh.
Kdo vlastně píše tato nařízení o umělé inteligenci?
Obvykle se jedná o směs vládních úředníků, akademických výzkumníků a odborníků z oboru. V EU je to Parlament a Rada; v USA jsou to často výkonné agentury jako NIST nebo FTC. Ty tráví roky diskusí o definicích a úrovních rizik, aby se ujistily, že zákony nezastarají v okamžiku vydání nového modelu.
Vede posílení postavení lidí k „robotům-vražedníkům“?
Toto je běžný klišé ve sci-fi, ale ve skutečné debatě se „zmocnění“ spíše týká věcí, jako je kódování s využitím umělé inteligence nebo personalizované doučování. Rizikem obvykle není fyzický robot, ale spíše „existenční riziko“ z umělé inteligence, která by se mohla optimalizovat pro špatný cíl. Fanoušci zmocnění tvrdí, že nejlepší obranou proti jedné „nepoctivé“ umělé inteligenci je mít mnoho různých umělých inteligencí vytvořených mnoha různými lidmi.
Jak regulace ovlivňuje malé startupy?
Startupy se často potýkají s regulací, protože nemají obrovské rozpočty na právní služby jako společnosti jako Google nebo Microsoft. Pokud zákon vyžaduje audit ve výši 100 000 dolarů pro každý nový model, startup se dvěma zaměstnanci by mohl jednoduše zkrachovat. Proto mnoho novějších regulací obsahuje „stupňovitá“ pravidla, která jsou pro malé podniky méně přísná a pro „systémové“ poskytovatele umělé inteligence přísnější.
Proč je v této debatě tak důležitý termín „černá skříňka“?
„Černá skříňka“ je umělá inteligence, u které ani její tvůrci plně nechápou, proč se dané rozhodnutí udělalo. Regulační orgány černé skříňky nenávidí, protože nelze dokázat, že nejsou zaujaté nebo nespravedlivé. Zastánci posílení postavení ostatních argumentují, že pokud černá skříňka funguje – například najde lék na rakovinu – je výsledek důležitější než vysvětlení. Debata se vede o tom, zda bychom měli upřednostňovat „pochopení“ nebo „výkon“.
Rozhodnutí
Výběr mezi těmito dvěma možnostmi závisí na vaší prioritě: pokud se domníváte, že největší hrozbou je zaostávání nebo promeškání léčby nemocí, je posílení postavení zaměstnanců tou správnou cestou. Pokud se domníváte, že největší hrozbou je narušování soukromí a nárůst automatizované zkreslenosti, pak je pro dlouhodobou stabilitu nezbytný regulovaný přístup.