Comparthing Logo
AI pārvaldībatehnoloģiju politikaētikamākslīgais intelekts

Mākslīgā intelekta pilnvarošana pretstatā mākslīgā intelekta regulējumam

Šajā salīdzinājumā tiek pētīta spriedze starp mākslīgā intelekta paātrināšanu, lai uzlabotu cilvēku spējas, un drošības barjeru ieviešanu, lai nodrošinātu drošību. Lai gan iespēju paplašināšana koncentrējas uz ekonomiskās izaugsmes un radošā potenciāla maksimizēšanu, izmantojot atvērtu piekļuvi, regulējums cenšas mazināt sistēmiskos riskus, novērst aizspriedumus un noteikt skaidru juridisko atbildību par automatizētiem lēmumiem.

Iezīmes

  • Pilnvaru veidošana uzskata mākslīgo intelektu par cilvēka pilnveidošanas instrumentu, nevis aizstājēju.
  • Regula ievieš “sarkano komandu” izveidi un drošības auditus kā obligātus nozares standartus.
  • Debatēs Silīcija ielejas "ātrās rīcības" kultūra bieži tiek pretstatīta Eiropas "piesardzības" vērtībām.
  • Abas puses piekrīt, ka mērķis ir mākslīgā intelekta izmantošana, taču tās būtiski atšķiras par to, kā to sasniegt.

Kas ir Mākslīgā intelekta paplašināšana?

Filozofija, kuras centrā ir mākslīgā intelekta attīstības paātrināšana, lai pastiprinātu cilvēka intelektu, produktivitāti un zinātniskos atklājumus.

  • Koncentrējas uz mākslīgā intelekta “demokratizāciju”, nodrošinot atvērtā pirmkoda rīkus individuāliem izstrādātājiem un mazajiem uzņēmumiem.
  • Prioritāti piešķir ātrai iterācijai un ieviešanai, lai risinātu sarežģītas globālas problēmas, piemēram, klimata pārmaiņas un slimības.
  • Apgalvo, ka mākslīgā intelekta galvenais risks nav tā pastāvēšana, bet gan tā koncentrācija dažu elites aprindu rokās.
  • Uzsver mākslīgā intelekta lomu kā “otra pilota” vai “kentaura”, kas darbojas līdzās cilvēkiem, nevis aizstāj tos.
  • Ierosina, ka tirgus konkurence ir visefektīvākais veids, kā dabiski atsijāt sliktus vai neobjektīvus mākslīgā intelekta modeļus.

Kas ir Mākslīgā intelekta regula?

Pārvaldības pieeja, kas koncentrējas uz tiesiskā regulējuma izveidi mākslīgā intelekta ētisko, sociālo un drošības risku pārvaldībai.

  • Kategorizē mākslīgā intelekta sistēmas pēc riska līmeņa, dažos reģionos pilnībā aizliedzot “nepieņemama riska” tehnoloģijas.
  • Prasa izstrādātājiem būt caurspīdīgiem attiecībā uz datiem, kas tiek izmantoti modeļu apmācībai, un to rezultātu loģiku.
  • Koncentrējas uz “algoritmisko neobjektivitāti”, kas var izraisīt diskrimināciju darbā pieņemšanā, aizdevumu izsniegšanā vai tiesībaizsardzībā.
  • Nosaka stingru atbildību uzņēmumiem, ja to mākslīgā intelekta sistēmas rada fizisku kaitējumu vai ievērojamus finansiālus zaudējumus.
  • Bieži vien pirms augsta riska mākslīgā intelekta rīka nonākšanas tirgū ir nepieciešami trešo pušu auditi un sertifikācijas procesi.

Salīdzinājuma tabula

FunkcijaMākslīgā intelekta paplašināšanaMākslīgā intelekta regula
Galvenais mērķisInovācijas un izaugsmeDrošība un ētika
Ideāla ekosistēmaAtvērtā koda / AtļautsStandartizēts/uzraudzīts
Riska filozofijaNeveiksme ir mācību solisNeveiksme ir jānovērš
Progresa ātrumsEksponenciāls/ĀtrsApzināta/kontrolēta
Galvenās ieinteresētās personasDibinātāji un pētniekiPolitikas veidotāji un ētikas speciālisti
Atbildības slogsKopīgots ar galalietotājuKoncentrēts uz izstrādātāju
Ieejas izmaksasZems/pieejamsAugsta / atbilstības prasība

Detalizēts salīdzinājums

Inovācija pret drošību

Pilnvaru aizstāvji uzskata, ka ierobežojoši noteikumi apslāpē radošumu, kas nepieciešams, lai panāktu izrāvienus medicīnā un enerģētikā. Turpretī regulējuma atbalstītāji apgalvo, ka bez stingras uzraudzības mēs riskējam ieviest "melnās kastes" sistēmas, kas varētu radīt neatgriezenisku sociālo kaitējumu vai masveida dezinformāciju. Tas ir klasisks kompromiss starp ātru rīcību problēmu risināšanā un piesardzību, lai izvairītos no jaunu problēmu radīšanas.

Ekonomiskā ietekme

Pilnvaru piešķiršana koncentrējas uz milzīgo produktivitātes pieaugumu, kas rodas, ļaujot mākslīgajam intelektam bez jebkādām berzēm iekļūt visās nozarēs. Tomēr regulējums norāda, ka neregulēts mākslīgais intelekts var izraisīt darbavietu zaudēšanu un tirgus monopolus, ja tas netiek rūpīgi pārvaldīts. Kamēr viena puse aplūko kopējo radīto bagātību, otra koncentrējas uz to, kā šī bagātība un iespējas tiek sadalītas sabiedrībā.

Atvērtā koda sistēmas pret slēgtām sistēmām

Galvenais strīdus jautājums ir par to, vai spēcīgiem mākslīgā intelekta modeļiem jābūt pieejamiem ikvienam vai arī tie jāglabā aiz korporatīvajām sienām. Pilnvaru piekritēji uzskata, ka atvērtā pirmkoda programmatūra neļauj vienam uzņēmumam kļūt pārāk ietekmīgam un ļauj globālajai kopienai labot kļūdas. Regulatori bieži uztraucas, ka atvērtā pirmkoda jaudīgi modeļi ļauj ļaunprātīgiem dalībniekiem pārāk viegli tos izmantot kiberuzbrukumiem vai bioterorismam.

Globālā konkurētspēja

Valstis bieži baidās, ka pārāk stingras regulēšanas gadījumā tās zaudēs savus labākos talantus valstīm ar mazāk stingriem noteikumiem. Šī "sacensība pēc zemākā līmeņa" mentalitāte daudzus mudina uz iespēju paplašināšanas pozīciju, lai saglabātu līderpozīcijas globālajā tehnoloģiju sacensībā. Tomēr starptautiskās organizācijas arvien vairāk cenšas panākt "Briseles efektu", kur augsti regulatīvie standarti vienā lielā tirgū kļūst par globālu normu ikvienam.

Priekšrocības un trūkumi

Mākslīgā intelekta paplašināšana

Iepriekšējumi

  • +Ātrāki zinātniskie sasniegumi
  • +Zemāks ienākšanas šķērslis
  • +Maksimāla ekonomiskā izaugsme
  • +Globālā tehnoloģiju līderība

Ievietots

  • Nepārbaudīta algoritmiskā neobjektivitāte
  • Nepareizas lietošanas risks
  • Bažas par privātumu
  • Potenciāla darba zaudēšana

Mākslīgā intelekta regula

Iepriekšējumi

  • +Aizsargā pilsoņu tiesības
  • +Nodrošina sabiedrības uzticību
  • +Samazina sistēmiskos riskus
  • +Skaidra juridiskā atbildība

Ievietots

  • Lēnāks inovāciju temps
  • Augstas atbilstības izmaksas
  • Regulējošās pārtveršanas risks
  • Talants var aiziet

Biežas maldības

Mīts

Regulatori vēlas pilnībā iznīcināt mākslīgā intelekta nozari.

Realitāte

Lielākā daļa regulatoru patiesībā vēlas radīt stabilu vidi, kurā uzņēmumi var attīstīties, nebaidoties no masveida tiesas prāvām vai sabiedrības negatīvās reakcijas. Viņi noteikumus uzskata par "bremzēm", kas ļauj automašīnai droši braukt ātrāk, nevis par pastāvīgu apstāšanās zīmi.

Mīts

Mākslīgā intelekta iespēju paplašināšana dod labumu tikai lieliem tehnoloģiju uzņēmumiem.

Realitāte

Patiesībā daudzi iespēju veicināšanas aizstāvji ir lieli atvērtā pirmkoda atbalstītāji, jo tas ļauj jaunuzņēmumiem un studentiem konkurēt ar tehnoloģiju gigantiem. Noteikumi bieži vien dod priekšroku lieliem uzņēmumiem, jo tie ir vienīgie, kas var atļauties juridiskās komandas, kas nepieciešamas atbilstības nodrošināšanai.

Mīts

Mums pilnībā jāizvēlas viens vai otrs.

Realitāte

Lielākā daļa mūsdienu regulējumu, piemēram, ES Mākslīgā intelekta likums vai ASV izpildrīkojums, cenšas atrast kompromisu. Tie pieļauj “smilškastes”, kurās inovācijas var brīvi notikt, vienlaikus stingri regulējot tādas svarīgas jomas kā veselības aprūpe vai novērošana.

Mīts

Regulējums apturēs mākslīgā intelekta neobjektivitāti.

Realitāte

Regulējums var noteikt testēšanu un pārredzamību, taču tas nevar maģiski izdzēst neobjektivitāti no datiem, ko izmanto mākslīgā intelekta apmācībai. Tas nodrošina veidu, kā saukt cilvēkus pie atbildības neobjektivitātes gadījumā, taču inženieriem joprojām ir jārisina tehniskais "taisnīguma" izaicinājums.

Bieži uzdotie jautājumi

Kas notiek, ja viena valsts regulē mākslīgo intelektu, bet citas neregulē?
Tas rada "regulatīvās arbitrāžas" situāciju, kurā uzņēmumi varētu pārcelt savu galveno mītni uz valstīm ar pielaidīgāku vidi. Tomēr, ja regulējošajai valstij ir liels tirgus (piemēram, ES), uzņēmumi parasti vienkārši ievēro stingrākus noteikumus visur, jo tas ir lētāk nekā ražot divas dažādas produkta versijas. To bieži sauc par "Briseles efektu", un tas palīdz noteikt globālus standartus pat bez globāla līguma.
Vai mākslīgā intelekta regulējums padara programmatūru lietotājiem dārgāku?
Īstermiņā tas var notikt, īpaši attiecībā uz specializētiem rīkiem. Uzņēmumiem ir jātērē vairāk līdzekļu auditiem, datu tīrīšanai un juridisko pakalpojumu izmaksām, un šīs izmaksas bieži tiek nodotas patērētājiem. Tomēr atbalstītāji apgalvo, ka "neregulētas" katastrofas, piemēram, masveida datu noplūdes vai neobjektīvas medicīniskās diagnozes, izmaksas sabiedrībai ilgtermiņā ir daudz augstākas.
Vai atvērtā koda mākslīgo intelektu vispār var regulēt?
Šis šobrīd ir viens no sarežģītākajiem jautājumiem šajā jomā. Ir grūti regulēt kodu, kas jau ir publiskots. Daži iesaka regulēt "skaitļošanas" procesus (milzīgo aparatūru, kas nepieciešama mākslīgā intelekta apmācībai), nevis pašu kodu. Citi uzskata, ka mums jākoncentrējas uz mākslīgā intelekta *lietošanas* regulēšanu — sodīt personu, kas to izmanto, lai nodarītu kaitējumu —, nevis personu, kas sarakstījusi atvērtā pirmkoda kodu.
Kas ir mākslīgā intelekta “regulatīvā smilškaste”?
Smilškaste ir kontrolēta vide, kurā uzņēmumi var testēt jaunus mākslīgā intelekta produktus regulatoru uzraudzībā, nekavējoties neskarot visus likumus. Tas ļauj valdībai redzēt, kā tehnoloģija darbojas reālajā pasaulē, un ļauj uzņēmumiem ieviest jauninājumus, vienlaikus saņemot atsauksmes par drošību. Tas būtībā ir jaunu ideju "izmēģinājuma periods", pirms tās nonāk masu tirgū.
Kas īsti raksta šos mākslīgā intelekta noteikumus?
Parasti tajā ir gan valdības amatpersonas, gan akadēmiskie pētnieki, gan nozares eksperti. ES tas ir Parlaments un Padome; ASV tās bieži vien ir izpildaģentūras, piemēram, NIST vai FTC. Tās gadiem ilgi apspriež definīcijas un riska līmeņus, lai nodrošinātu, ka likumi nenoveco brīdī, kad tiek izlaists jauns modelis.
Vai pilnvarošana noved pie "slepkavas robotiem"?
Šis ir bieži sastopams trops zinātniskajā fantastikā, taču reālajās debatēs “pilnvarošana” vairāk attiecas uz tādām lietām kā mākslīgā intelekta darbināta kodēšana vai personalizēta apmācība. Risks parasti nav fizisks robots, bet gan “eksistenciāls risks” no mākslīgā intelekta, kas varētu optimizēties nepareizam mērķim. Pilnvaru pilnvarošanas piekritēji apgalvo, ka daudzu dažādu mākslīgo intelektu, ko izveidojuši daudzi dažādi cilvēki, izveide ir labākā aizsardzība pret vienu “negodīgu” mākslīgo intelektu.
Kā regulējums ietekmē mazos jaunuzņēmumus?
Jaunuzņēmumi bieži vien cīnās ar regulējumu, jo tiem nav tik milzīgu juridisko budžetu kā tādiem uzņēmumiem kā Google vai Microsoft. Ja likums paredz 100 000 ASV dolāru auditu katram jaunam modelim, divu cilvēku jaunuzņēmums varētu vienkārši bankrotēt. Tāpēc daudzi jaunāki noteikumi ietver “daudzpakāpju” noteikumus, kas ir vieglāki mazajiem uzņēmumiem un stingrāki “sistēmiskiem” mākslīgā intelekta pakalpojumu sniedzējiem.
Kāpēc termins “melnā kaste” šajās debatēs ir tik svarīgs?
"Melnā kaste" ir mākslīgais intelekts, kura radītāji pat pilnībā nesaprot, kāpēc tas pieņēma konkrētu lēmumu. Regulatori ienīst melnās kastes, jo nevar pierādīt, ka tās nav neobjektīvas vai negodīgas. Pilnvaru aizstāvji apgalvo, ka, ja melnā kaste darbojas — piemēram, tā atrod vēža izārstēšanu —, rezultāts ir svarīgāks par skaidrojumu. Debates ir par to, vai mums vajadzētu dot priekšroku "izpratnei" vai "veiktspējai".

Spriedums

Izvēle starp šiem diviem ir atkarīga no jūsu prioritātes: ja uzskatāt, ka lielākais drauds ir atpalikšana no slimību ārstēšanas metodēm vai to neizmantošana, tad pareizā izvēle ir iespēju paplašināšana. Ja uzskatāt, ka lielākais drauds ir privātuma ierobežošana un automatizētas neobjektivitātes pieaugums, tad regulēta pieeja ir būtiska ilgtermiņa stabilitātei.

Saistītie salīdzinājumi

Abstrakti principi pretstatā ietekmei reālajā pasaulē

Izstrādājot pārvaldības sistēmas, pastāv fundamentāla spriedze starp teorētisko ideālu tīrību un sarežģīto praktiskās ieviešanas realitāti. Lai gan abstrakti principi sniedz morālu kompasu un ilgtermiņa redzējumu, reālās pasaules ietekme koncentrējas uz tūlītējiem rezultātiem, kultūras niansēm un neparedzētām sekām, kas bieži rodas, kad perfektas teorijas sastopas ar nepilnīgu cilvēku uzvedību.

Atbilstība pret efektivitāti

Lai gan korporatīvajā pārvaldībā atbilstības jēdziens bieži tiek lietots kā sinonīms, tas koncentrējas uz ārējo likumu un iekšējo noteikumu ievērošanu, savukārt efektivitāte mēra, cik labi šīs darbības faktiski sasniedz vēlamo rezultātu. Organizācijām ir jālīdzsvaro likuma burta ievērošana ar praktisko realitāti, vai to stratēģijas patiešām aizsargā uzņēmējdarbību un veicina darbības rezultātus.

Ātra izvietošana pret risku pārvaldību

Izvēle starp ātrumu un drošību bieži vien nosaka uzņēmuma tirgus trajektoriju. Lai gan ātra ieviešana piešķir prioritāti produktu ātrai piegādei lietotājiem, lai iegūtu tirgus daļu, riska pārvaldība koncentrējas uz stabilitāti, atbilstību un ilgtermiņa dzīvotspēju. Lai līdzsvarotu šīs divas filozofijas, ir jāsaprot, kad jāpaātrina temps un kad drošības labad jāpiebremzē.

Augšupvērsta pārvaldība pret augšupvērstu līdzdalību

Šajā salīdzinājumā tiek aplūkotas divas kontrastējošas vadības filozofijas: centralizēta kontrole, kas balstīta uz augšupēju pārvaldību, un iekļaujoša, uz iedzīvotājiem vērsta pieeja, kas balstīta uz augšupēju līdzdalību. Viena piedāvā skaidru virzienu un ātru lēmumu pieņemšanu no augstākā līmeņa sanāksmes, savukārt otra balstās uz plašākas sabiedrības daudzveidīgo pieredzi un vietējām atziņām.

Caurspīdīgums pret tirgus slepenību

Šajā salīdzinājumā tiek pētīta strukturālā spriedze starp sabiedrības tiesībām zināt un korporācijas nepieciešamību aizsargāt sensitīvus datus. Lai gan pārredzamība veido pamata uzticēšanos un tirgus stabilitāti, tirgus slepenība bieži vien ir galvenais konkurences priekšrocību dzinējspēks, ļaujot uzņēmumiem aizsargāt unikālās inovācijas un stratēģijas, kas veicina to vērtību.