Skip to main content
Shaping Europe’s digital future

MI akts ir pirmais tiesiskais regulējums mākslīgā intelekta jomā, kas pievēršas MI riskiem un liek Eiropai uzņemties vadošo lomu pasaulē.

MI akta mērķis ir nodrošināt AI izstrādātājiem un ieviesējiem skaidras prasības un pienākumus attiecībā uz konkrētiem AI lietojumiem. Tajā pašā laikā regulas mērķis ir samazināt administratīvo un finansiālo slogu uzņēmumiem, jo īpaši maziem un vidējiem uzņēmumiem (MVU).

MI akts ir daļa no plašāka politikas pasākumu kopuma uzticama MI izstrādes atbalstam, kas ietver arī mākslīgā intelekta inovācijas paketi un koordinēto MI plānu. Šie pasākumi kopā garantēs cilvēku un uzņēmumu drošību un pamattiesības mākslīgā intelekta jomā. Tie arī stiprinās MI ieviešanu, investīcijas un inovāciju visā ES.

MI akts ir pirmais visaptverošais tiesiskais regulējums mākslīgā intelekta jomā visā pasaulē. Jauno noteikumu mērķis ir veicināt uzticamu mākslīgo intelektu Eiropā un ārpus tās, nodrošinot, ka MI sistēmās tiek ievērotas pamattiesības, drošība un ētikas principi, un novēršot ļoti spēcīgu un ietekmīgu MI modeļu riskus.

Kāpēc mums ir vajadzīgi noteikumi par mākslīgo intelektu?

MI akts nodrošina, ka eiropieši var uzticēties tam, ko mākslīgais intelekts piedāvā. Lai gan lielākā daļa MI sistēmu rada tikai nekādu risku un var palīdzēt atrisināt daudzas sabiedrības problēmas, dažas MI sistēmas rada riskus, kas mums ir jārisina, lai izvairītos no nevēlamiem iznākumiem.

Piemēram, bieži vien nav iespējams noskaidrot, kāpēc AI sistēma ir pieņēmusi lēmumu vai prognozi un veikusi konkrētu darbību. Tādējādi var būt grūti novērtēt, vai kāds ir bijis netaisnīgi neizdevīgā situācijā, piemēram, pieņemot lēmumu par pieņemšanu darbā vai iesniedzot pieteikumu par sabiedriskā labuma shēmu.

Lai gan spēkā esošie tiesību akti nodrošina zināmu aizsardzību, ar tiem nepietiek, lai risinātu īpašās problēmas, ko MI sistēmas var radīt.

Ierosinātie noteikumi:

  • novērst riskus, ko īpaši rada MI lietojumi;
  • aizliegt MI praksi, kas rada nepieņemamus riskus;
  • nosaka augsta riska lietojumu sarakstu;
  • noteikt skaidras prasības AI sistēmām augsta riska lietojumiem;
  • noteikt īpašus pienākumus augsta riska MI lietotņu ieviesējiem un sagādātājiem;
  • pieprasīt atbilstības novērtēšanu, pirms attiecīgā AI sistēma tiek nodota ekspluatācijā vai laista tirgū;
  • ieviest izpildi pēc konkrētas AI sistēmas laišanas tirgū;
  • izveidot pārvaldības struktūru Eiropas un valstu līmenī.

Uz risku balstīta pieeja

Tiesiskajā regulējumā ir definēti četri AI sistēmu riska līmeņi:

piramīda, kas uzrāda četrus riska līmeņus: Nepieņemams risks; Augsta riska; ierobežots risks, minimāls risks vai risks bez tās

 

Visas AI sistēmas, kas tiek uzskatītas par nepārprotamu apdraudējumu cilvēku drošībai, iztikas līdzekļiem un tiesībām, tiks aizliegtas, sākot no valdības sociālās vērtēšanas līdz rotaļlietām, izmantojot balss palīdzību, kas veicina bīstamu uzvedību.

Augsts risks

AI sistēmas, kas identificētas kā augsta riska sistēmas, ietver AI tehnoloģiju, ko izmanto:

  • kritiskās infrastruktūras (piemēram, transports), kas varētu apdraudēt iedzīvotāju dzīvību un veselību;
  • izglītība vai profesionālā apmācība, kas var noteikt piekļuvi izglītībai un profesionālajam kursam cilvēka dzīvē (piemēram, eksāmenu vērtēšana);
  • produktu drošības sastāvdaļas (piemēram, mākslīgā intelekta izmantošana robotizētā ķirurģijā);
  • nodarbinātība, darba ņēmēju pārvaldība un piekļuve pašnodarbinātībai (piemēram, CV šķirošanas programmatūra darbā pieņemšanas procedūrām);
  • būtiskie privātie un sabiedriskie pakalpojumi (piemēram, kredītu novērtējums liedz pilsoņiem iespēju saņemt aizdevumu);
  • tiesībaizsardzības iestādes, kas var iejaukties cilvēku pamattiesībās (piemēram, pierādījumu ticamības novērtēšana);
  • migrācijas, patvēruma un robežkontroles pārvaldība (piemēram, vīzu pieteikumu automatizēta izskatīšana);
  • tiesas spriešana un demokrātiskie procesi (piemēram, MI risinājumi tiesas nolēmumu meklēšanai).

Augsta riska AI sistēmām tiks noteikti stingri pienākumi, pirms tās varēs laist tirgū:

  • atbilstīgas riska novērtēšanas un mazināšanas sistēmas;
  • augstas kvalitātes datu kopas, kas izmanto sistēmu, lai mazinātu riskus un diskriminējošus rezultātus;
  • darbības reģistrēšana, lai nodrošinātu rezultātu izsekojamību;
  • detalizētu dokumentāciju, kas iestādēm sniedz visu nepieciešamo informāciju par sistēmu un tās mērķi, lai novērtētu tās atbilstību;
  • skaidra un atbilstīga informācija ieviesējam;
  • piemērotus cilvēka virsvadības pasākumus, lai samazinātu risku;
  • augsts izturības, drošības un precizitātes līmenis.

Visas biometriskās tālidentifikācijas sistēmas tiek uzskatītas par augsta riska sistēmām, un uz tām attiecas stingras prasības. Biometriskās tālidentifikācijas izmantošana sabiedriskās vietās tiesībaizsardzības nolūkos principā ir aizliegta.

Šauri izņēmumi ir stingri definēti un reglamentēti, piemēram, ja tas ir nepieciešams, lai meklētu pazudušu bērnu, novērstu konkrētus un nenovēršamus terorisma draudus vai atklātu, atrastu, identificētu vai sauktu pie atbildības par smagu noziedzīgu nodarījumu izdarītāju vai aizdomās turētu personu.

Šādu lietojumu veikšanai ir vajadzīga tiesas vai citas neatkarīgas struktūras atļauja un atbilstīgi laika, ģeogrāfiskās pieejamības un meklēto datu bāzu ierobežojumi.

Ierobežots risks

Ierobežots risks attiecasuz riskiem, kas saistīti ar pārredzamības trūkumu MI izmantošanā. MI akts ievieš īpašus pārredzamības pienākumus, lai nodrošinātu, ka cilvēki vajadzības gadījumā tiek informēti, veicinot uzticēšanos. Piemēram, izmantojot AI sistēmas, piemēram, tērzēšanas robotus, cilvēki būtu jāinformē, ka viņi mijiedarbojas ar iekārtu, lai viņi varētu pieņemt apzinātu lēmumu turpināt vai atgriezties. Sagādātājiem būs arī jānodrošina, ka MI radīts saturs ir identificējams. Turklāt MI radītais teksts, kas publicēts nolūkā informēt sabiedrību par sabiedrības interešu jautājumiem, ir jāmarķē kā mākslīgi radīts. Tas attiecas arī uz audio un video saturu, kas ir dziļviltojumi.

Minimāls risks vai risks bez tā

MI akts ļauj brīvi izmantot minimālā riska AI. Tas ietver tādas lietojumprogrammas kā MI iespējotas videospēles vai surogātpasta filtri. Lielākā daļa pašlaik ES izmantoto AI sistēmu ietilpst šajā kategorijā.

Kā tas viss praksē darbojas attiecībā uz augsta riska AI sistēmu sagādātājiem?

pakāpeniska atbilstības deklarēšanas procedūra
How does it all work in practice for providers of high risk AI systems?

Kad AI sistēma ir nonākusi tirgū, iestādes ir atbildīgas par tirgus uzraudzību, ieviesēji nodrošina cilvēka veiktu uzraudzību un uzraudzību, un sagādātājiem ir pēctirgus uzraudzības sistēma. Pakalpojumu sniedzēji un ieviesēji arī ziņos par nopietniem incidentiem un darbības traucējumiem.

Risinājums lielu mākslīgā intelekta modeļu uzticamai izmantošanai

Arvien vairāk vispārējas nozīmes mākslīgā intelekta modeļi kļūst par AI sistēmu sastāvdaļām. Šie modeļi var veikt un pielāgot neskaitāmus dažādus uzdevumus.

Lai gan vispārējas nozīmes mākslīgā intelekta modeļi var nodrošināt labākus un jaudīgākus MI risinājumus, ir grūti pārraudzīt visas spējas.

Tajā AI akts ievieš pārredzamības pienākumus visiem vispārējas nozīmes MI modeļiem, lai nodrošinātu labāku izpratni par šiem modeļiem un papildu riska pārvaldības pienākumiem ļoti spējīgiem un ietekmīgiem modeļiem. Šie papildu pienākumi ietver sistēmisko risku pašnovērtējumu un mazināšanu, ziņošanu par nopietniem incidentiem, testu un modeļu izvērtēšanu, kā arī kiberdrošības prasības.

Nākotnes prasībām atbilstoši tiesību akti

Tā kā mākslīgais intelekts ir strauji mainīga tehnoloģija, priekšlikumam ir nākotnes prasībām atbilstoša pieeja, kas ļauj noteikumus pielāgot tehnoloģiju pārmaiņām. MI lietojumiem būtu jāpaliek uzticamiem pat pēc to laišanas tirgū. Tam nepieciešama pastāvīga kvalitātes un riska pārvaldība, ko veic pakalpojumu sniedzēji.

Izpilde un īstenošana

Eiropas MI birojs, kas Komisijā izveidots 2024. gada februārī, kopā ar dalībvalstīm pārrauga MI akta izpildi un īstenošanu. Tās mērķis ir radīt vidi, kurā MI tehnoloģijas respektē cilvēka cieņu, tiesības un uzticēšanos. Tā arī veicina sadarbību, inovāciju un pētniecību mākslīgā intelekta jomā starp dažādām ieinteresētajām personām. Turklāt tā iesaistās starptautiskā dialogā un sadarbībā MI jautājumos, atzīstot, ka MI pārvaldībai ir nepieciešama globāla saskaņošana. Ar šiem centieniem Eiropas MI birojs cenšas pozicionēt Eiropu kā līderi mākslīgā intelekta tehnoloģiju ētiskā un ilgtspējīgā attīstībā.

Turpmākie pasākumi

Eiropas Parlaments un ES Padome 2023.gada decembrī panāca politisku vienošanos par MI aktu. Teksts tiek oficiāli pieņemts un tulkots. MI akts stāsies spēkā 20 dienas pēc tā publicēšanas Oficiālajā Vēstnesī, un tas būs pilnībā piemērojams divus gadus vēlāk, ar dažiem izņēmumiem: aizliegumi stāsies spēkā pēc sešiem mēnešiem, pārvaldības noteikumi un vispārējas nozīmes AI modeļu pienākumi kļūs piemērojami pēc 12 mēnešiem, un noteikumi par AI sistēmām, kas iestrādāti regulētos produktos, tiks piemēroti pēc 36 mēnešiem. Lai atvieglotu pāreju uz jauno tiesisko regulējumu, Komisija ir uzsākusi MI paktu, brīvprātīgu iniciatīvu, kuras mērķis ir atbalstīt turpmāku īstenošanu, un aicina mākslīgā intelekta izstrādātājus no Eiropas un ārpus tās pirms laika izpildīt MI aktā noteiktos galvenos pienākumus.

Jaunākās ziņas

Komisija piešķir lielas mākslīgā intelekta lielās izaicinājuma balvas inovatīviem Eiropas mākslīgā intelekta jaunuzņēmumiem un MVU

Šodien iekšējā tirgus komisārs Tjerī Bretons (Thierry Breton) piešķir četras Eiropas mākslīgā intelekta (MI) jaunuzņēmumu balvas no 2023. gada 23. novembrī izsludinātā lielā mākslīgā intelekta lielā uzdevuma.

Līdzīgs saturs

Lielais attēls

Eiropas pieeja mākslīgajam intelektam

ES pieeja mākslīgajam intelektam ir vērsta uz izcilību un uzticēšanos, un tās mērķis ir palielināt pētniecības un rūpniecības spējas, vienlaikus nodrošinot drošību un pamattiesības.

Rociet dziļāk!

MI pakts

MI pakts mudina un atbalsta organizācijas plānot MI akta pasākumu īstenošanu.

Skatīt arī

Koordinētais mākslīgā intelekta plāns

Koordinētā mākslīgā intelekta plāna mērķis ir paātrināt ieguldījumus mākslīgajā intelektā, īstenot mākslīgā intelekta stratēģijas un programmas un saskaņot mākslīgā intelekta politiku, lai novērstu sadrumstalotību Eiropā.

Eiropas mākslīgā intelekta alianse

Eiropas MI alianse ir Eiropas Komisijas iniciatīva izveidot atklātu politikas dialogu par mākslīgo intelektu. Kopš MI alianses izveides 2018. gadā tā ir iesaistījusi aptuveni 6000 ieinteresēto personu regulāru pasākumu, sabiedriskās apspriešanas un tiešsaistes forumu apmaiņas...

  翻译: