Aktuāls

Kad pienāks beigas Francijas ērai WRC pasaules čempionātā?

Auto, Moto

Kurš gan nav redzējis kaut vienu filmu, kurā roboti saceļas pret cilvēci (piemēram, “Terminators”, “I, Robot”, seriāls “Battlestar Galactica” utt.)? Šādas filmas, acīmredzot, ir redzējuši arī ASV Jūras spēki, kuri šobrīd finansē pētījumu, kura mērķis ir noteikt cik liela ir iespēja sagaidīt šādu scenāriju un ko iesākt robotu sacelšanās gadījumā. Šī pētījuma autori ir Kalifornijas štata Politehniskās universitātes Ētikas un jauno tehnoloģiju departaments. Pētījuma ziņojumā ir teikts, ka robotiem ir jāiemācās pakļauties karavīru rīcības kodeksam, bet to pieaugošais intelekts var robotu atturēšanu no sacelšanās pret to veidotājiem padarīt arvien grūtāku.

Scenārijs kā roboti saceļas pret saviem veidotājiem – cilvēkiem, ir plaši zināms, bet vai tas tiešām varētu kļūt par realitāti? Vairāki pētnieki sāk šo jautājumu arvien nopietnāk apsvērt, jo robotu mākslīgais intelekts kļūst arvien sarežģītāks, un pasaules tehnoloģiski attīstītākās nācijas karam paredzētus robotus jau sāk pielietot kauju frontes līnijā. Šobrīd ASV bruņotie spēki lieto daudzus robotus, bet pagaidām tos visus vada cilvēks, taču, tehnoloģijām attīstoties, plānos ietilpst arī pilnībā neatkarīgu risinājumu lietošana kaujas laukā.

Pastāv maldinošs pieņēmums, ka roboti darīs tikai to, ko mēs viņiem esam ieprogrammējuši, lai viņi darītu. Diemžēl šāda pārliecība ir stipri novecojusi, sniedzoties atpakaļ tajos laikos, kad programmas uzrakstīt un saprast varēja viena cilvēks,” situācijas nopietnību skaidro ASV Jūras spēku pasūtītā pētījuma sastādītājs Patriks Lins.

Pētījuma ziņojumā ir norādīts, ka mākslīgā intelekta projektu apjoms būs tik liels, ka to kodu nebūs iespējams pilnībā izanalizēt un tādējādi atklāt iespējamos apdraudējumus. Doktors Lins skaidroja, ka, tā kā viena kara robota programmas kodu raksta vairāki simti programmētāju, nevienam nav skaidra saprašana par to, kas notiek katrā šī neiedomājami garā koda fragmentā.

P. Lins uzskata, ka veids kā robotu sacelšanos varētu novērst, ir iekļaut to mākslīgajā intelektā “mācīšanās” loģiku, kas robotam ļautu apgūt ētiskas kara mākslas pareizās un nepareizās nianses. Šī loģika varētu tikt lietota paralēli tradicionālajai programmēšanai, kas ir balstīta uz noteikumiem.

Tāpat ziņojumā bez jau minētajām kļūdām programmatūrā ir apskatīts arī cits potenciāls drauds – teroristu uzbrukums, kura rezultātā roboti tiktu pārprogrammēti tā, lai tie uzbruktu saviem veidotājiem.

Kalifornijas štata Politehniskās universitātes Ētikas un jauno tehnoloģiju departaments ziņojumā ASV Jūras spēki tiek brīdināti par robotu pāragru izvietošanu kaujas laukā vai iespējamo pašpārliecinātību potenciālo problēmu risināšanā. ASV Kongress Jūras spēkiem ir devis uzdevumu līdz 2010. gadam pabeigt “dziļā uzbrukuma” (acīmredzot, plaša darbības rādiusa) lidaparātu, kas spētu darboties arī bez pilota, kā arī līdz 2015. gadam vismaz trešdaļai sauszemes kaujas transportlīdzekļu ir jāspēj strādāt autonomi (t.i. bez vadītāja). Minētās universitātes pārstāvji brīdina, ka steigšanās pēc iespējas ātrāk kaujas laukā nogādāt šādus robotus, kuriem vēl nebūs pietiekami izstrādāta ētika, sākotnēji var novest pie kļūdām, kuras maksās cilvēku dzīvības.

Pētījuma autori uzskata, ka tādi vienkārši ētikas likumi kā Īzaka Asīmova trīs robotikas likumi no kuriem trešais robotiem aizliedz nodarīt pāri cilvēkiem, nebūs pietiekami. Kara robotiem būs jānogalina, bet viņiem būs jāspēj noteikt atšķirība starp ienaidniekiem un mierīgajiem iedzīvotājiem.

Nobeigumā tiek atgādināts, ka ASV armija šogad jau piedzīvoja ne pārāk patīkamus mirkļus, jo kāds no Irākā izvietotajiem kara robotiem, programmatūras kļūdas rezultātā, sāka tēmēt uz cilvēkiem, kuri nebija ienaidnieki. Par laimi šajā gadījumā gala lēmumu (vai ir nepieciešams šaut) pieņēma cilvēki, tomēr tas ir kārtējais pierādījums tam, cik neuzticami pagaidām ir roboti.

Izsaki savu viedokli