Aizeka Azimova nepaklausīgie roboti.

Idas Šahovskas raksts no izdevuma "Taini XX veka", 2016. gada 46. numura.

Liekas, ka viens no pašiem pagājušā gadsimta futurologiem bija slavenais amerikāņu rakstnieks-fantasts un zinātnes popularizētājs Aizeks Azimovs (1920-1992). Tā kā pamatprofesija Azimovam bija zinātnieks-bioķīmiķis, viņa "pareģojumi" nebalstījās tikai uz rakstnieka iztēli. 1964. gadā pēc žurnālistu lūguma viņš mēģināja iedomāties, kāda var kļūt mūsu dzīve pēc 50 gadiem. Beigās izrādījās, ka septiņas no viņa desmit prognozēm pilnībā vai daļēji ir piepildījušās.

XX gadsimta pareģis.

Rakstnieks pateica, ka telefoni būs bez vadiem un ar ekrānu, sakari starp abonementiem dažādos kontinentos notiks ar pavadoņu palīdzību. "Jūs varēsiet ieraudzīt cilvēku, kuram zvanīsiet. Displeju varēs izmantot, lai skatītu dokumentus, fotogrāfijas un lasītu grāmatas. Tiks radītas miniatūras elektronu skaitļojamās mašīnas, par to enerģijas avotu kļūs litija-jonu akumulatori".

 

 

Azimovs paredzēja arī televizorus ar plakaniem ekrāniem parasto vietā un "telpiskā kino" rašanos.

Runājot par sadzīves tehniku, rakstnieks prognozēja, ka to aprīkos ar taimeriem, lielākā daļa no tās kļūs bezvadu. Vēl rakstnieks sacīja, ka tuksnešos būvēs milzu elektrostacijas. Tādas jau ir, bet ne tik daudz.

Robotehnikas likumi.

Taču visvairāk Azimovu kā futurologu padarīja slavenu trīs robotehnikas likumi, kas pirmo reizi tika pieminēti stāstā "Riņķa dancis" (1942).

1. Robots nevar nodarīt pāri cilvēkam vai ar savu bezdarbību pieļaut, ka cilvēkam tiek nodarīts pāri.

2. Robotam ir jāpakļaujas visām pavēlēm, ko dod cilvēks, ja vien šīs pavēles nav pretrunā ar pirmo likumu.

3. Robotam ir jārūpējas par savu drošību tādā mērā, kas nav pretrunā ar pirmo un otro likumu.

Vēlāk, 1986. gadā, romānā "Roboti un Impērija", Azimovs pievienoja vēl arī robotehnikas nulles likumu: "Robots nedrīkst nodarīt ļaunumu cilvēcei vai ar savu bezdarbību pieļaut, lai cilvēcei tiktu nodarīts ļaunums".

Kaut arī Azimovam pieraksta autorību uz slavenajiem robotehnikas likumiem, tos galīgi noformulēja nevis viņš, bet viņa draugs, žurnāla "Astounding" galvenais redaktors Džons Kempbels, kurš no Azimova rakstītiem tekstiem koncentrētā veidā šo likumu tekstus izrakstījis. Tomēr rakstnieks nekad nav atteicies no autora tiesībām un ne reizi vien savā daiļradē ir pieminējis šos likumus.

Tā esejā "Robotehnikas likumi" Azimovs raksta, ka trīs likumu darbību var izplatīt uz visiem cilvēka radītajiem instrumentiem, tāpat kā uz sociālajiem institūtiem. To jēga ir kalpošanā ļaudīm, nenodarot viņiem ļaunumu un neapdraudot viņu drošību.

Briesmas nākotnei.

Gan kolēģi-fantasti, gan zinātnieki uztvēra Azimova iestrādnes visai nopietni. Viņiem izdevās atklāt trīs likumos daudz pretrunu, to dēļ tie mūsu laiku praksē, kad mākslīgā intelekta tehnoloģijas beidzot piedzīvo uzplaukumu, ir slikti izmantojami.

Piemēram, zinātniskās fantastikas speciālists Roberts Soijers spriež tā: "Mākslīgā intelekta attīstība ir bizness, bet bizness, kā zināms, nav ieinteresēts - kardinālu, drošības mēru - īpaši filozofisku mēru - attīstībā. Lūk, daži piemēri: tabakas industrija, automobiļu rūpniecība, kodolrūpniecība. Ne vienai no tām sākotnēji nebija teikts, ka ir nepieciešami nopietni drošības mēri, tās visas centās pretoties visiem no āra liktajiem ierobežojumiem un neviena no tām nav pieņēmusi absolūtu ediktu pret ļaunuma nodarīšanu cilvēkiem".

Taču, ja mēs runāsim tikai par robotiem, tad robotehnikas likumi drīzāk ir ideāls, nekā reāli strādājošs mehānisms. Pirmkārt, robotam ne vienmēr būs iespējams izskaidrot, kā pareizi rīkoties tajā vai citā situācijā, otrkārt, ievērojot likumus, roboti ierobežo cilvēku brīvību, kas ne vienmēr ir labi, kaitējums var būt acīm neredzams, tas var izpausties vēlāk. Piemēram, mašīnas var neļaut cilvēkiem veikt riskantas darbības, kas vērstas uz dažādu atklājumu un kreatīvu projektu izdarīšanu, kas galu galā veicinās progresu.

Tomēr daudzi nolēma trīs robottehnikas likumus izmantot praksē. 2007. gadā Dienvidkorejas valdība sāka strādāt pie „Robotu ētisko normu noteikumiem”, kur galvenie postulāti atgādināja Azimova likumus.

Jelijezers Judkovskis no Amerikas Singularitātes institūta (SIAI) pēta globālā riska problēmas, kas radīsies, ja nākošo mākslīgo superintelektu neieprogrammēs izturēties draudzīgi pret cilvēkiem. 2004. gadā SIAI izveidoja mājaslapu AsimovLaws.com, kur tika apspriestas mākslīgā intelekta ētikas problēmas. Konkrēti, diskusijas dalībnieki centās pierādīt, ka trīs robottehnikas likumu pielietošana ir bīstama cilvēcei, jo, sekojot tiem, mašīnas var sagrābt varu uz Zemes, lai „aizsargātu” cilvēkus no ļaunuma.

Aizsardzība pret muļķiem.

Tomēr, iedomāsimies, kas notiktu, ja likumi, ko Azimovs un Kempbels izstrādāja pirms daudzām desmitgadēm, kaut vai daļēji realizētos praksē... Nesen speciālistu komanda no Tafta Universitātes (ASV) izstrādāja mākslīgā intelekta sistēmu, kas ļauj pēdējam atteikties izpildīt operatora pavēles, ja šādai rīcībai ir pietiekams pamats. Jaunums tika prezentēts AI-HRI tehnoloģiskajā konferencē.

Sistēmas darbības princips ir šāds. Saņemt pavēli no cilvēka, mašīna pārbauda tā izpildes nosacījumus. Starp tiem ir tādi nosacījumi, kā: vajadzīgo prasmju esamība, fiziskas iespējas izpildīt šo pavēli un esošo apstākļu uzskaitījums, kā arī tāds parametrs, kā „subordinācija” – pārbaude, vai robotam ir pienākums izpildīt tieši šī operatora pavēles.

Ja robots atrod iemeslus, kāpēc šo pavēli nav iespējams izpildīt, tas paziņo par to cilvēkam. Taču pēc izejas datu precizēšanas mašīna var „pārdomāt” un sākt pildīt tai uzticēto uzdevumu.

Kā piemēru zinātnieki ierakstīja vairākus video, kur darbojas robots vārdā Nao. Katrā no tiem operators dod robotam mutvārdu pavēles, ko tas dažādu iemeslu dēļ atsakās izpildīt. Turklāt divos gadījumos mašīna tomēr izpilda norādījumus pēc tam, kad operators precizē datus, tomēr trešajā gadījumā „kategoriski” atsakās to pildīt, tāpēc ka operatoram nav nepieciešamo pilnvaru.

Tajā pašā laikā daži pētnieki roboētikas (robottehnikas ētisko aspektu) jomā, tādi kā Keitlina Ričardsone un Ēriks Brillings, uzskata, ka šādas iestrādnes ir pretrunā ar sabiedrisko morāli un humānisma principiem. Vai tikai spēja nepildīt cilvēka pavēles nenovedīs pie slavenās „mašīnu sacelšanās” – tādus jautājumus uzdod „nepaklausīgo” robotu pretinieki.

Īstenībā jau runa ir tikai par aizsardzību pret muļķi – pārbaudīt tādus vai citādus apstākļus, lai izpildītu to vai citu uzdevumu. Starp citu, līdzīgas tehnoloģijas jau sen izmanto, lai ierobežotu piekļuvi datu pārraidē informatīvajās skaitļošanas sistēmās. Ja nekorekti tiek izmantotas mašīnas funkcijas, tad galu galā var tikt nodarīts daudz lielāks ļaunums, nekā aizliegums atsevišķiem operatoriem lietot šīs funkcijas.

Bet trīs robotehnikas likumi par strīdus āboliem paliks fururologu diskusijās vēl daudzus gadus.

[Tas jau skaidrs. Piemēram, ja nākotnē būs roboti mājkalpotāji, vajadzēs taču drošības pēc ieslēgt sistēmu, lai tie nepildītu mazu bērnu vai neadekvātu cilvēku pavēles, taču – kā izvairīties no gadījumiem, kad tieši bērna pavēle robotam ir jāpilda? Tāpat dzīvē var atgadīties gadījumi, kad cilvēkam nākas riskēt ar savu dzīvību, bet robots, pildot savus likumus, neļaus viņam to darīt... Kādā recenzijā par Azimovu es lasīju, ka viņš izgudroja šos likumus, lai pēc tam savos stāstos parādītu, ka tie var arī nedarboties – t.p.]