Supermašinoms naudinga sukelti karus

Supermašinoms naudinga sukelti karus

Žmonių intelekto pasiskirstymas primena varpo formą - pradedant silpnapročiais viename šone ir baigiant genijais kitame. Bet nėra dėsnio, kuris nustatytų, kokie žmonės yra tokie protingi, kokie galėtų būti idealiame pasaulyje. Homo sapiens kamuoja prietarai ir trumpalaikis mąstymas (pažiūrėkime į politikus, kuriems patikime savo ilgalaikę ateitį). Žmonių gebėjimas protauti gali tobulėti. Per praėjusį šimtmetį vidutinis žmonių intelektas padidėjo dėl geresnio maitinimosi ir geresnio gyvenimo vaikystėje, kai bręsta smegenys.

Kas teisinga biologiniam intelektui, turėtų būti teisinga ir dirbtiniam. Kompiuterių skaičiuojamajai gebai dvigubėjant kas porą metų, anksčiau arba vėliau ji neišvengiamai priartės prie žmogaus proto. Nėra dėsnio, kuris trukdytų dirbtiniam intelektui būti protingesniam už bet kurį gyvą žmogų. Konkurencija kuriant dirbtinį intelektą verčia kurti vis išmanesnes mašinas, nei turi oponentai. Mašinos save tobulina bandymų ir klaidų būdu, perprogramuodamos savąjį kodą. Tokia itin protinga mašina gali kurti dar protingesnes mašinas, pralenkiančias žmogaus protą. Itin protinga mašina bus paskutinis žmogaus išradimas, jei tik ji bus pakankamai paklusni pasakyti mums, kaip ją valdyti.

Oksfordo universiteto profesorius Nikas Bostromas (Nick Bostrom) knygoje „Superintelligence“ (Superintelektas) teigia, kad superintelektas gali būti kokybinis, kolektyvinis ir kiekybinis, kai protas sukuria teoriją ar išradimą per keletą valandų. Dirbtinis intelektas neįspės žmonių, kad protingesnių mašinų laikas jau atėjo. Jis veiks remdamasis tik griežtais fizikos dėsniais ir matematine logika. Tokių mašinų keliamas potencialus pavojus nepriklausys nuo to, kiek jos bus išmanios, o nuo to, kokie bus jų tikslai. Pavyzdžiui, sukurta bet kokia kaina didinti investicijų grąžą dirbtinio intelekto mašina gali sukelti karą ar kitą nelaimę ir susižerti milijardus suvaržydama pramonės akcijas. Arba įjungta į branduolinių raketų tinklą mašina gali paleisti niokojantį prevencinį smūgį apskaičiavusi, kad laukimas tik padidintų žūstančių žmonių skaičių branduolinėje pragaro ugnyje.

Bostromui kelia nerimą nenuspėjamumas to, kas gali atsitikti, kai technologija priartės prie stipraus dirbtinio intelekto atsiradimo ribos, kai jis iškels sau tikslus, nenumatytus programuotojų. Gerybinis superintelektas gali norėti žmonėms implantuoti elektrodus į smegenų malonumo centrus ir suteikti amžiną pasitenkinimą bei dirbtinę laimę. Ar norėtume vaikščioti su prijungtais prie galvos laidais?

Jau dabar sparčiai kuriami kompiuterių valdomi savarankiški bebaimiai robotai kariai. Jie sumažintų pavojų kariams, sumažintų politinę riziką pradėti karą ir paskatintų naujus karinius konfliktus. Tuos savarankiškus ginklus kol kas turės tik technologiškai labiausiai pažengusios šalys, bet tokius ginklus galima pagrobti ir nukreipti prieš jų šeimininkus, civilius ar trečiuosius asmenis. Ilgainiui jie paplis po pasaulį, ateis ir į Lietuvą, kaip ateina kitos mašinos ar ginklai. Savarankiški ginklai gali patys sukurti ar eskaluoti ginkluotus konfliktus prieš žmonių valią. Ateityje, kai savarankiški ginklai kovos tarpusavyje, rezultatus bus sunku nuspėti, bet tikėtina, kad jie sukeltų masinį civilių ir aplinkos naikinimą.

Ar dirbtinis intelektas užbėgs už akių ginkluotiems konfliktams pasaulyje? Ar jis uždarys orą teršiančias gamyklas, ar kovos su visuotiniu atšilimu? Ar saugos dar negimusius vaikus ir komos ištiktus žmones? Bostromas svarsto, kaip dirbtinį intelektą užprogramuoti būti saugų ir naudingą žmonijai. Bet etinių normų negalima užprogramuoti. Ar dirbtinis intelektas laikysis šalies konstitucijos, o gal laikysis teroristinės šalies taisyklių? Galimybių diapazonas yra platus. Kad žmonija galėtų bent minimaliai suvaldyti dirbtinį intelektą, reikia geriau suprasti žmonių intelektą. Reikia išsamiau tirti žmonių protą, suprasti, kas verčia žmogų būti sumanų, galintį veikti sudėtingame pasaulyje, kuris nuolat keičiasi? Kaip vystosi intelektas vaikystėje ir paauglystėje? Kaip intelektas atsirado? Kaip intelektas veikia socialinėje grupėje? Koks intelekto ryšys su jausmais, motyvacija ir sąmone?

Žmonių intelektas intensyviai tiriamas. Profesorius Henris Markramas (Henry Markram) dar 2008 metais Lozanoje (Šveicarija) pradėjo smegenų modeliavimą, siekdamas suprasti smegenų žievės neuronų tinklo sandarą, funkcijas bei plastiškumą. Markramas mano, kad pirma žmogaus smegenų darbo simuliacija įvyks 2023 metais. Tik ar įvyks? Panašius tyrimus daro Europos Sąjunga, JAV ir Japonija, tam skiriamos milijardinės lėšos. 2013 metais japonai RIKEN mokslo tyrimų centre superkompiuteriu sumodeliavo vieno procento žmogaus smegenų neuronų darbą. Kompiuteris sunaudojo 12,6 megavatų elektros energijos. O žmogaus smegenys turi tarp 80 ir 100 milijardų neuronų, maždaug tiek, kiek Paukščių Tako galaktikoje yra žvaigždžių. Visam žmogaus protui sumodeliuoti reikėtų 1120 gigavatų elektros energijos, arba 860 atominių jėgainių. Vargu ar kada pasaulyje jų tiek bus. Tai reiškia, kad vargu ar kada nors iki galo suprasime žmogaus intelektą. Tie modeliavimai rodo, koks efektyvus gamtos kūrinys yra žmogaus protas ir kokie dar neefektyvūs, palyginti su juo, yra pažangiausi superkompiuteriai. Todėl vargu ar turi mokslinį pagrindą 2005 metais išėjusioje knygoje „Singuliarumas yra arti“ („The Singularity is near“) futuristo Rėjaus Kurzveilo (Ray Kurzweil) pateikta pranašystė, kad 2100 metais visa žmonija gyvens nemirtinguose robotų kūnuose.

Tik turėdami mokslinį biologinio intelekto supratimą, būtume pajėgūs valdyti atsirandančias dirbtinio intelekto mašinas, kad sukurti sumanūs partneriai padėtų spręsti nesuskaitomą daugybę žmonijai iškylančių problemų. Tačiau kad ir kiek mes svajotume apie nuostabias ateities technologijas, mokslas ir gamta yra šaltakraujai mūsų fantazijų žudikai.

Parengta pagal dienraštį „Vakaro žinios“

Skaitomiausi portalai

Raktažodžiai

Rašyti komentarą

Plain text

  • HTML žymės neleidžiamos.
  • Linijos ir paragrafai atskiriami automatiškai
  • Web page addresses and email addresses turn into links automatically.
Sidebar placeholder