Ar gali robotas atskirti gera nuo bloga? Pastangos robotams, save vairuojantiems automobiliams ir karinėms mašinoms įdiegti etikos jausmą parodo, kaip tai nelengva.
Ar galime išmokyti robotą būti geru? Susižavėjęs šia idėja, robotikos specialistas Alanas Winfieldas iš Bristolio robotikos laboratorijos sukūrė etikos spąstus – ir buvo priblokštas mašinos atsako.
Eksperimente Winfieldas ir jo kolegos suprogramavo robotą neleisti kitiems automatams –atstovavusiems žmones – įkristi į skylę. Tai supaprastinta Isaaco Asimovo sugalvotų robotikos taisyklių pirmojo priesako versija – robotas privalo neleisti žmogui patirti žalą.
Iš pradžių robotui užduotis sekėsi. Žmogų atstovaujančiam automatui artinantis prie skylės, robotas skubėdavo jį nustumti nuo pavojaus. Bet komandai pridėjus antrą „žmogų“, riedantį link skylės tuo pat metu, robotui teko rinktis. Kartais jam pavykdavo vieną žmogų išgelbėti, leidžiant kitam pražūti; keletą kartų jam netgi pavyko išgelbėti abu. Bet 14 kartų iš 33 bandymų, robotas iššvaistė tiek laiko svarstymams, kad į skylę nukrito abu žmonės. Darbas buvo pristatytas rugsėjo 2 dieną vykusiame Towards Autonomous Robotic Systems susirinkime Birmingeme, JK.
Winfieldas apibūdino savo robotą kaip „etikos zombį“, neturintį kito pasirinkimo, tik elgtis taip, kaip pasielgė. Nors valdomas programinio kodo jis ir gali išgelbėti kitus, jis nesupranta savo veiksmų priežasties. Winfieldas pripažįsta manęs, kad robotams neįmanoma patiems priimt etiškus sprendimus. Dabar jis sako, kad „mano atsakymas yra: neturiu supratimo“.
Robotams vis labiau integruojantis į kasdienį mūsų gyvenimą, į šį klausimą atsakyti teks. Pavyzdžiui, save vairuojantiems automobiliams vieną dieną gali tekti pasverti savo keleivių saugumą ir kitų vairuotojų ar pėsčiųjų sužalojimo riziką. Gali būti labai sunku suprogramuoti robotams tokių atsitikimų taisykles.
Bet kariniai robotai gali pasiūlyti sprendimo pradžią. Ronaldas Arkinas, kompiuterijos mokslininkas iš Džordžijos Technologijų instituto Atlantoje, sukūrė algoritmus kariniams robotams – pavadintus „etikos valdytojais“ – kurie turėtų padėti priimti išmintingus sprendimus mūšio lauke. Jis išbandė juos simuliuotame mūšyje, parodydamas, kad tokiomis programomis aprūpinti bepiločiai lėktuvai gali pasirinkti nešauti arba stengtis įmanomai sumažinti aukų skaičių per mūšį, vykstantį šalia ploto, saugomo nuo mūšių pagal karo taisykles, tarkime, mokyklos ar ligoninės.
Arkinas sako, kad karinių robotų rengimas būti etiškesniais gali būti gan paprasta užduotis, nes šios taisyklės gerai žinomos. „Karo įstatymai apgalvoti per tūkstančius metų ir įrašyti sutartyse.“ Kitaip, nei kovotojai žmonės, kuriuos gali paveikti emocijos ir jie taisykles gali sulaužyti, robotai to nepadarys.
„Kai kalbame apie etiką, visa tai iš esmės yra apie robotus, sukurtus funkcionuoti gana apibrėžtoje erdvėje,“ sako Wendellas Wallachas, knygos „Moral Machines: Teaching Robots Right From Wrong“ autorius. Tačiau, sako jis, tokie eksperimentai, kaip Winfieldo, rodo klojamus pamatus sudėtingesnio etiško elgesio sukūrimui. „Jei išmokytume juos gerai veikti aplinkose, kur visų galimų aplinkybių, kuriose jie gali atsidurti, nežinome, tai atvertų daugybę naujų jų panaudojimo sričių.“
Aviva Rutkin, New Scientist № 2986