torstai 12. marraskuuta 2015

Tappaja -autot


Itseään ohjaavat autot ovat kehitysasteella. Autoja joiden ajaminen ei vaadi minkäänlaista ajokorttia tai ajo-osaamista voidaan luultavasti odottaa tulevaisuudessa. Tähän liittyen mukaan on tullut eettisiä kysymyksiä.

MIT:n juttu siitä miksi autot pitää ohjelmoida surmaamaan joku on tyypittävä. Se luo hyvin rajatun tilanteen jonka ennakointi voisi kenties olla mahdollista. Mutta jonka korjaaminen annetuissa parametreissa vaatii jonkun tai joidenkuiden kuoleman. ; Ideana on se, että jos auto ajaa vaikka kapeassa tunnelissa kovalla vauhdilla eikä kykene jarruttamaan ennen törmäystä niin ajaako auto edessä olevan tai olevien päälle vai ajaako auto seinään jolloin kyydissä oleva kuolee.

"Digital trends" kysyy asiaa abstraktimmin. Sellaisella tavalla jossa korostuu e, että tosielämässä on paljon onnettomuustilanteita ja hätäsäätöjä joissa on seuraukena kuolemia. Siksi siellä kysytään sellaisia kysymyksiä kuin "Should your self-driving car kill you to save a school bus full of kids?". Kysymys on kiinnostava. Sillä autoon olisi pakko ohjelmoida reagointimallit eri tilanteisiin. Kun ihmiset ovat kuskeina, heitä ajaa ennen kaikkea oma hengissä selviäminen. Ja muuhun komentamista todennäköisesti vain rikottaisiin joka tapauksessa. Mutta tämä ei ole välttämätöntä jos auton kaikki reaktiotavat ovat ohjelmoituja. ; Science Dailyssä on mietintää nimenomaan trolley problemin muunnelmina. Usein ajatukseen siitä, että auto surmaa yhden jos tällä pelastetaan monta on hyväksyttävää - kunnes ex post/ex ante -tilanteiden psykologia muuttaa tilannetta. Jos surmattavana uhrina on itse tai vastaava, niin sitä että oma auto surmaa itsen vaikka vaihtoehtona on bussilasti koululaisia ei pidetä miellyttävänä. Eli niin kauan kuin kuolleet ovat ei-persoonallisesti tunnettuja, uhraamiseen suhtaudutaan sallivasti.

On hyvä huomata että kysymykset koskevat trolley problemia.

Trolley problem on hyvin klassinen etiikan kysymys. Ja kun mietitään sovelluksia ja koneita, etenkin tekoälyä, etiikka on hyvinkin keskeinen aihe. Tämä ei välttämättä tule mieleen. Sillä nörtti-teknikoiden spesialiteetiksi nähdään väkertäminen ja kuiva tiede.

Kuitenkin periaatteessa jo Asimovin kolme robotiikan pääsääntöä ovat muistutus siitä, että etiikka ja teknologia liitetään helposti ja usein yhteen. Samalla on kuitenkin selvää että tosiasiassa trolley problem on oleellisempi autojen ohjelmoinnissa kuin Asimovin säännöt. Ja oikeastaan Asimovin robotiikan kolmeen pääsääntöön viitataan niin usein että on syytä sanoa miksi.

Asimov oli kaunokirjailija joka oli kyllästynyt siihen että tekoälyjen ja robottien henkenä oli päätyä jonkinlaiseksi Golem/Frankenstein -tarinaksi jossa robotti tuhoaa rakentajansa. Siksi hän rakensi robotteja joiden perusteemana oli suojella ihmiskuntaa. Siksi säännöissä kiellettiin Frankensteiniutuminen hyvinkin vahvasti;
1: Robotti ei saa vahingoittaa ihmistä eikä laiminlyönnin johdosta saattaa tätä vahingoittumaan.
2: Robotin on toteltava ihmisen sille antamia määräyksiä paitsi milloin ne ovat ristiriidassa ensimmäisen pääsäännön kanssa.
3: Robotin on varjeltava omaa olemassaoloaan niin kauan kuin tällainen varjeleminen ei ole ristiriidassa ensimmäisen eikä toisen pääsäännön kanssa.
Koska kolme sääntöä "huomattiin vajaiksi" myöhemmin korostettiin nollatta sääntöä joka ohitti kaikki muut. Se oli:
0: Robotin tulee suojella ihmiskuntaa.

Asmovin käskemiä sääntöjä pidetään melko usein jonain joka koskisi oikeaa teknologiaa. Kenties jonain taustavireenä niitä voi kenties pitää. Mutta mitään konkreettista niissä ei oikein ole. Siksi tekoälyjen soveltavaa etiikkaa miettiessä joudutaan oikeasti käytännössä käyttämään jotain muuta kuin noita robotiikan pääsääntöjä. Säännöt onkin tehty tarinankerronnallisiksi voimiksi kaunokirjallisuuteen eikä niitä oikeasti näe tämänlaisessa sovelluskeskustelussa. Itse asiassa sääntöjen ongelmallisuuden pitäisi olla Asimovin kirjoja lukeneille selviä. Hän itse käytti kirjoissaan paljon tilaa siihen miten nämä säännöt johtavat omituisiin tilanteisiin ja ongelmiin. Edes hän ei pitänyt niitä toimivina ja virheettöminä. Ei edes kirjallisuuden maailmassa.

Tosielämässä asiaa vaikeuttaa se, että jos annetaan vaikka ensimmäinen käsky, täytyy siihen määritellä mitä "ihminen" tarkoittaa. Ihmisillä on usein jonkinlainen käsitys siitä mikä ihminen on. Mutta tämä ei tarkoita että meillä olisi siihen mitään aivan selvää määritelmää. Monissa tapauksissa törmätään vaikeuksiin. Jo aivan meidän ei-robotti-ihmistenkin kohdalla tälläinen asia liittyy aborttiin. Lasketaanko sikiö ihmiseksi. Toisaalta voidaan kysyä lasketaanko potentiaalisesti syntyvät ihmisiksi. Tai kuolleet. Ja jos otetaan käyttöön teoreettinen teknologia, voidaan kysyä että jos on aivosimulaatio joka on täydellinen kopio jonkun ihmisen mielestä niin onko tämä ihminen vai ei.

Näillä kaikilla on väliä siinä mielessä että voi tapahtua hyvin omituisia asioita jos joku esimerkiksi on kliinisesti kuollut mutta elvytettävissä. Jotta robotti osaa toimia oikein tilanteessa pitää tilanne ohjelmoida siihen. Jos robotti ei pidä kuolleita ihmisinä, tämä voi jättää elvyttämättä rikkomatta mitään sääntöä. Jos se taas pitää kaikkia kuolleita ihmisinä, niin hautausmaat voivat hyvin pian näyttää omituisilta mekanosta-suuhun tekohengityksen antopaikoilta.

Ja tässä yhteydessä on päätettävä että mikä on se oikea ratkaisu. Jos asioita ei mieti kunnolla, saattaa käydä niin että robotti pakottaa ihmiset ajamaan itsensä simulaatioksi liharuumiin sijasta sillä liharuumis on heikko mutta teknologiset aivot eivät kuole vanhuuteen. Joka voi olla hyvin ei-toivottua.

Sama pitää tietenkin tehdä "vahingoittamisen" kohdalla. Tekojen odotettavat ja odottamattomat seuraukset pitäisi ohjelmoida niin että ne eivät ole käteviä eivätkä suinkaan mitenkään yksiselitteisesti tiettyjä edes tarkasti tehtyinä. Ja itse asiassa kun kaikki säännöt ja niiden sanat tällä tasolla ohjelmoi robottiin, on tullut tehneeksi melkoisen kattavan etiikan teorian. Ja kun tekee tämänlaisen, joku toinen pitää sitä taatusti epäetiikkana. Pitäisikö siis tuottaa monenlaisia robotteja eri etiikoilla?

Ja tosiasiassa nämä ovat vasta konseptuaalisia asioita. Lisäksi on huomattava että robotti joutuu havainnoimaan ympäristöä aivan kuten ihminenkin. Ja ihmisetkin voivat tietää (omasta mielestään) mikä ihminen on ja ei ole. Ja voi (omasta mielestään) tietää oikean kohtelun. Mutta jos pensas heilahtaa, voi olla vaikeaa tietää onko pensaan takana ihminen vai jotain jota pitäisi kohdella jotenkin tietyllä tavalla. Sama koskee robottia. Se joutuu tulkitsemaan puutteellisesta informaatiosta nopeasti ja riskejä ottaen sen, onko jokin tulkittavissa siihen vaivalla ja tuskanhiellä koodattuun ihmisen tarkasti tiedettyyn määritelmään vai ei.

Autokysymys onkin tämän jälkeen hieman eriliainen:

Mielestäni on oleellista että auto perusasioina väistelee asioita. Ei ole väliä onko se väistettävä asia ihminen vai betoniporsas. On myös hyvä että lähtökohtana ei ole sitä että autoon vain koodataan ehdoton ja joustamaton "älä tapa" -dogma. Sillä mitäpä auto joka ei suostu tappamaan ketään ihmistä missään muussa oloissa kuin ihmiskunnan tuhon edessä tekisi jos sen sensorit saavat uutta informaatiota jonka mukaan kaikissa vaihtoehdoissa tulee kuolemaan joku ihminen? Kaatuisi? Vaatisi uudelleenkäynnistymistä?

1 kommentti:

Tom Kärnä kirjoitti...

Kysymykseen keinoälyn ohjaamasta autosta voisin sanoa, että keinoälyn tulisi onnettomuustilanteessa, jossa muita ihmisiä mukana, arpoa oikea toimintatapa ja sitten toimia sen mukaan.