Tekoälyn etiikka – mistä ylipäätään puhutaan?

Wovon man nicht sprechen kann darüber muss man schweigen? Keskustelu tekoälyn todellisista mahdollisuuksista piiloutuu helposti teknologiavetoisen hypetyksen alle. Tekoälystä on rakentumassa Suomen kilpailuvaltti kansainvälisessä kilpailussa. Teknisen kehitystyön lisäksi tekoälyn eettisten kysymysten tarkastelu on meille hyvinvointiyhteiskuntana luontevaa, ja siksi myös siinä keskustelussa pystymme olemaan edelläkävijöiden joukossa. Mutta mistä ja miten silloin puhumme?

Kuumana käyvässä keskustelussa tekoälystä ajaudutaan helposti tilanteeseen, jossa tekoälyä pidetään itseisarvona erilaisten ongelmien ratkaisussa. Tekoälyn lähes kyseenalaistamattomana pidetty oikeutus tuntuu manifestoituvan sellaisissa lausumissa kuin ”tekoäly päihittää ihmisen”, ”tekoäly parantaa hyvinvointia”, ”älykkäämpi yhteiskunta tekoälyn keinoin” tai ”tekoäly mullistaa liikenteen ja edistää kestävää kehitystä ”. Näitä teknologisia ja sosiaalisia globaaleja haasteita sivuavia heittoja viljelevät, paitsi media, myös monet asiantuntijat, jotka täten legitimoivat tietyt teknologiat sosiaalisesti ylivertaisiksi. Siksi jo heitoilla sinänsä voi olla huomattavia yhteiskunnallisia vaikutuksia. Fredrika Lucivero kirjoittaa tästä kirjassaan Ethical assesment of emerging technologies (2016). Luciveron mukaan lennokkaasti heitellyt visiot esimerkiksi tekoälyn madollisuuksista vaikuttavat mm. siihen, miten päättäjät investoivat rahaa teknologiatutkimukseen, mitä fokuksia tutkijat alkavat tämän myötä painottaa kilpaillessaan rahoituksesta, ja mihin yrittäjät haluavat sijoittaa. Ääneen ja riittävällä painoarvolla lausutut väittämät alkavat pikkuhiljaa joko toteuttaa itseään tai johtaa liiallisiin odotuksiin.

Kysymys kenen päälle autonominen auto saa ajaa on absurdi

Tekoäly ja tekoälyn etiikka ovat nyt keskustelun ytimessä. Hyvin harvoin kuitenkin kuulee avattavan tekoälyn etiikan käsitettä syvällisemmin. Mistä puhumme kun puhumme tekoälyn etiikasta? Mitkä ovat tekoälyn etiikkaan liittyvät sisältökysymykset? Useille jo tutuksi tulleiden autonomisten autojen turvallisuusriskejä ja joidenkin työpaikkojen vähenemistä käsittelevien esimerkkien lisäksi (yhtään näitä väheksymättä), todelliset esimerkit tekoälystä arjessamme ovat olleet etiikkakeskustelussa toistaiseksi vähäisiä. Puhua kuitenkin tulisi. Kysymyksiä on esitettävä, vaikka vastauksia ei vielä olisikaan. Wittgensteinin Tractatus logico-philosophicusta myötäillen, puhe on sen puhumisesta, mistä ei voi puhua.

Tällä hetkellä sorrumme helposti etsimään tekoälyn eettisiä ongelmia, vaikka pitäisi kysyä, miten tekoälyä voidaan hyödyntää, jotta sillä edistetään ihmisen hyvää ja parannetaan ihmisten elämänlaatua. Kysymys siitä, kenen päälle autonominen auto saa ajaa on siksi absurdi: Ei tietenkään kenenkään päälle. Käyttötapausten pistemäisen tarkastelun ohella eettistä keskustelua tulisi käydä sekä ihmisen hyvään ja hyvinvoinnin olemukseen liittyvistä tekijöistä että tekoälyn suhteesta yhteiskuntaan ja yhteiskunnan muutokseen.  Tällöin keskeisiä kysymyksiä ovat esimerkiksi kansalaisten turvallisuuden ja yhteiskunnan luottamuksen säilyminen, palvelujen tasa-arvoinen saavutettavuus, kuulluksi tulemisen mahdollisuus sekä ratkaisujen läpinäkyvyys ja oikeutus ihmisarvon, hyvinvoinnin ja kestävän kehityksen näkökulmasta.

Vaikka tekoälyn eettinen keskustelu on vielä alkutekijöissään, on itse tekoälyä koskevassa keskustelussa päästy kuitenkin jo käyttäjälähtöisyyden vaatimuksen äärelle: Puhutaan tekoälyn selitettävyydestä. Tällä tarkoitetaan Euroopan komission käyttöön ottamaa käsitettä ”Explainable AI”. Käsitteen avulla tulisi edistää sitä, miten ihmiset voisivat ymmärtää tekoälyjärjestelmien toimintaa ja toiminnan tuloksena syntyviä ratkaisuja.

Erittäin hyvä ja moniulotteinen asia. Tässä suhteessa Tractatuksen perusanoman alkua voisi taas myötäillä: Minkä ylipäänsä voi sanoa, sen voi sanoa selvästi. On hyvä, että pyritään edistämään kansalaisten näkemystä siitä, miten tekoäly toimii ja mitä sen avulla voidaan saavuttaa. Tekninen ymmärrys tekoälyn periaatteista ei kuitenkaan riitä. Tarvitaan myös vastuullista ymmärrystä: ymmärrystä siitä, miten tekoälyn haltuunotto vaikuttaa toistemme arkeen, toimintaan ja kohteluun. Vasta tämän ymmärryksen kautta päästään todellisen pohdinnan äärelle: Mitkä ovat tekoälyn vaikutukset lyhyellä ja pitkällä aikavälillä yhteisömme, yhteiskunnan ja maailman kehittymiseen, ja miten vaikuttavuutta voitaisiin ohjata positiiviseen suuntaan? Tärkeää ei siis ole ainoastaan se, että edetään nopeasti ja tehokkaasti. On myös tiedettävä, mihin suuntaan tulisi kääntyä ja miten negatiivisia seurauksia voidaan ennakoida.

Mihin ihmiskuvaan ja millaisiin arvoihin selitykset nojaavat

Oleellinen kysymys on myös, kenen käsissä ”selittävyys” on. Kuka selittää ja kenelle? Keiden näkökulmasta teknologian merkityksiin liittyvää selitystä käydään? Mihin ihmiskuvaan ja millaisiin arvoihin selittäjien näkökulmat perustuvat? Riittääkö tässä nopeassa teknistyvässä maailmassamme, jossa jo päiväkotilapset oppivat ohjelmoinnin alkeet, että tekoälyn etiikkaa opetetaan vasta tekniseen ammattiin valmistuville? Pitäisikö etiikan kysymyksiä käsitellä jo ala-asteella? Pitäisikö koululaisten – lähitulevaisuuden tekoälykehittäjien – suorittaa etiikan ajokortti?

Wittgenstein totesi, että etiikasta ei voi puhua sekaannuksista vapaalla kielellä. Kieli on mielenkiintoinen työkalu sikäli, että puhujat saattavat puhua samoin sanoin, mutta olla silti kaukana toistensa ymmärtämisessä. Esimerkiksi autonomiasta puhuttaessa humanistit ja filosofit tarkoittavat moraalista vastuuta.  Samaa autonomia -sanaa käyttävät insinööri- ja tietojenkäsittelytieteilijät puhuessaan esimerkiksi autoista ja laivoista. Heille autonomia on oppimisen seurauksena tapahtuvaa toimintaa, joka määräytyy ulkopuolelta tulevan syötteen mukaan, ja johon ei varsinaisesti sisälly vastuullisuutta filosofisessa mielessä. Humanistille taas autonomia on sitä, että (ihmisen) oma toiminta on vastuullista, omista arvoista ja tavoitteista käsin toteutettua toimintaa tai toimijuutta. Kun esimerkiksi ikäteknologiassa halutaan lähtökohtaisesti korostaa ikäihmisen autonomiaa, vaatimuksena on varmistaa ihmisen itsemääräämisoikeus ja tietoinen suostumus päätettäessä teknologian hankinnasta ja käytöstä.

Timo Honkela valottaa Rauhankoneessaan (2017) tätä käsitteiden ymmärtämisen problematiikkaa ja toteaa, että koska ihminen ei koskaan pysty todella ymmärtämään, mistä vastapuoli puhuu, käyttäkäämme merkitysneuvottelujen apuna teknologiaa: Tekoäly voi tietoja yhdistelemällä tulkita meille kanssakeskustelijamme sanomaa paremmin kuin mihin oma ymmärryksemme riittää. Se voi tulkita, mitä esimerkiksi käsitteet terveys tai tasa-arvo vastapuolen puhujalle oikeasti merkitsevät.

Tarinoiden kautta luodaan yhteistä ymmärrystä

On tärkeää puhua jaetuista kokemuksista ja merkityksistä, ja yrittää selittää sitä mitä voidaan selittää. Tarinat ovat tärkeitä käsitteiden ja merkitysten avaamisessa ja ymmärtämisessä. Mielemme, kognitio, on merkityksiä muodostavaa toimintaa, joka perustuu informaation prosessoinnille ja ajattelulle (insinööreille voisi sanoa, että mieli on tietokoneohjelma, jonka laskennallisia prosesseja ”rauta” nimeltä aivot toteuttaa). Mieli vaatii rinnalleen tietoisuutta eli kokemusta ympäröivästä maailmasta, jota jaamme toisten kanssa. Kokemusten jakaminen toiselle on vaikeaa ylipäätään, mutta se on mahdotonta, jos yhdessä käytettyjen käsitteiden sisältö on erilainen eri keskustelijoille. Jakaminen edellyttää ”oikeita” sanoja ja esimerkkejä oikeasta, eletystä ja koetusta elämästä. Sanojen, käsitteiden ja kokonaisten tarinoiden avulla avaamme kokemuksiamme ja arvomaailmaamme muille ja luomme yhteistä narratiivista ymmärrystä ja reflektiivistä käsitystä yhteisöstämme ja maailmasta.

Ei siis ole samantekevää, millaisilla sanoilla teknologian tuottamasta lisävaikutuksesta, tai ”lisäarvosta” puhutaan. Keskittykäämme puhumaan tekoälyn etiikasta oikeilla sanoilla, ymmärrettävästi ja selkeästi, kuulijan kokemusmaailma huomioiden. Silloin tärkeinä pitämämme asiat ja niiden takana olevat arvot välittyvät eteenpäin. Silloin kun kielenä ei ole oma äidinkielemme, tähän tulisi kiinnittää erityisen tarkkaa huomiota, jotta sanomamme arvoperusta ei kuulijan korvassa muutu joksikin toiseksi.

On ihan pakko kertoa tässä lopuksi tositarina sanojen merkityksestä: VTT:llä kirjoitimme aikoinaan kuvausta erään teknologian käyttäjäkokeilujen järjestämisestä. Näiden pilottien toteutusta kuvasimme lyhyesti kertomalla missä ja milloin pilotit toteutettiin, tyyliin ”Pilots were executed…”. Brittikollegamme kysyi huvittuneena tekstiä luettuaan: ”Todella hei, kuinka monta lentäjää teloitettiin?”

 

37385243861_0131986617_zJaana Leikas
Principal Scientist
jaana.leikas@vtt.fi

Leave a Reply

This site uses Akismet to reduce spam. Learn how your comment data is processed.

%d bloggers like this: