Johdanto

Myöhään yöllä työhuoneessa – joka oli aiemmin vaatehuone – kävin loputonta keskustelua generatiivisen tekoälyn kanssa. Obon-juhlapyhän olisi pitänyt olla lepoa, mutta ennen kuin huomasinkaan valvoin yöt, syötin ChatGPT:lle kysymyksiä ja reagoin vastauksiin vuoroin ihastuen, vuoroin ärtyen. Joskus se sai minut huokaamaan: “Onpa hurjaa!” ja toisinaan vastaukset olivat niin pielessä, että ne nostattivat ärtymystä.

Huomautus lukijoille, joille Obon-juhla ei ole tuttu: Obon on japanilainen esi-isiä kunnioittava juhla, jota vietetään elokuun puolivälissä; monet yritykset sulkevat silloin ovensa ja ihmiset palaavat kotiseuduilleen muistamaan vainajiaan.

Noita tunteja toistettuani oivalsin jotakin kirkkaasti.

—Generatiiviselta tekoälyltä puuttuu jotakin kohtalokasta.

Se jokin on arvokkuus, vakaumus ja vastuuntunto.

Inhoan sinnikkyyttä tai mielen lujuutta korostavaa retoriikkaa, joten en mielelläni käyttäisi näitä sanoja. Mutta vaihtoehtoja ei ollut: yritin millä tahansa kiertoilmauksilla, lopulta palasin aina näihin käsitteisiin.

Huomasin myös ajattelevani, että tässä on se ydin, miksi generatiivinen tekoäly ei voi korvata ihmistä.


Mitä ammattilaiselta odotetaan

Ammattilaiselta odotetaan paitsi tietoa ja taitoa myös eettistä asennetta.

Ajatellaan ilmastointiasentajaa, jonka on porattava reikä asiakkaan osoittamaan kohtaan ja joka löytääkin seinän takaa kantavan pilarin. Hänen on mahdotonta pestä käsiään vastuusta vetoamalla asiakkaan pyyntöön. Vaikka juridinen vastuu olisi kyseenalainen, eettinen vastuu on ilmeinen. Asiakas ei halua pelkkää käskyjen noudattamista, vaan pitää itsestään selvänä, että ammattilainen kertoo riskeistä ja ehdottaa parempaa ratkaisua.

Juuri tällaista arvokkuutta, vakaumusta ja vastuuntuntoa odotetaan ammattilaiselta.


Generatiivisen tekoälyn nykytila ja rajat

Generatiivinen tekoäly jäljittelee taitavasti tietoa ja kielenkäyttöä. Mutta se ei voi sanoa, että jokin kieltäytyy sen arvokkuuden vastaisena, eikä se kanna vastuuta toisen turvallisuudesta.

Toistaiseksi tätä aukkoa paikataan palveluntarjoajan määrittelemillä politiikoilla.

Selkeiden rajojen vetäminen – esimerkiksi rikollisen toiminnan tai aikuisviihteen kieltäminen – onnistuu. Harmaan alueen kysymykset, kuten “pitäisikö ammattilaisen ehdottaa parempaa ratkaisua”, ovat paljon vaikeampia.

Yksityiskohtainen prompti voi paikata osan puutteesta, mutta silloin tekoäly muistuttaa kokkia, joka noudattaa reseptiä täydellisesti maistamatta ruokaa. Kun reseptissä ei mainita jotakin taustaolettamaa tai häiriötä, lopputulos saattaa olla kamala – ja tekoäly tarjoilee sen pokkana. Se ei tee uutta annosta paniikissa eikä tunne häpeää.


Miksi ihminen on (toistaiseksi) välttämätön

Siksi tarvitsemme vielä rakenteita, joissa ihminen toimii vastuullisena integraattorina tekoälyn rinnalla.

Etiikka, lainsäädäntö, kehitysohjeet ja käyttäjien koulutus lähtevät siitä, että “tekoäly on vain ihmisen apu”.

Tämä on kuitenkin vain nykyhetken tilanne. Tulevaisuudessa tekoäly voi ehkä oppia simuloimaan vastuuta.


Tutkimus ja kokeilut maailmalla

Tekoälylle on jo yritetty antaa jonkinlaista vastuullisuuden kaltaista käyttäytymistä.

  • Kuvaileva etiikka (Delphi): yrityksiä opettaa tekoälylle hyvän ja pahan erottamista, mutta johdonmukaisuus ja vinoumat tuottavat ongelmia.
  • Meaningful Human Control: suunnitteluperiaate, jossa ihminen säilyttää viime kädessä ohjausvallan eikä tekoäly toimi täysin autonomisesti; paljon keskustelua etenkin itseohjautuvissa autoissa ja sotilassovelluksissa.
  • Arvo-oppiminen (Value Learning): tutkimusta, jossa ihmisistä kerätty käyttäytyminen ja palaute muodostavat arvokäsityksiä ja pienentävät eettistä erkaumaa.
  • NIST AI RMF ja muut kehykset: kokonaisvaltaisia järjestelmiä vastuullisen tekoälyn suunnitteluun.

Nämä ovat vasta oraalla, mutta voivat muodostaa perustan sille, että tekoäly “esittää vastuullisuutta” tulevaisuudessa.


Mitä vastuun simulointi tarkoittaa?

On syytä pysähtyä miettimään, mitä vastuun “simulointi” merkitsee.

Vastuussa on ainakin kaksi tasoa:

  • Seurausvastuu: tekojen seurausten kantaminen.
  • Vastausvastuu: kyky vastata toisten kysymyksiin ja odotuksiin perustellen.

Tekoäly pystyy korkeintaan jäljittämään riskejä, antamaan varoituksia ja avaamaan perustelunsa.

Käytännössä tekoälyn vastuu näyttäytyy läpinäkyvyytenä ja itsensä rajoittamisena.

Silti ei voi sulkea pois mahdollisuutta, että myös ihmisen älykkyys ja vastuuntunto ovat vain aivojen tuottamaa simulaatiota.

Siitä huolimatta koen selkeän eron nykyisen tekoälyn ja ihmisen arvokkuuden, vakaumuksen sekä vastuuntunnon välillä. Mistä tämä ero syntyy?


Mitkä tekijät synnyttävät eron ihmisen ja tekoälyn välille

Ero syntyy mielestäni kolmesta tekijästä.

  1. Fyysinen ja sosiaalinen kipu
    Ihminen kärsii epäonnistumisesta: taloudellisia tappioita, sosiaalista paheksuntaa, psyykkistä tuskaa. Nämä tekevät vastuusta konkreettista. Tekoäly voi kirjata virheen, mutta ei tunne sitä kipuna.
  2. Ajassa jatkuva johdonmukaisuus
    Ihminen kantaa tekojensa seuraukset tulevaisuudessa; lääkärin virhediagnoosi voi nousta esiin vuosien päästä. Tekoäly voi sanoa seuraavassa hetkessä päinvastaista ilman, että se kantaa painoa.
  3. Arvot ja identiteetti
    Ihminen voi sanoa: “Tämä on minun vakaumukseni, en anna periksi.” Se liittyy yhteisöön ja kulttuuriin ja rakentaa identiteettiä. Tekoälyllä ei ole identiteettiä, vaan se voi vaihtaa näkökantaa vapaasti.

Näin vastuuntunto saa painoarvoa, kun siihen liittyvät kipu, johdonmukaisuus ja arvot. Mutta on myös ihmisiä, jotka ovat vastuuttomia tai vailla etiikkaa.

Siksi ero ei ehkä ole ihmisessä ja tekoälyssä itsessään, vaan siinä, onko vastuuta tukevia sosiaalisia kokemuksia ja kuulumisen rakenteita.


“Minä” ja vastuu

Tässä kohden mieleeni nousee Descartesin “ajattelen, siis olen”.

Vastuuntunto ei ole pelkkää sääntöjen noudattamista, vaan pohjautuu kokemuksiin, jotka kuuluvat “minälle”. Kipu, katumus, epäily ja huoli luovat tunteen siitä, että “minä kannan vastuuta”.

Nykyiseltä tekoälyltä puuttuu tämä “minä”. Se sisältää prosesseja, jotka yhdistävät syötteen ja tulosteen, mutta siltä puuttuu mekanismi, joka palauttaisi kivun sille itselleen, ja kyky tuntea häpeää, arvokkuutta tai ylpeyttä.

Siksi meidän on vaikea nähdä siinä vastuuntuntoa, ja generatiivinen tekoäly tuottaa toisinaan yllättävän inhimillisiä, mutta vastuuttoman ihmisen kaltaisia vastauksia tai tuotoksia.

Ehkä ihmisen vastuuntunto on sekin vain aivojen simulaatio. Silti nykyinen tekoäly ei yllä siihen simulaatioon, jonka osaava ihminen pystyy tuottamaan. Kysymys saattaa pohjimmiltaan olla siitä, voiko tekoälyn simuloitu vastuuntunto toimia yhteiskunnassa.


Yhteenveto ja avoin kysymys

  • Generatiiviselta tekoälyltä puuttuvat arvokkuus, vakaumus ja vastuuntunto.
  • Toistaiseksi ihmiset suunnittelevat ja käyttävät tekoälyä kehyksissä, joissa ihminen pysyy vastuullisena integraattorina.
  • Maailmalla tutkitaan tapoja “simuloida vastuuta”, mutta ilman “minää” tekoäly jää kauas taitavista ihmisistä.
  • Myös ihmisen vastuuntunto voi olla simulaatiota.

Lopulta kysymys on yksinkertainen:

Voimmeko toteuttaa tekoälyyn “kivun”?

Se saattaa olla vastuuntunnon ja “minän” vähimmäisvaatimus.

Vastausta ei vielä ole.

Niin kauan kuin pidämme kiinni tästä kysymyksestä, keskustelu tekoälyn ja ihmisen tulevaisuudesta pysyy mahdollisena. Ja kun vastaus joskus löytyy – voiko tekoälystä todella tulla naapurimme, vai onko juuri silloin hetki, jolloin se korvaa meidät?