Siirry suoraan sisältöön
Etusivu > Ajatuksia tekoälystä ja lääkärin etiikasta  
Etusivu > Ajatuksia tekoälystä ja lääkärin etiikasta  

Ajatuksia tekoälystä ja lääkärin etiikasta  

Tekoälyn hyödyntämistä terveydenhuollossa tutkitaan ja kehitetään kiivaasti. Esimerkiksi Apotti pyrkii enenevissä määrin integroimaan tekoälyä hyödyntäviä sovelluksia järjestelmäänsä. Minkälaisia eettisiä kysymyksiä tekoälyn hyödyntäminen asettaa lääkärille?  

Tekoäly voidaan määritellä tietojenkäsittelytieteen osa-alueeksi, jonka tavoitteena on tuottaa järjestelmiä, jotka kykenevät älykkäinä pidettyihin toimintoihin kuten aineiston analysointiin, ongelmanratkaisuun sekä oppimiseen. Määrittelyn ongelmana kuitenkin on, ettei tekoälylle ole olemassa yksiselitteistä ja yhteisesti hyväksyttyä määritelmää – kuten ei älykkyydellekään. 

Tekoälylle ole olemassa yksiselitteistä ja yhteisesti hyväksyttyä määritelmää 

Tällä hetkellä sovellukset hyödyntävät niin kutsuttua kapeaa tekoälyä, joka kykenee suorittamaan tiettyä ennalta määrättyä tehtävää useimmiten koneoppimiseen perustuen. Koneoppiminen voidaan karkeasti määritellä tekoälyn osa-alueeksi, jossa ohjelma oppii esimerkkien perusteella. Koneoppiminen voidaan vielä jakaa kolmeen luokkaan eli ohjattuun, ohjaamattomaan ja vahvistusoppimiseen. Ohjattu koneoppiminen on usein käytännössä luokittelua ja luokittelun taustalla on ohjelmalle syötetty esimerkkiaineisto. Ohjaamattomassa koneoppimisessa ohjelmalla ei ole annettu valmiita luokkia, vaan tavoitteena on löytää aineistoa selittäviä säännönmukaisuuksia. Huomioitavaa kuitenkin on, ettei säännönmukaisuuksien löytäminen tarkoita syy-yhteyksien löytämistä. Vahvistusoppimisessa ohjelma muovautuu ympäristön sekä tehtyjen päätösten perusteella. Kiitos vahvistusoppimisen, Google DeepMindin kehittämä AlphaGo onnistui murskaamaan go-pelin 18-kertaisen maailmanmestarin – harjoiteltuaan ensin miljoonilla itseään vastaan pelaamillaan otteluilla. 

Yleinen tekoäly puolestaan kykenisi ihmismielen tavoin ratkaisemaan laaja-alaisesti erilaisia ongelmia, oppimaan uutta sekä soveltamaan aikaisemmin oppimaansa. Vastaus kysymykseen, onko yleisen tekoälyn luominen mahdollista, on kiistanalainen. Pyrkimykset tämän saavuttamiseksi etenevät joka tapauksessa, tästä edelleen esimerkkinä Google DeepMind.  

Kuten jokainen Oppenheimer – elokuvan nähnyt voi todeta, väline ei ole neutraali. Jo pelkästään välineen tarjolla oleminen altistaa toimimaan tietyllä tavalla. Jos olisit tyhjässä huoneessa jalkapallon kanssa, voisitko kuvitella, että et potkaisisi sitä? Vaikka kyse ei ole joukkotuhoaseesta, jalkapallosta tai tuskin edes lääkärin ammattia vielä lähivuosina syrjäyttävästä teknologiasta, jo tekoälyn olemassaolo antaa aiheen eettisten kysymysten pohdinnalle.  

Onko oikein vai väärin ottaa mahdollinen teknologia käyttöön? Seurauseettisen näkökulman perusteella vastaus kysymykseen on yksinkertainen. Käyttö on oikein, mikäli seurauksena on hyödyn eli tässä tapauksessa terveyden lisääntyminen mahdollisimman vähillä haitoilla sekä ideaalitilanteessa mahdollisimman tasa-arvoisesti. Tekoälyn hyödyntämistä perustellaan usein tehokkuuden, tarkkuuden, turvallisuuden ja tasa-arvoisuuden lisääntymisellä. Tekoäly mahdollistaa entistä suurempien tietomäärien käsittelyn eikä sitä vaivaa väsymys, ärtymys, nälkä tai kofeiinipitoisen nesteytyksen vauhdittama diureesi. Näin ollen voidaan mahdollisesti vähentää inhimillisistä syistä aiheutuneita virheitä.  

Missä määrin on tavoittelemisen arvoista ulkoistaa syvällistä ajattelua ja kognitiivista ponnistelua vaativaa toimintaa koneelle? 

Vaikkei tarkoituksena olisikaan ryhtyä luddiitiksi, on aiheellista pohtia minkälaiselle ajattelulle ja päätöksenteolle tekoälyn käyttö altistaa. Ei yksin tekoäly vaan teknologian käyttö ylipäänsä muovaa ajattelua. Liiallisen älylaitteiden käytön tiedetään altistavan keskittymiskyvyn heikkenemiselle, mutta strategiapelit saattavat kehittää ongelmanratkaisutaitoja. Teknologian ja tekoälyn avulla on epäilemättä mahdollista hakea tietoa, tuottaa tekstiä sekä tehdä laskutoimituksia huomattavasti ihmistä tehokkaammin, mutta missä määrin on tavoittelemisen arvoista ulkoistaa syvällistä ajattelua ja kognitiivista ponnistelua vaativaa toimintaa koneelle? Aivot toimivat use it or lose it -periaatteella. Ohjaako tämän tyyppinen kehityskulku ajattelua pinnallisempaan suuntaan? Mikä jää ihmisen rooliksi? 

Esimerkkiaineistoon perustuva koneoppimistyökalu on ainoastaan yhtä hyvä kuin esimerkkiaineisto itse 

On huomion arvoista tiedostaa, että ihmisen määrittämään esimerkkiaineistoon perustuva koneoppimistyökalu on ainoastaan yhtä hyvä kuin esimerkkiaineisto itse. Tämän vuoksi on tunnistettava aineiston luonne, puutteet ja vinoumat. Tunnettu esimerkki vinoutuneesta algoritmista on rikoksen uusimisen todennäköisyyttä ennustava COMPAS-järjestelmä, jonka väärien positiivisten ennusteiden on todettu suhteettoman usein kohdistuvan tummaihoisiin. Toisaalta yksinkertaistaen myös ihmisen päätöksentekoprosessi perustuu esimerkkiaineistoon, mutta kuinka usein pysähdymme pohtimaan oman aineistomme tai ylipäänsä päätöksentekoprosessimme puutteita tai vinoumia? Esimerkiksi Suomessa ihotautien kurssilla ei tarjota juurikaan esimerkkejä ihotautien ilmenemisestä tummaihoisilla.  

Koneoppimisen avulla on mahdollista perustaa ratkaisu niin monimutkaiseen malliin, ettei ole mahdollista täysin ymmärtää, kuinka ratkaisuun on päädytty 

Myös niin kutsuttu mustan laatikon ongelma on keskeinen haaste, kun päätöksenteossa hyödynnetään tekoälyä. Koneoppimisen avulla on mahdollista perustaa ratkaisu niin monimutkaiseen malliin ja niin suureen määrään tietoa, ettei käytännössä kenenkään ole mahdollista täysin ymmärtää, kuinka ratkaisuun on päädytty. Kuinka tulisi toimia tilanteessa, jossa koneoppimistyökalu esimerkiksi suoriutuu diagnostisesta tehtävästä paremmin kuin keskimääräinen lääkäri, mutta ratkaisun tuottava prosessi ei ole täysin läpinäkyvä? Ongelmasta seuraa kysymys luottamuksesta: kehen tai mihin päätämme luottaa, jos luotamme tekoälyn tuottamaan ratkaisuun? On kuitenkin huomion arvoista tiedostaa, etteivät myöskään kaikki nykyisin käytetyt hoitomenetelmät ole täysin läpinäkyviä: käytämme esimerkiksi lääkkeitä, joiden vaikutusmekanismi ei ole täysin tunnettu.  

Kirjoitettaessa tekoälystä, ei voida ohittaa kysymystä vastuusta. Kuka on vastuussa, kun tapahtuu virhe, jossa tekoälytyökalu on ollut myötävaikuttavassa roolissa? Tällä hetkellä vastuun ongelmaa helpottaa se, ettei käytössä oleville tekoälysovelluksille voida antaa moraalisen toimijan roolia, sillä se edellyttäisi kykyä vaihtoehtojen sekä valintojen seurausten pohtimiseen. Loppujen lopuksi ihminen tekee päätöksen teknologian hyödyntämisestä tai hyödyntämättä jättämisestä ja niin ikään tekoälyä hyödyntävän sovelluksen kehittäjä on osaltaan vastuussa tuotteensa toimivuudesta. Kun moraalisen toimijan rooli säilyy ihmisellä, vähenee toivon mukaan myös kiusaus hyödyntää teknologiaa rikollisen toiminnan välineenä.  

Tällä hetkellä tekoälyn hyödyntäminen terveydenhuollossa on vielä maltillista, mutta kehityksen edetessä kiivaasti, on äärimmäisen mielenkiintoista seurata, toteutuvatko ennusteet lääkärin työn murroksesta. Lääkärin työ sisältää paljon tylsiä ja rutiininomaisia tehtäviä, tutkimustulosten tarkastamista ja standardihoitojen toteuttamista, joihin liittyy vähemmässä määrin eettisiä kysymyksiä. Diagnostiikan apuvälineiden ohella juuri näiden tehtävien suorittamisen siirtäisi mieluusti ainakin osittain tekoälyn harteille.  

Teksti: Laura Tuunanen 

Kuva: Jutun kuvitus on luotu käyttäen StableDiffusion-tekoälyohjelmistoa, jolle käsien lisäksi myös stetoskoopit ovat haasteellisia.  

Luku- ja kuuntelusuosituksia kiinnostuneille: 

Tekoälyn etiikkaa, Maija-Riitta Ollila 

Robotin hoiviin? – Yhteiskuntatieteen ja filosofian näkökulmia palvelurobotiikkaan, Särkikoski, Tuomo; Turja, Tuuli; Parviainen  

Aum Golly, Jukka Aalho & GPT-3 

Tuomas Peltomäki podcast: kolmiosainen tekoälyä käsittelevä sarja  

Let’s Talk Podcast: Tekoäly, luovuus ja työn tulevaisuus