Muuttuva toimintaympäristö haastaa kehittymään
Tekoäly on yleiskäyttöinen teknologia, joka tunkeutuu kaikkialle (Raskulla, 2019, s. 247). Tämä muuttaa, ja on osin jo muuttanut, niin työtä kuin yhteiskuntaa, merkittävästi. Tekoäly on kiistatta hyödyllinen, sillä sen avulla voidaan tehdä elämää helpottavia ja mukavuutta lisääviä asioita. Kuten Koponen (2019, s., 26–27) huomauttaa, olisi moni asia vaivalloista ilman keinoälyä ja pitkälle kehittyneitä tietokoneohjelmistoja. Käytännössä tekoälyä hyödynnetään, esimerkiksi kun haemme tietoa verkosta tai kun otamme kuvia älypuhelimella. Tekoälyn avulla voidaan parantaa niin tuottavuutta yhteiskunnan eri sektoreilla kuin kehittää uusia prosesseja, toimintatapoja ja liiketoimintamalleja.
Toki kolikolla on aina kääntöpuolensa. Nyt keskustellaan esimerkiksi siitä, kuinka paljon ja kuinka nopeasti tekoäly tuhoaa nykyisiä työpaikkoja. Muutosvauhti voi olla haastavan nopea. Esimerkiksi Suomea koskevan, McKinseyn laatiman raportin mukaan, tekoäly tuhoaa noin 15 % työpaikoista vuoteen 2030 mennessä ja muuttaa valtaosassa, jäljelle jäävissä tehtävissä, työn luonnetta. Digitalisaatio ja tekoäly saavat aikaan teknologisen kehityksen murroksen. Ihmisen ja koneen suhde tuotantotoiminnassa muuttuu todennäköisesti tavalla, jota ei ole ihmiskunnan historiassa aiemmin nähty. (Koski & Husso, 2018, s. 10–13.) Euroopan komissio perusti vuonna 2018 riippumattoman, tekoälyä koskevan, asiantuntijaryhmän. Luotettavan tekoälyn kolme edellytystä, joiden tulisi täyttyä sen kaikissa elinkaaren vaiheessa ovat lainmukaisuus, eettisyys ja tekninen ja sosiaalinen luotettavuus. Tekoälyjärjestelmien tulee olla ihmiskeskeisiä ja niiden on perustuttava sitoumukseen, että niitä käytetään ihmiskunnan ja yhteisen hyvän hyväksi. Erikseen mainitaan ihmisten hyvinvoinnin ja vapauden lisääminen. (Luotettavaa tekoälyä koskevat eettiset ohjeet, 2018, s. 2, 5; Koponen, 2019, s. 27.)
Tekoälyn nopea kehityskaari
Kehityskaari on ollut nopea. Kun 1980-luvulla elettiin manuaalista tietojen käsittelyn aikaa, oli 1990-luvulle tultaessa tilanne jo aivan toisenlainen. Tietojenkäsittely hiipi arkeen vähän huomaamatta. (Rousku, 2019, s. 14–16). Emme todennäköisesti osaa kuvitella maailmaa enää ilman älypuhelimia tai tietotekniikkaa.
Kuvio 1. Automaatio ja itsepalvelu lisääntyvät teknologian kehittymisen myötä (Rousku 2019, s. 15).
Teknologia kehittyy todennäköisesti vauhdilla seuraavien kymmenen vuoden aikana. Esimerkkinä Rousku (2019, s. 15) mainitsee tallennusmediat, jotka ovat kehittyneet reilun 30 vuoden aikana huikeasti. Vanhempi sukupolvi muistaa todennäköisesti lerpun ja korpun. Sen jälkeen tulivat kiintolevyt ja pilvi. Kehitys on tosiaan ollut huimaa. Etenkin kun on saanut elää mukana tämän kehityskaaren aikana.
Laskentateholtaan kotona olevat nykypäivän älylaitteet peittoavat 1990-luvun merkittävän kokoisen tietokonekeskuksen laskentakapasiteetin. Laskentatehoa tarvitaan suurteholaskentaan, tekoälyjärjestelmiin, virtuaalitodellisuuden kehittämiseen eri käyttötarkoituksiin, robottiautoon (itseohjautuva auto) ja itseoppiva teknologia. Tarvitaan triljoonia laskentaoperaatioita sekunnissa. Jotta uusia laitteita ja palveluja voidaan kehittää, teknologian suorituskyvyn tulee kehittyä. Tätä kehitystä hidastaa ja vaikeuttaa osaajapula. Ihmisiä tarvitaan valvomaan, korjaamaan ja kehittämään tätä kokonaisuutta. (Rousku, 2019, s. 16).
Kompleksinen toimintaympäristö haastaa päätöksenteon
Toimintaympäristö on muutoksessa ja niitä voidaan tunnistaa erilaisia. Tätä on kuvattu niin sanotussa Cynferin -mallissa, joka on esitetty kuviossa 2 (Kuvio 2.). Mallissa esitetyssä kompleksissa toimintaympäristössä asioiden syy-seuraussuhteet eivät ole tiedossa, vaan käytännössä seuraukset voidaan havaita vasta sitten kun asiat on tehty. Asioiden kokeilulle tulisi olla turvallinen epäonnistumisen ympäristö. (Takala, 2018, s. 8–9.)
Kuvio 2 Cyfnerin-malli, kuinka eri toimintaympäristöissä on suositeltavaa toimia (Takala, 2018, s. 8).
Käytännössä kompleksisessa toimintaympäristössä tilannekuvaa hallitaan jatkuvana prosessina päätöksentekoprosessin rinnalla. Päätöksentekijöiden on hyvä tunnistaa ajattelumallejaan ja päätöksenteon mekanismejaan. (Takala, 2018, s. 15–16.) Kun päätöksenteossa on mahdollista yhdistää erilaisia tietoja nopeasti toisiinsa, miten se vaikuttaa tiedon luotettavuuteen ja toisaalta millaisia eettisiä kysymyksiä tulee ratkaista ennen laaja-alaisten tietojen käyttöä. Pitäisikö yksilöllä olla mahdollisuus kieltää tällaisten tietojen käyttö vai pitäisikö olla yhteiset periaatteet ja lähtökohdat, josta käsin tätä kokonaisuutta tulisi tarkastella. (Takala, 2018, s. 19.)
Tekoälyn raaka-aine on data. Järjestelmät hyödyntävät sitä ja sen avulla ne oppivat toimimaan itsenäisesti eri tilanteissa. (Koponen, 2019, s. 27.) Tekoälyllä voidaan viitata joustavaan ja tarkoituksenmukaiseen toimintaan monimutkaisessa, muuttuvassa ja joiltain osin ennustamattomassa ympäristössä. Keskeisiä tekoälyn ominaisuuksia, joita tekoälyllä on, ovat autonomisuus (kyky suorittaa tehtäviä monimutkaisessa ympäristössä ilman jatkuvaa ohjausta) ja adaptiivisuus (suorituskyvyn parantaminen kokemuksista oppimalla). (Raskulla, 2019, s. 248.)
Tekoälyyn liittyviä riskejä on tiedostettu
Tekoälyjärjestelmien hyödyt pyritään maksimoimaan ja samalla ehkäisemään ja minimoimana niiden riskit. On haastavaa, paljonko tiedämme niistä tahoista, jotka ovat tekoälyn taustalla ja kuinka he paljastavat tausta-ajatuksensa. Voidaan (Luotettavaa tekoälyä koskevat eettiset ohjeet, 2018, s. 5–6.) Tekoälyyn liittyviä riskejä on tiedostettu. Hyvä niin. Lienee kuitenkin perusteltua kysyä, suhtaudutaanko niihin hieman liian kepeästi? Historia on käytännössä useamman kerran opettanut, että sinänsä hyvät ja tavoiteltavat asiat muuttuvat hetkessä haasteiksi, kun ne joutuvat vääriin käsiin tai kun asioita ryhdytään käyttämään suunnitelmallisesti väärin. Ei ole siis yhdentekevää, millaisissa käsissä tekoäly on.
Yhtenä esitettynä käsityksenä on amerikkalaisen futuristin Kurzweilin ajatus teknologisesta singulariteetista. Sillä tarkoitetaan tilannetta, jossa supertekoäly (Artificial Super Intelligence, ASI) ohittaa ihmisen älykkyyden (koneoppimisen ja verkottumisen myötä) sellaisella vauhdilla, että ihmiset eivät enää pysty mielekkäästi käsittelemään sitä maailmaa, jota tekoäly hallitsee. Ennusten mukaan vuoteen 2045 mennessä tapahtuu singulaarisuuden räjähdys, kun keinotekoiset älykkyydet ylittävät ihmisen kyvykkyyden kaikilla osa-alueilla. Tuolloin käy niin, että teknologinen kehitys siirtyy koneiden ohjaamaksi. Tekoälyn kehitys johtaa itsensä parantamisen karkaamisreaktioon, termi englanniksi on runaway reaction. Karkaamisrektio tarkoittaa sitä, että jokainen uusi tekoälysukupolvi kehittyy nopeammin kuin edellinen. (Parviainen, 2019, s. 37.) Voinee tietenkin kysyä, että miksi koneelle pitäisi lähtökohtaisesti antaa sellaista valtaa?
Kuten Rissanen (2019, s., 23) huomauttaa, että päätöksiä tulee tehdä, vaikka emme juuri nyt tarkalleen tiedä, minne maailma on menossa. Huonoin vaihtoehto on jäädä odottamaan, mitä tapahtuu, sillä silloin ei ole enää olemassa vaihtoehtoja, vaan on mentävä sinne suuntaan, minne muut ovat aiemmin menneet. Samoilla linjoilla on Lagus (2018, s., 51). Hän huomauttaa, että tunteet osana ihmisen kokonaiskognitioita kertovat niistä asioista, joihin meidän tulisi kiinnittää huomiota, sillä niiden huomiotta jättäminen aiheuttaa rähähdyksiä ja silloin muutos ei enää olekaan rakentava.
Tieto on muutoksen mahdollistaja. Hyvälaatuisen rakenteellisen tiedon arvo nousee. Edessä on uusi vallankumous, jonka voimasta meillä ei ole vielä käsitystä. (Rissanen, 2019, s., 21, 23.) Siihen on hyvä tarttua nyt ja ohjata sitä rakentavaan suuntaan. Tekoälyn käyttö yhteistyössä ihmisten kanssa ja ihmisten tukena tunnetaan nimellä tukiäly (augmented intelligence). Kun ihmisosaamisen ja tekoälyn mahdollisuuksia hyödynnetään viisaalla tavalla, mahdollistuvat uudet tavat tarttua ajankohtaisiin teemoihin. (Lagus, 2018, s. 51.)
Koska tekoälyllä ei itsessään ole moraalista vastuuta, on vastuu viimekädessä ihmisellä, joka ohjelmoi, hallinnoi ja käyttää tekoälyä (Raskulla, 2019, s. 249). Mäntylä (2023, i.a.) nostaa esiin Time-lehden uutisoinnin tammikuulta 2022, jossa kerrottiin, että Chat GPT -tekoälysovelluksen takana on epäeettistä halpatyövoimaa. Käytännössä tekoälyn toimintaa vaikuttaa ihmisen siihen syöttämä data ja se, missä ja mihin tarkoitukseen teknologiaa käytetään. Järjestelmä voi siis olla jo lähtökohtaisesti vinoutunut ja se voi kohdella ihmisiä epätasa-arvoisesti. Kirjoituksessa mainitaan esimerkkinä Suur-Lontoon alueella poliisin tekemä kasvojentunnistus, jossa tavoitteena oli tunnistaa terroristeja tekoälyllä. Sovellus valikoi ihmisiä virheellisesti ihonvärin pohjalta.
Sirén (2020, s., 2) toteaa opinnäytetyössään, että kysymykset tekoälystä ja robotiikasta kietoutuvat ihmisyyden ympärille. Ydinkysymyksenä on, mikä tekee ihmisestä ihmisen ja miten tekoäly eroaa käytännössä ihmisestä. Siksi on perusteltua heti alusta alkaen laatia ohjeistusta sen käyttöön. Ohjeita tulee tarkastella säännöllisin väliajoin ja aiheesta tulee voida keskustella kriittisesti.
Margit Mannila
lehtori, KTT
SeAMK
Margit Mannila on lehtori ja KTT SeAMKissa, joka innostuu erityisesti yrittäjyydestä ja ympäristöoikeudesta. Mannilan intohimona on uusien asioiden oppiminen ja hän jäsentää asioita mielellään kirjoittamalla.
Lähteet:
Kopponen, A. (2019). Älykäs ja viisas Suomi – miten tekoäly muotoilee yhteiskuntaamme? (26–39). Teoksessa Rousku, K. (toim.). (2019). Pilkahduksia tulevaisuuteen. Tietopolitiikka, tekoäly ja robotisaatio hyvinvoinnin ja taloudellisen menestyksen mahdollistajana Suomessa. Valtiovarainministeriö. Helsinki. Viitattu 7.3.2023. https://julkaisut.valtioneuvosto.fi/bitstream/handle/10024/161462/VM_2019_22_Pilkahduksia_tulevaisuuteen.pdf
Koski, O. & Husso, K. (toim.) (2018). Tekoälyajan työ: neljä näkökulmaa talouteen, työllisyyteen, osaamiseen ja etiikkaan. Työ- ja elinkeinoministeriön julkaisuja 18/2018. Viitattu 24.2.2023. https://julkaisut.valtioneuvosto.fi/handle/10024/160931
Lagus, K. (2018). Murros haltuun. Tieteessä tapahtuu 2018(2), 50–52. Viitattu 7.3.2023. https://journal.fi/tt/article/download/69937/31036
Luotettavaa tekoälyä koskevat eettiset ohjeet. Euroopan komission kesäkuussa 2018 perustama riippumaton tekoälyä käsittelevä korkean tason asiantuntijaryhmä. Viitattu 24.2.2023. https://www.europarl.europa.eu/meetdocs/2014_2019/plmrep/COMMITTEES/JURI/DV/2019/11-06/Ethics-guidelines-AI_FI.pdf
Mäntylä, E. (2023). Tutkija peräänkuuluttaa tekoälyn toiminnan ymmärtämistä, joka alkaa olla uusi kansalaistaito. Tiede>Yle.fi. Viitattu 7.3.2023. https://yle.fi/aihe/a/20-10004202
Parviainen, J. (2019). Piilaakson singulariteettiaktivismia. Niin & Näin 2019(3), 37–39. Viitattu 7.3.2023. https://netn.fi/sites/www.netn.fi/files/netn193-08.pdf
Rissanen, O-P. (2019). Tietopolitiikka ja etiikka – tulevaisuus on tiedossa. (20–24). Rousku, K. (toim.). (2019). Pilkahduksia tulevaisuuteen. Tietopolitiikka, tekoäly ja robotisaatio hyvinvoinnin ja taloudellisen menestyksen mahdollistajana Suomessa. Valtiovarainministeriö. Helsinki. Viitattu 7.3.2023. https://julkaisut.valtioneuvosto.fi/bitstream/handle/10024/161462/VM_2019_22_Pilkahduksia_tulevaisuuteen.pdf
Raskulla, S. (2019). Suomen tekoälyohjelman 2017–2019 eettiset ulottuvuudet. Politiikka 61(3), 247–249. Viitattu 7.3.2023. https://journal.fi/politiikka/article/view/83331
Rousku, K. (2019). Teknologia uusien palveluiden ja toiminnan mahdollistajana. (14–18). Teoksessa Rousku, K. (toim.). (2019). Pilkahduksia tulevaisuuteen. Tietopolitiikka, tekoäly ja robotisaatio hyvinvoinnin ja taloudellisen menestyksen mahdollistajana Suomessa. Valtiovarainministeriö. Helsinki. Viitattu 7.3.2023. https://julkaisut.valtioneuvosto.fi/bitstream/handle/10024/161462/VM_2019_22_Pilkahduksia_tulevaisuuteen.pdf
Sirén, S. (2020). Tekoäly ja julkinen valta. Tekoäly ja julkisen vallan käyttö. Johtamisen ja talouden tiedekunta. Pro Gradu -tutkielma. Tampereen yliopisto. Tampere. Viitattu 7.3.2023. https://trepo.tuni.fi/handle/10024/122761
Takala, P. (2018). Kohti jatkuvaa tilannekuvaa. Data-analytiikka yhteiskunnallisen päätöksenteon tukena. Muistio. Sitra. Viitattu 6.3.2023.
https://www.sitra.fi/app/uploads/2018/11/kohti-jatkuvaa-tilannekuvaa.pdf