Tekoälyn pitkä tie: Historiaa, kehitystä ja ajankohtaisia sovelluksia | Julkaisut@SEAMK

Tekoälyn pitkä tie: Historiaa, kehitystä ja ajankohtaisia sovelluksia

#

Viime syksynä startanneen NexTech Ecosystem: Monialainen innovaatiotila ja yhteiskehittämiskeskus -hankeen tavoitteena on tuoda nousevia teknologioita maakunnan pk-yritysten ja yhteisöjen ulottuville. Jo hankkeen alussa heräsi kysymys: mitä oikeastaan tarkoitetaan nousevilla teknologioilla ja mitkä niistä ovat tällä hetkellä ajankohtaisimpia?

Hankkeen käynnistysvaiheessa toteutettiin useita benchmarkkauskäyntejä erilaisiin kohteisiin: vierailukeskuksiin, oppilaitoksiin, yrityksiin ja tilaisuuksiin. Näiden avulla hahmotettiin, mitkä nousevat teknologiat ovat nyt esillä keskusteluissa, millaisia teknologioita nyt kehitetään ja miten niitä hyödynnetään eri aloilla. Yksi havainto nousi ylitse muiden: generatiivinen tekoäly kiinnostaa laajasti ja siitä halutaan lisää tietoa. Tämän vuoksi tekoäly nousi yhdeksi pääteemaksi myös NexTech-hankkeen toimenpiteissä.

Tekoäly – uusi vai nouseva teknologia?

Tekoälyä pidetään julkisessa keskustelussa usein uutena keksintönä, vaikka sen kehitys on kestänyt satoja, ellei jopa tuhansia vuosia. Jo antiikin Kreikassa pohdittiin, miten koneet voisivat helpottaa arkea. Esimerkiksi Heron Aleksandrialainen rakensi koneita yksinkertaisten tehtävien suorittamiseen, kuten temppeleiden automatisoidut ovimekanismit. Nämä eivät nyt varsinaisesti vielä ”älykkäitä” ratkaisuja olleet, mutta merkittäviä ratkaisuja kohti koneiden autonomiaa ja itsenäistä toimintaa, jotka ovat tekoälyn keskeisiä elementtejä.

Varsinaisesti tekoälyn kehittyminen alkoi vuonna 1854, kun George Boole loi pohjan loogiselle laskennalle ja tietokoneiden rakenteille sekä mahdollisti loogisen päätösten mallintamisen koneellisesti loogisten operaatioiden kautta. Tämä Boolen algebra mahdollistaa ”tosi-epätosi”-lausekkeet, jotka ovat hyvin yleisiä kaikessa tietotekniikassa. (Boole, 1854.)

Vuonna 1906 Andrey Markov kehitti ”Markovin ketjun”, eli stokastisen ennustusmallin, jolla saatiin pohja tilastollisille ennuste- ja kielimalleille. Tässä mallissa seuraava tila riippuu ainoastaan nykyisestä tilasta. Tämä riippuvuus vain yhdestä edellisestä tilasta on edelleen perusta sekvenssidatan mallintamiselle, joskin sittemmin on kehitetty muutoin parempia menetelmiä. (Seneta, 2006, s. 1–20.)

Vuonna 1950 Alan Turing puolestaan pohti artikkelissaan ”Can machines think?” koneiden ajattelumallia ja käsitteellisti pohjan tekoälylle. Hän kehitti myös Turingin testin, joka arvioi koneiden ajattelukykyä sen perusteella, kuinka hyvin kone jäljittelee ihmisen kielenkäyttöä. Hän arvioi myös sitä, voiko kone vaikuttaa ihmiseen siten, että kyselijä ei erota konetta ihmisestä. (Turing, 1950, s. 433–460.)

Vuonna 1956 järjestettiin ensimmäinen virallinen tekoälykonferenssi Darthmouthissa, joka aloitti alan systemaattisen tutkimustyön (McCarthy ym., 1955). Vuonna 1964 valmistui ELIZA, ensimmäinen keskustelua simuloiva tietokonesovellus, joka käytti kaavamaisia sääntöjä ihmismäiseen vuorovaikutukseen. Vuonna 1972 tuli puolestaan MYCIN asiantuntijajärjestelmä, joka pystyi käsittelemään asiantuntijatietoja ja antamaan lääketieteellisiä diagnooseja. (Weizenbaum, 1966, s. 36–45.) 1960–70-luvut olivat niin sanottua symbolisen tekoälyn kautta, jolloin älykkyyttä rakennettiin tarkasti määritellyistä säännöistä, loogisista kaavoista ja käsitteellisistä symboleista. Nämä ohjelmat ratkoivat ongelmia sääntöpohjaisesti eivätkä kyenneet oppimaan käsitellystä datasta mitään.

1980-luvulla George Hinton kehitti neuroverkot sekä backpropagation-algoritmit, jotka loivat pohjan koneoppimisen algoritmeille (Hinton & Rumelhart, 1988; Le Cunn ym., 1988, s. 21–28). Hintonia pidetäänkin tekoälyn kummisetänä, koska hänen elämäntyönsä on vaikuttanut merkittävästi nykyaikaisiin teknologisiin ratkaisuihin. Koneoppimisen tutkiminen otti edelleen lisää vauhtia 1990-luvulla, jolloin kehitettiin tuki-vektorikoneet, LSTM-verkot sekä vahvistetun oppimisen algoritmit. Nämä edistyneet oppimismenetelmät lisäsivät huomattavasti mallien tarkkuutta. Esimerkkinä kehityksestä toimi muun muassa shakkiottelu, jossa Deep Blue voitti Garri Kasparovin. Tämä oli ensimmäinen kerta, kun tietokone voitti ihmisen shakkipelissä. Nykyiset shakkikoneet ovat kehittyneet niin pitkälle, ettei ihminen enää kykene näitä voittamaan lainkaan. (Burgess ym., 2004; Cortes & Vapnik, 1995, s. 273–297; Hochreiter & Schmidhuber, 1997, s. 1735–1780; Singh & Sutton, 1996, s. 123–158.)

2000-luvun alussa kehittyivät Deep belief -verkot, ja ImageNet ja ensemble-menetelmät yleistyivät vauhdittaen kuvantunnistusta ja mahdollistaen kielimallien läpimurron. George Hinton oli osittain mukana myös näiden kehittämisessä. ImageNet keskittyi erityisesti visuaaliseen tunnistamiseen, joka antoi pohjan myös esineiden tunnistusalgoritmeille. (Hinton, 2009, s. 5947; Krizhevsky ym., 2017, s. 84–90; Polikar, 2006, s. 21–45.) 2010-luvulla algoritmit kehittyivät entisestään ja tietokoneiden laskentatehon kasvu mahdollisti syvät neuroverkot sekä transformerit, joihin nykyaikaiset generatiiviset tekoälytyökalut pohjautuvat. (Bengio, 2009, s. 1–127; National Research Council (U.S.) ym., 2011; Vaswani ym., 2017.)

Vuonna 2022 generatiivinen tekoäly siirtyi nopeasti tutkimuslaboratorioista kuluttajien käyttöön ja työelämään ja tällä hetkellä ollaankin tekoälykuplassa. Viimeksi vastaavanlaisen teknologiakuplan voidaan katsoa tuleen internetin myötä 2000-luvun alkupuolella, kun .com-teknologiayrityksiä syntyi kuin sieniä sateella. Näistä suuri osa kaatui lopulta kuplan puhjettua, mutta niiden teknologia on edelleen silti vahvasti käytössä. (Hämäläinen, 2024.)

Vaikka tekoälyn kehityskaari on ollut pitkä, täyttää tekoäly edelleen nousevan teknologian tunnuspiirteet: radikaali uutuus, suhteellisen nopea kasvu, koherenssi, merkittävä vaikutus sekä epävarmuus ja monitulkintaisuus. Nämä viisi tunnuspiirrettä Rotolo ym. (2015, s. 1827–1843) ovat tunnistaneet nousevan teknologian ominaisuuksiksi.

Tekoäly arjessa – ennustuksia ja toteutuneita esimerkkejä

Itse pohdin vuonna 2023 TAKO-hankkeen loppuraportissa teknologian kehittymistä. Kirjoitin muun muassa siitä, miten tulevaisuudessa voimme ehkä vain sanoa ääneen haluamamme tuotteen tai palvelun, jolloin tekoäly hoitaa koko tilausprosessin puolestamme. Nyt olemme jo lähellä tätä todellisuutta. Kuten Okkonen ym. (2023, s. 39) toteavat, palveluiden tilaaminen on tehty helpommaksi kuin koskaan aikaisemmin ja tekoälyn uusien harppausten avulla siitä tulee tulevaisuudessa entistä helpompaa. Esimerkiksi Amazon julkaisi uuden version virtuaalisesta Alexa+ -apuristaan, joka pystyy tilaamaan tuotteita ja palveluita yksinkertaisella puhekomennolla myös kolmansien osapuolien verkkosivuilta käyttäjän puolesta. Jo aiemman Alexan avulla oli mahdollisuus tilata tuotteita Amazon-kaupasta, mutta apuri oli paljon rajoitetumpi (Pihlaja, 2025).

Microsoftin Copilot ja Googlen Gemini toimivat puolestaan hyvin tietotyön tehostajana. Ne voivat esimerkiksi hakea, tiivistää ja yhdistellä tietoa käyttäjän tiedostoista, sähköposteista, kalenterista ja tietokoneen eri pilvisovelluksista. Copilotilla voi esimerkiksi nopeasti tehdä yhteenvedon useasta eri tiedostosta kerralla tai hakea sähköposteja eri aiheiden parista. (Microsoft 365:n tekoälytuottavuustyökalut | Microsoft 365, i.a.) Vastaavia sovelluksia on myös muita: esimerkiksi OpenAI on kehittänyt oman agentin nettilomakkeiden täyttämiseen ja verkkokauppojen käyttämiseen, mikä mahdollistaa vielä Amazonin Alexa+ -palveluakin laajemman käytön (Zeff, 2025). Tämä palvelu julkaistiin Euroopassa kesällä 2025.

Kaikki tekoälytyökalujen mahdollistamat palvelut eivät kuitenkaan ole vielä rantautuneet Euroopan alueelle, osittain AI ACT:in ja muiden lakisääteisten rajoitteiden vuoksi. EU AI Act on asettanut maailman ensimmäiset laajat tekoälyä koskevat säännöt, joissa tekoälyjärjestelmät on jaettu neljään riskiluokkaan: kielletyt sovellukset, korkean riskin sovellukset, rajoitetun riskin sovellukset sekä vähäriskiset sovellukset. Esimerkiksi Amazon Alexa+ ja OpenAI:n kehitteillä olevat agentit voivat kuulua rajoitetun tai korkean riskin kategoriaan, riippuen niiden päätöksentekokyvystä: automaattinen päätöksenteko lasketaan aina korkean riskin luokkaan. AI Actin käyttöönotto on tapahtunut vaiheittain: varsinaisesti se astui voimaan 1.8.2024, 2.2.2025 tulivat voimaan kiellot kielletyille sovelluksille ja 2.8.2025 lait riskialttiille AI-järjestelmille, yleiskäyttöisille AI-malleille, hallintorakenteille, luottamuksellisuudelle sekä sakkokäytännöille. Yleiskäyttöisiä AI-malleja tarjoavia yrityksiä sitoo toki kahden vuoden siirtymäaika. (EU AI ACT, 2023.)

AI Act pureutuu vahvasti vastuu- ja hallintakysymyksiin edellyttämällä, että loppuvastuu päätöksistä ja niiden seurauksista säilyy aina ihmisillä. Jo vuonna 1979 IBM:n edustaja totesi, että ”A computer can never be held accountable, therefore a computer must never make a management decision”. Huomio on edelleen ajankohtainen: Tekoäly ei kanna vastuuta, vaikka se kykeneekin tekemään päätöksiä. Vaikka tekoälytyökalut tarjoavat selkeitä hyötyjä, on hyvä muistaa, että ne ovat kuitenkin vain pitkälle kehittyneitä arvauskoneita, eivät tiedostavia toimijoita. Ihminen on edelleen tärkeä.

Vain aika kuitenkin näyttää mihin suuntaan teknologia kehittyy entisestään, ja itse odotan tätä yhtä aikaa kauhuissani ja innoissani.

Tekoäly NexTech-hankkeen testauspajojen teemana

NexTech-hanke tarjoaa eteläpohjalaisille yrityksille ja yhteisöille mahdollisuuksia tutustua tekoälytyökaluihin ja testata niitä asiantuntijoiden ohjauksessa. Hanke järjestää käytännönläheisiä testauspajoja SEAMKissa sekä maakunnallisten pop-up-kiertueita, joiden avulla viedään testauspajojen antia myös maakuntaan. Keväällä 2025 toteutettiin neljä pop-up-tapahtumaa Ilmajoella, Alajärvellä, Evijärvellä ja Kurikassa. Tilaisuudet ovat herättäneet selkeästi kiinnostusta ja koonneet yhteen kiinnostuneita eri alojen yrityksistä, yhdistyksistä ja muista organisaatioista.

Testauspajoissa on tähän mennessä keskitytty generatiiviseen tekoälyyn ja sen hyödyntämiseen eri käyttötarkoituksissa, vaikka tekoälysateenvarjon alle mahtuisi paljon muutakin esiteltävää kuin pelkästään syviin neuroverkkoihin pohjautuvat ratkaisut. Testauspajoissa on käyty läpi muun muassa tekoälyn käyttöä sparraajana ja työkaverina sekä tekoälyn hyödyntämistä markkinoinnissa ja sisällöntuotannossa. Tilaisuuksissa on kokeiltu erityisesti maksuttomia työkaluja, jotta jokaisella osallistujalla olisi mahdollisuus viedä oppimiaan asioita myös omaan arkeen ja käytäntöön, mutta esitelty myös maksullisia ratkaisuja ja niiden hyötyjä. Samalla on korostettu tietoturvaa ja eettisiä periaatteita.

Maakunnalliset kiertueet tekoälyteemasta jatkuvat vielä syksyllä 2025, kun pop-up-tapahtumia järjestetään Kauhavalla, Kauhajoella ja Vimpelissä. Tämän jälkeen NexTech-hankkeessa keskitytään muihin nousevien teknologioiden teemoihin, mutta suunnitteilla on jo jatkoa tekoälyteemalle. Tekoäly kun kehittyy valtavaa vauhtia jatkuvasti ja aiheesta riittäisi vielä paljon muutakin esiteltävää.

Panu Weckman
TKI-asiantuntija
SEAMK

Artikkeli on tuotettu osana Euroopan unionin osarahoittamaa NexTech Ecosystem: Monialainen innovaatiotila ja yhteiskehittämiskeskus -hanketta. Hankeaika on 1.8.2024-31.12.2026.

Lisätietoa hankkeesta: https://projektit.seamk.fi/hyvinvointi-ja-luovuus/nextech-ecosystem-monialainen-innovaatiotila-ja-yhteiskehittamiskeskus/

Lähteet

Topics | European Parliament. (Top. Eur. Parliam.). (8.6.2023). EU AI Act: First regulation on artificial intelligence. https://www.europarl.europa.eu/topics/en/article/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence

Bengio, Y. (2009). Learning Deep Architectures for AI. Foundations and trends® in machine learning, 2(1), 1–127. https://doi.org/10.1561/2200000006

Boole, G. (1854). An Investigation of the Laws of Thought: On Which Are Founded the Mathematical Theories of Logic and Probabilities (1. p.). Cambridge University Press. https://doi.org/10.1017/CBO9780511693090

Burgess, G., Nunn, J. & Emms, J. (2004). The Mammoth Book of the World’s Greatest Chess Games. Carroll & Graf Publishers.

Cortes, C. & Vapnik, V. (1995). Support-vector networks. Machine learning, 20(3), 273–297. https://doi.org/10.1007/BF00994018

Hinton, G. (2009). Deep belief networks. Scholarpedia, 4(5), 5947. https://doi.org/10.4249/scholarpedia.5947

Hinton, G. & Rumelhart, D. (1988). Neural Network Architectures for Artificial Intelligence. AAAI.

Hochreiter, S. & Schmidhuber, J. (1997). Long Short-Term Memory. Neural computation, 9(8), 1735–1780. https://doi.org/10.1162/neco.1997.9.8.1735

Hämäläinen, K. (16.10.2024). Onko tekoälyssä kupla, analyytikko Tero Kuittinen? Taloustaito – Veronmaksajain Keskusliitto ry. https://www.taloustaito.fi/Rahat/onko-tekoalyssa-kupla-analyytikko-tero-kuittinen/

Krizhevsky, A., Sutskever, I. & Hinton, G. E. (2017). ImageNet classification with deep convolutional neural networks. Communications of the acm, 60(6), 84–90. https://doi.org/10.1145/3065386

Le Cunn, Y., Touretzky, D., Hinton, G. & Sejnowski, T. (1988). A theoretical framework for back-propagation. Proceedings of the 1988 connectionist models summer school, 21–28.

McCarthy, J., Minsky, M. L., Rochester, N. & Shannon, C. E. (1955). A proposal for the Dartmouth summer research project on artificial intelligence [Julkaisematon käsikirjoitus].

National Research Council (U.S.), Fuller, S. H., Millett, L. I., National Research Council (U.S.), & National Academies Press (U.S.) (toim.). (2011). The future of computing performance: Game over or next level? National Academies Press.

Okkonen, E., Hynynen, A., Kamppinen, T., Kärki, A., Kärki, P., Nousiainen, M., Palomäki, V. & Weckman, P. (2023). Tulevaisuuden asuminen – joustavuutta ja hyvinvointiteknologiaa. Tulevaisuuden asuminen – joustavuutta ja hyvinvointiteknologiaa. Tampereen yliopisto. https://trepo.tuni.fi/handle/10024/150745

Pihlaja, S. (9.4.2025). Amazon Redefines How Customers Shop with Its New ”Buy for Me” Feature & Alexa Plus. CX today. https://www.cxtoday.com/loyalty-management/amazon-redefines-how-customers-shop-with-its-new-buy-for-me-feature-alexa-plus/

Polikar, R. (2006). Ensemble based systems in decision making. IEEE circuits and systems magazine, 6(3), 21–45. https://doi.org/10.1109/MCAS.2006.1688199

Rotolo, D., Hicks, D. & Martin, B. R. (2015). What is an emerging technology? Research policy, 44(10), 1827–1843. https://doi.org/10.1016/j.respol.2015.06.006

Seneta, E. (2006). Markov and the creation of Markov chains. A. Langville & W. Stewart (toim.), MAM2006: Markov Anniversary Meeting. Boson Books.

Singh, S. P. & Sutton, R. S. (1996). Reinforcement learning with replacing eligibility traces. Machine learning, 22(1–3), 123–158. https://doi.org/10.1007/BF00114726

Turing, A. M. (1950). I.—COMPUTING MACHINERY AND INTELLIGENCE. Mind, LIX(236), 433–460. https://doi.org/10.1093/mind/LIX.236.433

Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, L. & Polosukhin, I. (2017). Attention Is All You Need (Versio 7). arXiv. https://doi.org/10.48550/ARXIV.1706.03762

Weizenbaum, J. (1966). ELIZA—a computer program for the study of natural language communication between man and machine. Communications of the acm, 9(1), 36–45. https://doi.org/10.1145/365153.365168

Zeff, M. (23.1.2025). OpenAI launches Operator, an AI agent that performs tasks autonomously. TechCrunch. https://techcrunch.com/2025/01/23/openai-launches-operator-an-ai-agent-that-performs-tasks-autonomously/

Microsoft 365:n tekoälytuottavuustyökalut | Microsoft 365. (i.a.). Haettu 2.7.2025, https://www.microsoft.com/fi-fi/microsoft-365/copilot