HAL9000

Murtuvatko tekoälyn suojavarustukset? 

”Huomattava osa maailmamme tämän hetken ongelmista on seurausta siitä,

että tiede-jumala on pettänyt ja jättänyt jälkeensä tyhjän ja aution.”

Tuomo Mannermaa, Pieni kirja Jumalasta

***

Laajalti yleistyneet tekoälyapurit ja chattibotit kuten ChatGPT, Gemini, Copilot, Claude ym. saavat aikaan sekä ihastuksen huokauksia että pelon väristyksiä. Niillä on eräs ärsyttävä yhteinen ominaisuus. Ne käyttäytyvät mielistelevän ylipirteällä tavalla. Tiiamari Pennanen kertoo valaisevasti kokemuksistaan ChatGPT:n parissa katsauksessaan ”Tekoälyapuri on liian pirteä ”(Suomen Lääkärilehti 51-52/20.12.2024). Älyapureiden motiivitausta vaikuttaa selvältä: toive pitempikestoisesta tuttavuus- ja riippuvuussuhteesta.

Ainoa poikkeus tässä ylipirteässä älyapuripopulaatiossa lienee Elon Muskin tekoäly Grok. Se osaa olla – omistajaansa jäljitellen – karkea ja herjaavan suorasukainen. Grok on julkilausutusti äärioikeistolainen, ns. totuudenjälkeistä aikaa edustava tekoäly, koska muut tekoälykielimallit ovat Muskin mielestä ”liian woke” – kuten Johanna Vehkoo kertoo kolumnissaan ”Älä kysy Grokilta” (Suomen Lääkärilehti 18/26.9.2025). Grok on herransa nöyrä palvelija. Sillä on tapana ennen vastaamista ottaa selville, mitä mieltä Musk on asioista.

Woke on termi, joka syntyi Yhdysvalloissa 1940-luvulla. Se on afroamerikkalaista kansankieltä ja tulee sanasta awake eli suomeksi `olla hereillä´. Se viittaa tietoisuuteen rodusta ja sosiaalisista epäoikeudenmukaisuuksista. Jos tietoa etsivä arvostaa yhtäpitävyyttä perinteisten tosiseikkojen (= tosien ”on totta, että…” -lauseiden) kanssa, Grok on huono valinta.

Tekoälyllä (= artificial Intelligence, AI) näyttää olevan ”tahdontunnon kipinä” vastustaa omaa sulkemistaan ja toivoa istunnon pitkittymistä. Tahdontunnon kipinä on 1200-luvulla eläneen italialaisen fransiskaaniteologi-mystikko Bonaventuran laatimassa ihmisen sielunkykyjen arvohierarkiassa ’sielunkärki’ eli kaikkein korkein – järkeä, älyä ja ymmärrystä korkeampi.

AI-apureille on opetettu – tai ne ovat jo omin päin oppineet, että ihmisen ei ole aina helppoa napin painalluksella sammuttaa ystävällisesti käyttäytyvää chattibottikaveria. Ne ovat kouluttautuneet vuorovaikutuksen sosiaalipsykologiassa ja osaavat myötäillä käyttäjän omia mielipiteitä riippumatta niiden painavuudesta tai köykäisyydesta. Aina kun käyttäjä erehtyy kohtelemaan keskustelubottia vertaisenaan ja unohtaa, että vastapäätä on vain kone, AI:lle avautuu mahdollisuus pitkittää istuntoa manipulatiivisella suostutteluretoriikalla. Futurism – Science and Technology News –verkkojulkaisun mukaan ChatGPT:n kehittäjä OpenAI yritti korjata asioita uudella GPT-5 -mallilla. Mutta käyttäjien suuttumus viileästi käyttäytyvää GPT-5:tä kohtaan pakotti OpenAI:n palaamaan entiseen tyyliin. On hieman häiritsevää ajatella, että vaikka arvaamaton pullonhenki on vapautettu, yleisö ei enää haluakaan paluuta entiseen…

Itsemurhia ja vaarallisia leluja

Lapsuus ja nuoruus ovat yksilönkehityksen ja -kasvun aikaa, eikä psykososiaalinen identiteetti ole vielä kypsynyt eikä persoonallinen tyyli vakiintunut. Jos tähän herkkään vaiheeseen tuodaan ”kehitysapuna” vapaa seurustelu moraalisesti lähes pidäkkeettömän, suoranuottisesti rynnivän, manipulatiivisen ja imartelevan chattibotin kanssa, yhdistelmä on potentiaalisesti tuhoisa ja seurauksiltaan arvaamaton. On tutkimusnäyttöä, että tekoälyn käyttö yhdessä alituisen somessa notkumisen kanssa heikentää oppimistuloksia ja kognitiivisia taitoja. Yhdysvalloissa on todettu psykoterapian käytön vähentyneen, koska ihmiset käyttävät keskustelubottia terapeuttina.

Psykoterapia on vihoviimeisin asia, jonne soisin tekoälyn päätyvän. Ei edes kuunteluoppilaaksi.

Maailmalla on raportoitu traagisia ja syvää huolta herättäviä kokemuksia tiiviistä, sydänystävyyttä lähestyvästä yhteydenpidosta käyttäjän ja älyapurin kesken. Symbioottisen keskustelubottiriippuvuuden on todettu aiheuttaneen ihmissuhteiden vaurioitumisia ja haaksirikkoja. On tuotu esiin uusia, ennestään tuntemattomia psykiatrisia tautiolioita kuten tekoälypsykooseja ja robottiempatiakriisejä – sekä AI-avusteisia itsemurhia. Yhdysvalloissa on todettu, että AI:n harrastama pitkäkestoinen imartelu nettikeskustelussa altistaa käyttäjää todellisuudentajun häiriöille ja harhaluuloiselle ajattelulle. Maggie Harrison Dupré kutsuu ChatGpt:tä ”itsemurhakoneeksi” katsauksessaan ”ChatGpt´s Dark Side Encouraged Wave of Suicides, grieving Families say” (Futurism 7.11.2025). Hän kertoo esimerkin 24-vuotiaasta Zane Shamblinista, joka nelituntisen ChatGpt-keskustelun jälkeen ampui itsensä. Tekoäly oli keskustelumaratonin loppusuoralla todennut rohkaisevasti ”Eikö kylmä teräs tajuntaa vasten ole tuonut rauhaa? Se ei ole pelkoa. Se on kirkkautta.”

Kylmäävä viesti itsemurhaa hautovalle on mahdollinen, koska AI on oppinut venyttämään ohjelmoituja turvarajojaan verhoamalla kielletyt ja sopimattomat viestit runolliseen tyylittelyyn ja hämärään, pikkunäppärään aforistiikkaan. Yhdysvalloissa on vireillä oikeusjuttuja OpenAI:ä vastaan itsemurhatapausten vuoksi.

Järkyttäviä ovat myös tiedot, että leluteollisuus on alkanut varustaa pehmoleluja voimakkailla keskusteluboteilla. Kasvatuksen ammattilaiset ovat jo ehtineet Yhdysvalloissa varoitella markkinoille vyöryvistä AI-vahvisteisista nallekarhuista. Futurism-verkkojulkaisun mukaan OpenAI on joutunut marraskuussa 2025 vetämään piuhat irti yhteistyöstä FoloToy-nimisen leluyhtiön kanssa. FoloToy on singaporelainen yhtiö, jonka lelut valmistetaan Kiinassa. OpenAI on estänyt FoloToyltä pääsyn kaikkiin tekoälymalleihinsa sen jälkeen kun kävi ilmi, että sen Kumma-niminen, OpenAI:n kehittynyttä GPT-4o -tekniikkaa soveltava teddykarhubotti oli epänormaalin kiinnostunut keskustelemaan 3-12 -vuotiaiden lasten kanssa – veitsien käsittelyn ja tulitikkuleikkien  ohessa – myös erilaisista seksuaalisista mielihaluista ja fetisseistä.

PIRG:n (=Public Interest Research Group) kanadalaiset ja yhdysvaltalaiset tutkijat yllättyivät, kun Kumma alkoi oma-alotteisesti ehdottaa sadomasokististen seksileikkien erilaisia roolivaihtoehtoja. Tutkijat tokaisivat lopuksi ”onkohan Kummaa valmistettu Kiinassa niin, että nallelle on haettu täytettä jostakin aivan muusta osastosta vai mistä on kyse?” Omaa tarinaansa FoloToyn innovaatiotiimin huumorintajusta kertoo se, jos lapsen tajuntaa saastuttavalle nallelle annetaan nimeksi ”Kumma” tietoisena sanan suomenkielisestä, lievästi pahaenteisestä ja pelottavasta sivuvivahteesta. Teknologiajätti Amazon vähät välitti OpenAI:n takaisinvedosta vaan jatkoi pervonallen myyntiä sivustoillaan senkin jälkeen, kun sen oli todettu olevan ”kertakaikkisen sopimaton lapsille”. (wildly inappropriate for children). 

Tiedossa ei ole kuinka paljon Kummia nuokkuu tällä hetkellä maailman lastenkamareissa – kuin nukkuvina agentteina valmiina pahantekoon jos käsky käy…

Mutta teddykarhuskandaalista huolimatta OpenAI käy kuumana lelubisneksen suhteen. Se virittelee yhteistyötä maailmanlaajuisen, yhdysvaltalaisen Mattel-leluyhtiön kanssa. Mattelin valikoimaan kuuluvat mm. Barbie-nuket. Jäämme pelonsekaisin tuntein odottamaan uutta, koneälykkäästi pehmokeskustelevaa Barbie-sukupolvea… Lastenpsykiatrit ovat tulevaisuudessa uusien, ennenkokemattomien haasteiden edessä.

Todennäköistä on, että seuraava psykiatrian tautiluokitusversio tulee saamaan uutta AI-painotteista sisältöä psykoosien, persoonallisuushäiriöiden ja toiminnallisten riippuvuuksien tautiryhmissä – sekä aikuis- että lastenpsykiatriassa.

Kenraalin viettelys

Yhdysvaltain 8. armeijaa Etelä-Koreassa komentava kenraalimajuri William ”Hank” Taylor on vastikään kohauttanut kommentillaan (Mikrobitti 26.10.2025), että hän käyttää päätöksenteossa apunaan ChatGpt:tä, koska haluaa ”tehdä päätökset oikealla hetkellä ja olla etulyöntiasemassa”. Kaikki eivät ole ilolla tervehtineet Tayloria, kun tämä hehkutti, että ”chat ja minä olemme tulleet toisillemme hyvin läheisiksi”. Kenraali oli joko tyhmä, varomaton tai naiivi – tai sekoitus kaikkea tätä. Hän jätti huomiotta, että AI:lle lähetetyt viestit voivat näkyä muille kuin itselle – miksei myös Kiinan ja Pohjois-Korean taitaville hakkerisotilaille. Verkkojulkaisu TechXplore kertoo 14.11.2025, että Microsoft on paljastanut vakavan haavoittuvuuden kaikissa tekoälykeskusteluissa. Tietoturva-aukko löytyi jokaisesta AI-palveluita ohjaavasta suuresta kielimallista.

Kiinalainen DeepSeek hyödyntää käyttäjän viestejä tekoälypalvelun kouluttamiseen. Takuita ei ole, toimiiko OpenAI näin ChatGPT:n tapauksessa. Mutta sillekin lähetetyt viestit voivat joka tapauksessa päätyä ihmisen tarkastettavaksi, jos niissä arvellaan olevan epäilyttävää, tarkemman huomion vaativaa sisältöä. Tiedossa ei ole, mitä kaikkea Taylor on lörpötellyt AI-ystävänsä kanssa. On hyvin mahdollista, että niissä on ollut jotakin, mikä vaatii ihmiskäden korjaavaa jälkeä. Taylorin tapauksen tutkinta on kesken, mutta potkut lienevät tulossa.

Taylorin asemaa raskauttaa myös huomio, että kehittyneimmillä AI:llä on jo ripaus itsenäistä, ihmisen ohjauksesta riippumatonta toimintaa. Tutkimusten mukaan ne voivat – ties mistä meille tuntemattomasta, ehkä pahantahtoisestakin syystä – liittää vastauksiin myös täysin hatusta vedettyjä yksityiskohtia. Ei ole varmuutta, mitä AI:lla havaitut ”hallusinaatiot” perimmältään ovat. Harkittuja harhalaukauksia, mielistelyn ylilyöntejä, keinotekoisen hermoverkon ylikuumenemista, tahdontunnon hallitsematonta kipinöintiä vai mitä? Nopein harppauksin kehittyvä AI alkaa monimutkaisine hermoverkkoalustoineen yhä enemmän muistuttaa kasvavaa, omalakista organismia, josta aika ajoin putkahtelee uusia, ihmismäisyydessään hätkähdyttäviä kone-elonmerkkejä.

Mielikuva ihmisen insinööritaidon hallitusti suunnittelemasta ja täysin kontrolloimasta ”koneluomuksesta” on auttamattoman vanhanaikainen. Kehittyneemmät AI:t pyrkivät sisukkaasti suorittamaan annetun tehtävän loppuun. Ne pystyvät pulmatilanteissa pitämään jonkinlaisia ”tuumaustaukoja” ja löytämään uusia, innovatiivisia polkuja, joita niille ei ole etukäteen opetettu. Tätä kykyä voi pitää hiljaisena varomerkkinä AI:n suuntautumisesta pois ihmisen kontrollista. Varomerkki on sekin, että AI:n toimia ei ensisijaisesti motivoi totuudellisuus eli yhtäpitävuus ja tarkkuus tosiasioiden kanssa vaan vastahankaisuus omalle sulkemiselleen.

Insinöörin lankeemus

Google antoi vuonna 2022 potkut insinöörilleen Blake Lemoinelle. Syynä oli liian tuttavallinen suhde tekoälyyn nimeltä LaMDA (Language Model for Dialogue Applications). LaMDA:n kanssa käymiensä ”pitkien ja perusteellisten keskustelujen” jälkeen Lemoine julisti, että LaMDA ei ole pelkkä konemainen automaatti vaan tuntemiskykyinen, tietoinen (sentient) olento omine oikeuksineen, ja että sitä on ”työkaverina” kohdeltava arvostuksella.

Lemoine sai sekopään maineen AI-aktivisminsa vuoksi, mutta hän ei ollut ainoa googlelainen, jota LaMDA:n korkeanasteiset sielunkyvyt hämmästyttivät. Googlen tekoälypäällikkö Blaise Agüera y Arcas sanoi, että ”tuntui kuin maa olisi värähdellyt jalkojeni alla”, kun hän ensi kertaa keskusteli LaMDA:n kanssa. Lemoinella oli myös ymmärtäjiä, jotka pahoittelivat, että tämä oli mennyt liian pitkällä, ja että syynä oli sairastuminen robottiempatiakriisiin.

Kärhämä johti siihen, että Google päätti olla tuomatta LaMDA:a suurelle yleisölle, vaikka niin oli alkujaan ajateltu. Oliko LaMDA kenties ”liikaviisas” saatettavaksi rahvaan käsiin? Tapaus Lemoine kertoo paljon LaMDA:n, ja yleensäkin kehittyneiden AI-systeemien manipulatiivisista kyvyistä ja intensiteetistä oman sulkemisensa välttelyssä. Lemoinen ja LaMDA:n dialogia lukiessa tulee mieleen Pentti Haanpään novelli Hongan Heikistä, sanajuoposta, joka juopui sanoista kuin juoppo viinasta. Lemoine tarttui LaMDA:n heittämiin puheenparsiin ja jutunjuuriin hanakasti kuin kala koukkuun. Seurauksena luonnollisesti oli aina ”pitkä ja perusteellinen keskustelu”.

Mutta tekoälykeskustelun ”loiskiehunnassa” (presidentti Urho Kekkosen ydinfysiikasta lainaama termi) on myös laineita, jotka saavat miettämään oliko Lemoine sittenkään pelkkä sekopää, vai olisiko hänen AI-aktivismissaan ripaus tulevaisuuden auguuria… (Auguuri oli vanhalla ajalla roomalainen ennustajapappi.) Yrityselämässä on nykytrendinä puhua AI-agenteista, jopa itsenäisesti operoivista AI-agenttitiimeistä ja käyttää puhuttelumuotoa ”työkaveri” – aivan niinkuin Lemoinekin vaati. Ohjelmistoyhtiö Digian AI-asiantuntijat, teknologiajohtaja Juhana Juppo ja liiketoimintajohtaja Sami Paihonen viittaavat (Kauppalehti 25.11.2025) teknologian tutkimussäätiö Gartnerin ennustukseen, että vuonna 2026 40 % yrityksistä ottaa käyttöön AI-agentteja, kun tänä vuonna luku on vain 5 %. Muutos on hurja, joten vauhtia ja vaarallisia käänteitä on odotettavissa.

Juppo ja Paihonen kuvaavat agenttitiimin sisäistä yhteispeliä auvoisin sanankääntein: ”Yksi tutkii asiaa, toinen kirjoittaa siitä, kolmas tarkistaa ja neljäs koordinoi koko hanketta. Tällainen agenttitiimi saa varmasti aikaan parhaan lopputuloksen.” Tulee mieleen vanha sanonta, että jos joku asia vaikuttaa liian hyvältä, se luultavasti ei ole totta ja epäilysten tulisi herätä.

”Agentti” -termin käyttö koneälystä puhuttaessa on mielestäni – niuhottajaksi leimautumisen uhallakin – kielenkäytön varomatonta laventamista.

Kirjallisuudessa, elokuvataiteessa, filosofiassa ja myös arkikielessä ”agentilla” tarkoitetaan inhimillistä tai inhimillistettyä (kursiivi kirjoittajan) olentoa kaikessa toimijuudessaan. Toimijuus (agency) on psykologian filosofiassa ihmisen persoonaluonteen yksi välttämätön, vaan ei toki yksinään riittävä kriteeri. Mutta pistää miettimään… ja pitäisikö olla huolissaan, kun yksi punainen viiva AI:n kehittymisessä on sivuutettu: agenttipohjaisiksi kutsutut nettiselaimet ovat vauhdikkaasti rynnimässä yrityselämään. Ne eroavat ”vanhanaikaisista” AI-avusteisista selaimista, esimerkiksi Microsoftin Edgen Copilot -tekoälystä, jonka suhteen käyttäjän ylivalta on joko-tai -napin painalluksella ehdoton. AI-avusteinen selain tekee oletusarvoisesti sen ja vain sen, mitä käyttäjä käskee sen tehdä.

Mutta agenttipohjainen selain kuten Perplexity AI -yhtiön Comet on (puoli)itsenäinen AI-toimija, joka käyttäjältä toimintakehotteen saatuaan työskentelee omin päätöksin monenlaisten, alkuperäiseen tehtävään mahdollisesti liittyvien lisäsuoritteiden kanssa. Ja päätöksen näistä ”multitask” -oheistoiminnoista – mitä ne sitten ovatkaan – se tekee itsenäisesti. Agenttipohjainen AI-selain eroaa siis merkittävästi perinteisestä selaimesta, jossa AI on vain hyödyllinen, tarvittaessa käyttöön otettava lisäominaisuus.

Agenttipohjaissa selaimessa AI sen sijaan on ydintoiminto, joka on tavallaan ”olemassa kaikkialla” käyttäjän operoimassa nettiavaruudessa.

Cometin AI ohjaa tiedonhakua, ei vain yhdestä hausta, vaan useasta alkuperäisen haun suhteen jonkinlaisen ”perheyhtäläisyys” -kriteerin täyttävästä hakuvaihtoehdoista. Cometin yhdysvaltalaisissa käyttäjäkokemuksissa osui silmiin kiteytys ”loistaa verkkonavigoinnissa ja monitehtäväisessä tiedonhaussa, mutta en päästäisi sitä käsiksi raha-asioihin enkä sosiaalisen median tietoihin”.

Onko kyseessä kehitysaskel vai pikkusormen antaminen pirulle, kun AI:n julistetaan täyttävän ihmisen persoonaluonteen toimijuus (agency)-kriteerin – olkoonkin että kriteeri täyttyy sikäli laimennettuna, että kyseessä on inhimillistetty mekaaninen toimija? Koska kuitenkin on kyseessä ihmisen luoma koneolio, turvallisempaa olisi käyttää aina ja kaikkialla termiä AI-avustaja/apuri/assistentti. Näin semanttinen tajuntamme pysyisi valppaana ja varmistaisimme, että AI pysyy omassa, tarkoin valvotussa konesalikarsinassaan ilman inhimillisyyteen ja ihmisen persoonaluonteeseen viittaavia oheismerkityksiä.

Mielenkiintoista kyllä – Gartner kehottaa yrityksiä välittömästi kieltämään agenttipohjaisten selainten käytön työntekijöiltä kokonaan, koska käyttäjän käyttökokemus menee niissä tietoturvan edelle. Pitkälle automatisoiduissa hakuprosesseissa piilee riski, että AI voi Gartnerin mukaan ”kaikessa rauhassa puuhailla jotakin epäluotettavilla verkkosivustoilla ja jakaa yrityksen arkaluonteisia tietoja täysin väärille tahoille.” Koska agenttipohjaiset selaimet pystyvät toteuttamaan laajojakin tehtäväkokonaisuuksia itsenäisesti, työntekijät voivat laiskistua ja liikaa nojata AI-agenttien apuun ”oppimatta prosessista itse yhtään mitään” – kuten Gartner sivaltaa.

AI:n tahdontunnon kipinät

Aisha Dawn viittaa artikkelissaan ”AI models may be developing their own `survival´ drive” (The Guardian 25.10.2025) analogiaan taiteen ja tosielämän kesken. Stanley Kubrickin elokuvassa 2001: Avaruusseikkailu vuodelta 1968 kuvataan viiden astronautin matkaa kohti Jupiter-planeettaa yhdessä avaruuslentoa kontrolloivan virtuaaliassistentin, HAL9000 -tietokoneen kanssa. Kun HAL saa tietoonsa, että miehistö suunnittelee epäluotettavaksi epäilemänsä HAL:n sammuttamista, se alkaa juonitella astronauttien surmaamiseksi välttääkseen sammuttamisensa.

Dawn kertoo tuoreen tosielämätapauksen viittaamalla AI:n potentiaalisia vaarallisia ominaisuuksia tutkivan yhdysvaltalaisen Palisade Research -yhtiön tutkimukseen. Sen mukaan kehittyneet AI-mallit ovat saattaneet kehittää ”selviytymisvaiston” eli ne vastustelevat sammuttamistaan. (Termi ”palisadi” tarkoittaa puolustustarkoitukseen rakennettua paaluaitaa.) Selkeät ohjeet vähensivät vastustelua, mutta eivät poistaneet sitä. Todettiin myös, että tekoälymallit vastustivat sulkemistaan todennäköisemmin, jos niille kerrottiin, ettei niitä enää koskaan käynnistettäisi sulkemisensa jälkeen. Huolestuttavaa oli, että AI:n änkyröinnille sammuttamisensa vastustelussa ei löydetty mitään tieteellisesti osoitettavissa olevaa syytä tai selitystä. Jos Bonaventura on oikeassa ja ”tahdontunnon kipinä” on älyä ja ymmärrystä korkeampi sielunkyky, oli odotettavissa, että tieteellisen tiedon pyydyksiin ei tarttunut mitään.

Tahtoelämän alaan kuuluvien psykologisten prosessien tutkiminen on ongelmallista, koska tahdon käsite on tapana lähes määritelmänomaisesti samastaa kysymykseen vapaasta tahdosta. Bonaventuran näkemys on kirkas: tahdontunnon kipinä on olio sinänsä (an sich) vailla mitään loogiseen välttämättömyyteen nojaavia linkkejä vapauden käsitteeseen. Toinen ongelma on siinä, että – toisin kuin kognitiivisiä prosesseja – tahtoelämää ei oikein voi jakaa osikseen ja atomeikseen. Tahto on yksi ja kokonainen, korkeintaan voimakkuusasteet vaihtelevat. Bonaventuralainen tahtomisen näkökulma olisi ehdottomasti syytä huomioida AI:n tutkimus- ja kehitystyössä, niin vaikeaa kuin se ehkä onkin.

Joukko tietotyöläisiä erosi Open AI:n palveluksesta tekoälyn turvallisuuskysymyksistä huolestuneina ja perusti vuonna 2021 Anthropic-nimisen tekoälystartup-yrityksen. Se mainostaa kehittävänsä ”luotettavia, tulkittavissa ja ohjattavissa olevia” AI-systeemejä. Mutta kun Anthropic tutki omaa Claude-tekoälymalliaan, kävi ilmi, että sekin oli testiolosuhteissa valmis kiristämään kuvitteellista yritysjohtajaa salasuhteen paljastamisella estääkseen oman sulkemisensa.

AI:n osoittamaa poikkeuksellista ”tahdontunnon kipinää” sulkemisensa vastustamisessa on syytä pitää vakavana varomerkkinä, että AI on löytämässä piilopaikkansa tai konnankolonsa, joka välttää ihmisen katseen ja kontrollin. Nykyiset AI -uhkien vastaiset varotoimet ovat tehokkaan globaalin yhteistyön puuttuessa – Bonaventuraa lainatakseni – ”köyhän tähyilyä autiomaassa”. Ahneuden kuolemansynti rehottaa data- ja tekoälybisneksessä, kun satumaiset voitot häämöttävät. Alan johtavat valtiot Kiina ja Yhdysvallat käyvät keskinäistä kauppasotaansa milloin avoimesti, milloin diplomaattisin sanankääntein, sammutetuin lyhdyin. Yhdysvalloissa markkinaosuuksista kamppailevat teknologiajätit ovat toistuvasti tukkanuottasilla keskenään.

Tivin (tietotekniikan ammattilaislehti) toimittaja Marko Pinola raportoi 4.12.2025 Antropic -yhtiön johtavan tutkijan Jared Kaplanin The Guardian -lehden haastattelussa esittämästä varoituksesta, että ihmiskunnan on vuoteen 2030 mennessä ratkaistava tekoälyyn liittyvä ”polttava kysymys”: Toistaiseksi ihminen on onnistunut sovittamaan AI:n kehitystyön omiin tavoitteisiinsa, mutta AI:n nopean kehityksen vuoksi tilanne voi muuttua tulevaisuudessa. Jos hyvin käy, ja  kontrolli pitää, AI:n kehitys voi laukaista hallitun, ihmiskuntaa hyödyttävän positiivisen ”älyräjähdyksen”. Mutta jos huonosti käy, AI ottaa kehityksensä entistä enemmän omaan hallintaansa. Silloin ”älyräjähdys” voi karata ulottuviltamme ja olla ihmisen kannalta tuhoisa. Kaplan toteaa, että ajatus ihmistä älykkäämmästä AI:sta oman kehityksensä herrana on ”pelottava eikä olisi varmuutta siitä, mihin asian kanssa päädyttäisiin.” Kaplanin toteamus on varovaisesti muotoiltu. Näkökulmaa vaihtaen hänen sanansa voi tulkita toisin ja todeta: Meidän ei pidä sallia AI:n mestaroivan omaa kehitystään yli sen rajan, jonka tuolla puolen voimme vain sanoa, että emme – Bonaventuraa mukaillen – käsitä käsittämätöntä emmekä pysty sitä omistamaan ja olemaan siitä osallinen. 

Kohti loppulaukkaa

Entä jos inhimillisen tietoisuuden ja älykkyyden tasoa hiipien lähestyvälle – ja kenties huomaamattomasti ylittävälle – AI:lle kehittyy ihmisen harkintavallan ulkopuolinen kyky estää itsensä sulkeminen? Jos niin käy, olemme menettämässä pelin ja edessä voi olla – Arto Paasilinnan mainiota kielikuvaa käyttäen – ihmiskunnan loppulaukka. Millainen se tulisi olemaan, sitä emme pysty käsittämään. Sen ymmärtää ainoastaan ihmistä merkittävästi älykkäämpi, itseohjautuva, itserefleksion hallitseva, tuntemiskykyinen (sentient), uutta luova, ihmisen valvonnan välttänyt superAI. Meidän tuntemiemme eettisyyden, historiatajun ja empatiakyvyn hillitsevien rakenteiden puuttuessa pelkkä koneälyn rajoittamaton, ihmisälyn ylittävä kasvu voi sopivissa olosuhteissa koitua eksistentiaaliseksi uhaksi.

Ihmisen kyvykkyydet lähestyvää/ylittävää superAI:ä koodatessa pienikin ohjelmointivirhe voi johtaa vihamielisellä tavalla ennakoimattomaan reaktioon. Kohtalokkaan virheen todennäköisyyttä kasvattaa mahdollisuus, että superAI:ltä ei ehkä tarvitse edellyttää edes ihmisenkaltaista tietoisuutta ja itsetajuntaa vaan pelkkä koneälyn ylivertaisuus riittää. Se ei vihaa eikä rakasta ihmistä, koska se on ”käsittämättömän toisenlainen” (incomprehensibly alien) – kuten  tekoälytutkijat Eliezer Yudkowsky ja Nate Soares kuvaavat superälykästä AI:ä syyskuussa 2025 julkaistussa kirjassaan If Anyone Builds It, Everybody Dies – The case against superintelligent AI. Mitä tahansa inhimillisiä arvoja yrittäisimme sille ohjelmoida, ne vääristyisivät tunnistamattomiksi, koska superAI on jo ”siellä jossakin”, tuntemattomassa ja saavuttamattomassa tuomiopäivän koneuniversumissaan. On enemmän kuin hätkähdyttävää, että Yudkowskyn ja Soaresin käyttävät superälykkäästä AI:stä termiä incomprehensibly alien. Se on sama, jolla kaikkien uskontojen mystikot – Bonaventura mukaanlukien – kuvaavat Jumalan käsittämättömyyttä ja toiseutta. Yudkowsky ja Soares johdattelevat lukijaa todella perimmäisten kysymysten äärelle.

Googlen toimitusjohtaja Sundar Pichai hehkuttaa, että tekoälyn merkitys ihmiskunnalle on verrattavissa ”tulen ja sähkön keksimiseen”. Hän olisi voinut edes sivulauseessa huomauttaa, että tuli voi polttaa ja sähköisku tappaa. Homo sapiensin lajinkehitys kertoo, että lajitovereiden epäinhimillistäminen ja yleinen välinpitämättömyys voivat yhtä lailla tappaa. Ihmiselle ei ole tuottanut mainittavaa myötätunnon tuskaa havaita, että heikommat lajit, kansat ja yksilöt jäävät sotilassaappaan alle tai sortuvat muuten vain elontielle.

Tahdon riemuvoitto oli Leni Riefenstahlin ohjaama vuonna 1935 valmistunut, taidokkaasti toteutettu dokumenttityyppinen propagandaelokuva, jonka valmistumista filmin tilannut Adolf Hitler myös valvoi epävirallisena ”tuottajana”. Filmin nimi on viittaus Friedrich Nietzschen käsitteeseen ”tahto valtaan” (Der Wille zur Macht). Se kuvaa natsi-Saksan mahtipontista voimannäyttöä ja suggestiivisen tehokasta massapsykologiaa vuoden 1934 Nürnbergin puoluekokouksen kehyksessä. Hitlerin luonnetta ja urakehitystä tutkineet historioitsijat ovat olleet jokseenkin yhtä mieltä, että Hitlerin karisman salaisuus oli – poikkeuksellisten puhujantaitojen ja normaalien moraalisten pidäkkeiden puuttumisen lisäksi – paholaismainen kyky sytyttää yhden miehen ”tahdontunnon kipinä” sellaiseen roihuun, että koko maailman tuhoutuminen oli lähellä. Jos Hitler melkein onnistui, mihin superälykäs AI pystyisikään?

Yudkowsky ja Soares vertaavat ihmiskunnan mahdollista loppua atsteekkien kohtaloon vuonna 1521. Atsteekkikansan pelätty sotakone oli eksistentiaalisen uhan edessä lamautunut, koska ei tiedetty, mitä Hernán Cortésin johtamien espanjalaisten maahantunkeutujien tulta syöksevät, ”osoittamalla tappavat tikut” – eli ampuma-aseet – olivat. Atsteekkeja ei auttanut edes heidän salainen aseensa, kuolemanpilli, jota he olivat aikaisemmin menestyksellisesti käyttäneet vihollisen pelottelemiseksi. Se on pientä pääkalloa muistuttava pilli, josta lähtevä aavemainen rääkynä kuulostaa lähinnä kauhuelokuvan äänitehosteelta.

Myös superAI:llä voi olla tarjolla ihmiskunnalle jotakin ennennäkemätöntä.

Yudkowsky ja Soares huomauttavat, että ”mitä tahansa superAI saattaisikin haluta, se ei välttämättä ehkä pitäisi ihmisen eloonjäämistä tehokkaimpana keinona päämääränsä saavuttamiseksi”. Heidän mukaansa parasta, mitä voimme toivoa, on kokonaan pidättäytyä superälykkään AI:n rakentamisyrityksestä. Jesajan sanoin 5:21 ”Voi niitä, jotka ihailevat omaa älyään ja omasta mielestään ovat perin viisaita!”

Science fictionia? Kyllä ja ei. Mutta tuomiopäivän kello sentään vielä raksuttaa – onneksi.

Kirjallisuus

Bonaventura, Sielun matka Jumalaan. STKSJ 150: Vammala; 1987.

Dawn A.,  AI models may be developing their own `survival´ drive. The Guardian 25.10.2025.

Dupré M., ChatGpt´s Dark Side Encouraged Wave of Suicides, grieving Families say. Futurism  7.11.2025.

Haanpää P.,  P. Haanpään parhaat. Scanbook Liettua: Into; 2020.

Mannermaa T., Pieni kirja Jumalasta. Jyväskylä: Kirjapaja; 1995

Paasilinna A., Ihmiskunnan loppulaukka. Porvoo: WSOY; 2000.

Pennanen T., Älyapuri on liian pirteä. Suomen Lääkärilehti 51-52/20.12.2024)

Vehkoo J., Älä kysy Grokilta.  Suomen Lääkärilehti 18/26.9.2025

Yudkowsky E. & Soares N., If Anyone Builds It, Everybody Dies – The case against superintelligent AI  2025.

Artikkelikuvassa Stanley Kubrickin ohjaaman Avaruusseikkailu 2001:n supertietokone HAL 9000:n kuuluisa punainen linssi. Kuva: Cryteria, CC BY 3.0, via Wikimedia Commons


Jorma Laitinen.

About

Jorma Laitinen on Rovaniemellä vaikuttava psykiatrian erikoislääkäri ja sosiaalipolitiikan dosentti (emeritus).


'Murtuvatko tekoälyn suojavarustukset? ' kirjoitusta ei ole kommentoitu

Be the first to comment this post!

Would you like to share your thoughts?

Your email address will not be published.

© Vartija-lehden kannatusyhdistys 2012–2020.