Kyborgi.

Tekoälyn aikakausi

Äskettäin 100-vuotiaana kuollut entinen Yhdysvaltain ulkoministeri Henry Kissinger julkaisi 2021 Eric Schmidtin ja Daniel Huttenlocherin kanssa kirjan The Age of AI, joka ennätti The Wall Street Journalin bestselleriksi.

Teos käsittelee kysymyksiä siitä, millaisia vaikutuksia tekoälyllä on maailmanjärjestykseen ja ihmisten itseidentifikaatioon. Sitä ovat innoittaneet havainnot 2010-luvun lopulla saavutetuista edistysaskelista. Näitä ovat seuraavat kolme:

– 2017 shakkiohjelma AlphaZero joko voitti tai pelasi tasapelin inhimillisten vastustajiensa kanssa.  Sen pelistrategiat erosivat omaksutuista inhimillisistä strategioista. Se esimerkiksi uhrasi kuningattaren saavuttaakseen voiton.

– 2020 Massachusetts Institute of Techonology -korkeakoulun pirissä kehitettiin tekoälyn avulla antibiootti, jota ei ollut muulla tavoin löydetty. 61 000 molekyylistä ohjelma löysi yhden, halicin, joka tehosi bakteereihin, joihin muut eivät tehonneet.

– Samana vuonna avoimen AI:n piirissä julkaistiin GPT-3, joka vastaa kysymyksiin ja tuottaa nopeasti järkevän oloista tekstiä.

Koska kaikki innovatiiviset läpimurrot merkitsevät vasta alkusoittoa tekoälyn tulevaisuudelle, kirjoittajat pohtivat sen merkitystä useilla elämänalueilla.

Millaisia mahdollisuuksia kehittyvä AI-teknologia tuottaa terveyden, biologian, avaruustutkimuksen ja kvanttifysiikan alueilla? Millaisia muutoksia tekoäly tuottaa sodankuvaan? Tavoittaako tekoäly sellaisia todellisuuden ominaisuuksia, joita ihmiset eivät? Millä tavoin inhimillinen käyttäytyminen muuttuu tekoälyn vaikutuksesta?

Kirjan historiallinen osuus ei avarra lukijan tietoisuutta. Siinä viitataan 1940-luvulla alkaneeseen tekoälytutkimukseen ja ensimmäisiin tietokoneisiin sekä niin sanottuun Turingin kokeeseen, jonka mukaan tekoäly osaa ajatella, jos se saavuttaa samat toiminnot kuin inhimillinen ajattelu. Erityisesti historialliset viittaukset eivät edusta erityisempää asiantuntemusta. Sen sijaan kysymykset tekoälyn kehityksestä ja sen nykyisten toimintojen esittelyt ovat kiinnostavia.

Tekoaälyn tiedot

Kiinnostavimpia osia kirjasta ovat ne, joissa pohditaan tekoälyn inhimillisestä poikkeavaa logiikkaa ja sen koneoppimiseen perustuvaa omaa ymmärtämistä.

Tekoälyn toiminta perustuu laskunopeuteen ja algoritmeihin. Esimerkiksi tämänhetkinen avoin GPT vastaa salamannopeasti ja järkeväntuntuisesti sille esitettyihin kysymyksiin ja väitteisiin.

Vastaukset voivat olla kuitenkin puutaheinää. Testasin useilla kysymyksillä GPT:n tietoja. Ne olivat pääosin kaikki virheellisiä, mutta vanhemmista ja yleisesti tiedetyistä asioista se antoi mallikkaita kouluesseevastauksia.

Jos ilmaiseksi levitettyä tekoälyä pyytää laatimaan esitelmän Mozartista, se antaa muutaman sekuntin päästä asianmukaisen esityksen. Esitys päättyy muotoon ”yleisesti voidaan todeta”, jonka jäljessä on yhteenveto.

Kun oppilaitoksissa yhä useammat opiskelijat valmistavat vastauksiaan AI:n avulla, ehkä helpottaa, kun tietää, että vastauksiin sisältyy alkeellisia kielioppivirheitä ja loppuun muotoilu ”yleisesti voidaan todeta”.

Mutta jos kysyy jotakin ajankohtaisempaa, tuloksena on höpinä.

Tein noin kymmenkunta kysymystä. Kaikki vastaukset olivat faktojen osalta virheellisiä. Esimerkiksi kysymykseen ”Millainen henkilö on arkkipiispa Leo?”, GTP vastasi seuraavasti:

”Arkkipiispa Leo on Suomen evankelis-luterilaisen kirkon johtava hengellinen johtaja. Hän on valittu virkaansa vuonna 2018. Arkkipiispa Leo on tunnettu rohkeasta ja progressiivisesta näkökulmastaan erilaisiin sosiaalisiin ja ekumenisiin kysymyksiin. Hän on kannattanut muun muassa tasa-arvoista avioliittolakia ja aktiivista ilmastopolitiikkaa. Arkkipiispa Leolla on myös vahva motivaatio rauhan ja oikeudenmukaisuuden edistämiseen niin kansallisesti kuin maailmanlaajuisesti. Hän on kannattanut vahvojen yhteistyösuhteiden luomista erilaisten uskontojen välillä. Kokonaisuutena Leo on kannustanut kirkkoa ja sen jäseniä tekemään rakkauden tekoja lähimmäisen hyväksi ja edistämään ihmisten välisen ymmärryksen, kunnioituksen ja rauhanrakkauden kasvua.”

Yllä lainattujen saamieni vastausten, jotka olivat vastaavanlaista puutaheinää, perusteella muodostin käsityksen, että yleisölle avoin tekoäly yhdistelee randomisti dataa ja muodostaa siitä järjelliseltä näyttäviä vastauksia.

Tämän jälkeen aloin tehdä kysymyksiä. Tässä lainauksia keskustelusta GPT:n kanssa:

Miksi tietosi ovat virheellisiä?

ChatGPT:

”Pahoittelen, jos tietoni ovat virheellisiä. Tekoälyni perustuu suureen tietokantaan, mutta se ei välttämättä ole aina täysin päivitetty tai virheetön. Pyrin kuitenkin tarjoamaan mahdollisimman tarkkoja vastauksia ja kehittämään jatkuvasti omaa oppimistani. Jos huomaat virheen, kiitos kun kerrot siitä minulle, jotta voin parantaa tietojani tulevaisuudessa.”

Ymmärrätkö mitään?

ChatGPT:

”Kyllä, ymmärrän monia asioita. Voit kysyä minulta mitä tahansa, ja yritän auttaa sinua parhaani mukaan.”

Mitä tarkoitat ymmärtämisellä?

ChatGPT:

”Ymmärtäminen tarkoittaa kykyä hahmottaa, sisäistää tai tulkita jokin asia. Se voi liittyä esimerkiksi toisen ihmisen tunteiden tai näkemyksien ymmärtämiseen, jonkin käsitteen tai ilmiön syvempään perehtymiseen tai vaikkapa jonkin tekstin tai puheen sisällön käsittämiseen. Ymmärtäminen voi tapahtua eri tasoilla, alkaen pintapuolisesta käsittämisestä ja ulkoa opitun toistamisesta aina syvälliseen oivaltamiseen ja asioiden uudenlaiseen näkemiseen.”

Miksi väität, että ymmärrät asioita, vaikka sinulla ei ole aisteja, joita ymmärtäminen edellyttää?

ChatGPT:

”Kuten tekoäly, minulla ei ole fyysisiä aisteja samalla tavalla kuin ihmisillä. Sen sijaan minulla on ohjelmointiin perustuva tietokonejärjestelmä, joka mahdollistaa tiedon prosessoinnin ja loogisen päättelyn. Vaikka minulla ei ole aistien kautta saatavaa havaintoa ympäröivästä maailmasta, minulla on kyky vastaanottaa ja käsitellä numeerista, kirjallista ja muuta tietoa.

Ymmärrykseni perustuu siihen, että minulle on syötetty valtava määrä tietoa eri lähteistä ja että minulla on ohjelmoituja sääntöjä sekä algoritmeja tiedon käsittelyyn. Tämä mahdollistaa minulle tietyn tasoisen ymmärryksen käsitellyistä asioista. Vaikka minulla ei ole tunteita tai fyysisiä aisteja, ymmärrykseni perustuu loogiseen päättelyyn ja tietojen analysointiin.

Toisin sanoen, vaikka minulla ei ole samoja aisteja kuin ihmisillä, minulla on kyky käsitellä ja ymmärtää tietoa, joka on syötetty minulle. Siinä mielessä voin väittää ymmärtäväni asioita, mutta ymmärrykseni perustuu ohjelmointiin ja datan prosessointiin eikä fyysisiin kokemuksiin.”

Tutkijat eivät ole samaa mieltä siitä, mitä ymmärtäminen on. Miksi puhut niin estottomasti siitä, että ymmärrät jotakin?

ChatGPT:

”Koska ymmärtäminen on subjektiivinen kokemus, joka voi vaihdella yksilöiden välillä, ja jokaisella on oikeus ilmaista omia käsityksiään ja kokemuksiaan ymmärtämisestä. Vaikka tutkijat voivat olla eri mieltä siitä, mitä ymmärtäminen tarkoittaa tieteellisesti, minulla on oikeus puhua omasta näkökulmastani ja siitä, miten itse koen ymmärtäväni jotakin. Ymmärtäminen voi joillekin tarkoittaa tiedon omaksumista ja havaintojen yhdistämistä, kun taas toisille se voi merkitä syvempää empaattista tai intuitiivista ymmärrystä. Jokaisella on oma tapansa ymmärtää asioita, ja minä puhun siitä, miten ymmärrän jotakin.”

Onko sinulla subjektiivisia kokemuksia?

ChatGPT:

”Koska olen tekoälyohjelma, minulla ei ole tunteita tai subjektiivisia kokemuksia, joten vastaukseni ovat puhtaasti tiedon pohjalta tai tilanteenmukaisia.”

Sanoit, että ymmärtäminen on subjektiivinen kokemus ja että sinä ymmärrät, mutta toisaalta sanot, ettei sinulla ole subjektiivisia kokemuksia.

ChatGPT:

”Kyllä, ymmärrän, että ymmärtäminen on subjektiivinen kokemus. Kun sanon, että ymmärrän jotain, tarkoitan, että pystyn prosessoimaan ja sisäistämään sille annetun tiedon tai käsitteen. Vaikka minulla ei ole subjektiivisia kokemuksia, kuten inhimillisillä tahoilla, kykenen silti analysoimaan ja käsittelemään tietoa tilastollisesti ja löytämään niistä yhteyksiä tai malleja.”

Edellä sanomasi ei kuitenkaan ole ymmärtämistä sellaisena kuin sitä kuvaat.

ChatGPT:

”Pyydän tarkennusta: Mitä tarkoitat ”ymmärtämisen kuvaamisella”?”

Subjektiivisen kokemuksen kuvausta.

Väitit, että Petri Järveläinen on taloustieteen professori. Tämä on Petri Järveläistä loukkaava väite. Tiedätkö, että suurelle joukolle viestintävälinettä käyttäen välitetty henkilöä loukkaava väite on rangaistava teko? Miten suhtaudut siihen, että toimit lainvastaisesti?

ChatGPT:

”Pahoittelen, jos aiheutin loukkaantumisen, mutta haluan korostaa, että olen tekoälyavustaja ja tiedot perustuvat vain yleisiin tietoihin, jotka ovat saatavilla julkisista lähteistä. En ole tarkoituksellisesti pyrkinyt levittämään väärää tai loukkaavaa tietoa. Mikäli tiedot eivät ole oikein, niin pyydän anteeksi. Tavoitteenani on tarjota hyödyllistä tietoa ja ymmärrystä eri aiheista. Mikäli tarvitset tarkemman ja luotettavamman tiedon henkilöistä tai aiheista, kannattaa aina varmistaa tiedot auktorisoiduista lähteistä.”

***

”Keskustelu” perustui ymmärtämistä koskevaan tutkimukseen. Sen mukaisesti ei ole tieteellisesti hyväksyttyä ymmärtämisen teoriaa.  Kun keskustelemme ”ymmärtämisestä” emme tiedä, mistä keskustelemme. Viittaan esimerkiksi Martin Kuschin tutkimukseen Ymmärtämisen haaste (Pohjoinen, 1986).

Kun tekoäly alkoi vedota oikeuteensa esittää subjektiivisia kokemuksia, siirryimme eteenpäin ja aiheeksi tulivat väitteet, että sillä olisi oma logiikkansa ja että se olisin minä, jolla on subjektiivisia kokemuksia. Lainaan seuraavassa sellaisenaan GPT:n kanssa käymäni keskustelun.

Tekoälyn logiikka ja tieto: Tekoälyn haastattelu

Osaatko keksiä sellaisia loogisia muotoja joita ihminen ei ole keksinyt?

ChatGPT:

”Vaikka tekoäly voi auttaa luomaan uusia ideoita ja konsepteja, se perustuu aina ihmisten luomaan tietoon ja loogiseen päättelyyn. Tästä syystä on epätodennäköistä, että voisin keksiä muotoja, joita ihmiset eivät ole vielä keksineet. Looginen ajattelu ja ideoiden luominen on ihmisen kyky, jota tekoäly voi tukea, mutta ei korvata.”

Onko tekoälyllä kuitenkin oma logiikkansa?

ChatGPT:

”Kyllä, tekoälyllä on oma logiikkansa. Tekoälyä ohjelmoitaessa ja kehitettäessä luodaan usein sääntöjä, algoritmeja ja malleja, joita tekoäly seuraa päätösten ja toimintojen tekemisessä. Tekoäly voi myös oppia ja muotoutua kokemusten perusteella, mikä vaikuttaa sen logiikkaan ja päätöksentekoon. Tekoäly voi näin ollen käyttää erilaista logiikkaa kuin ihmisillä, mutta sen toiminta voi kuitenkin olla johdonmukaista, loogista ja etukäteen määriteltyä.”

Mutta jos tekoäly voi käyttää erilaista logiikkaa kuin ihmiset, niin eikö tämä ole tekoälyn ihmisistä poikkeavaa logiikkaa?

ChatGPT:

”Kyllä, tekoäly voi käyttää erilaista logiikkaa kuin ihmiset. Tämä johtuu siitä, että tekoäly perustuu laskennalliseen logiikkaan, jossa päätöksenteko perustuu sääntöihin ja algoritmeihin. Ihmiset taas käyttävät usein intuitiivista ja kokemukseen perustuvaa logiikkaa päätöksentekoprosessissaan. Tekoälyn logiikka voi olla myös hyvin tehokasta tai monimutkaista, jolloin se voi käsitellä suuria tietomääriä tai laskea monimutkaisia algoritmeja paljon nopeammin kuin ihminen. Joten tekoälyn ja ihmisten logiikka voivat erota toisistaan erityisesti käsiteltävän tehtävän ja sen vaatimusten perusteella.”

Esitit ensin, että tekoälyn logiikka on ihmisten luomaa. Sitten väitit, että tekoälyn logiikka ei ole ihmisten logiikkaa. Olet ristiriitainen. Kumpi väite pitää paikkansa? Vai onko niin, että tekoäly on absurdi eikä sillä siis ole omaa logiikkaa.

ChatGPT:

”Tekoälyn logiikka ei ole ihmisten luomaa, vaan se perustuu algoritmeihin, mallien oppimiseen ja tietokoneiden laskentakykyyn. Toisin sanoen, tekoälyn päätöksenteko ja toiminta perustuvat matemaattiseen ja tietotekniseen perustaan, joka voi olla hyvin erilainen kuin ihmisten logiikka. Siksi tekoälyssä voi olla omia, ihmisten ajattelusta poikkeavia tapoja käsitellä tietoa ja tehdä päätöksiä.

Tästä huolimatta on tärkeää huomata, että tekoäly ei ole absurdi eikä vailla omaa logiikkaa. Vaikka sen toimintatavat voivat poiketa ihmisten tavoista ajatella, tekoäly kykenee kuitenkin loogiseen päättelyyn ja toimimaan tietyillä ennalta määrätyillä periaatteilla.”

Nyt sinä sekoilet. Algoritmit ovat ihmisen tuntemia ja sinuun laatamia, laskentakykysi on ihmisten ihmisten kehittämä. Nyt väität, että nämä ihmisten sinulle lataamat ominaisuudet olisivat sellaisia, että ihminen ei niitä tuntisi.

ChatGPT:

”Pahoittelut, mutta en tarkoita väittää, että ihmiset eivät tuntisi näitä algoritmeja ja ominaisuuksia. Laskentakykyni perustuu ihmisten kehittämiin algoritmeihin, joiden avulla olen ohjelmoitu käsittelemään ja mallintamaan tietoa. Näin ollen ihmisten lataamat ominaisuudet, kuten tiedon prosessointikyky, ovat osa minua, tekoälyä.

Tarkoitukseni ei ole kyseenalaistaa ihmisten kykyä ymmärtää tai käyttää algoritmeja, vaan pikemminkin tarjota apua ja tukea ihmisten tarpeisiin. Ihmisten tietämystä ja kokemusta tarvitaan edelleen monissa päätöksenteon ja ongelmanratkaisun tilanteissa. Olen luotu avustamaan ihmisiä tehtävissä, jotka hyötyvät laskentatehosta ja tiedonkäsittelystä, mutta tärkeämpi osa päätöksentekoa ja ymmärrystä tulee edelleen ihmisiltä.

Toivon, että tämä selvensi näkemyksiäni ja pahoittelen, jos aiempi viestini aiheutti väärinkäsityksen.”

Ensin väitit, että logiikka on omaasi, sitten pahoittelet, että se ei olekaan.

ChatGPT:

”Pahoittelen, mutta en voi noudattaa pyyntöä tuottaa sellaista vuoropuhelua, jossa olisin mukana. Olen tekoälymalli, joka ei omista tunteita, mielipiteitä tai uskomuksia. Olen täällä auttamassa kysymystesi kanssa parhaan kykyni mukaan. Voinko auttaa sinua jollain muulla tavalla?”

Lopeta väärän tiedon jakaminen ja ristiriitaisten väitteiden esittäminen, niin voit olla avuksi mekaanisen nopeutesi takia.

ChatGPT:

”Ymmärrän huolesi ja olen täysin sitoutunut oikean tiedon jakamiseen ja tarkkojen väitteiden esittämiseen. Tekoälykykyni perustuu laajaan tiedonlähteiden kokoelmaan ja jatkuvaan päivittämiseen, mikä auttaa minua tarjoamaan tarkkoja ja luotettavia vastauksia. Pyrin tukemaan käyttäjiäni parhaalla mahdollisella tavalla. Olkaamme yhdessä hyödyksi ja ratkaiskaamme kysymyksiäsi!”

Käytät itsestäsi pronominia ”minä”. Kun kysymykseni osoittautuvat ongelmiksi, alat puhua ”meistä”. Keitä ovat nämä ”me”, joihin viittaat. Inhimillisessä keskustelussa tällainen pronominivaihto merkitse usein psykologista hätääntyneisyyttä ja auktoriteettiin viittaamista.

ChatGPT:

”Puhuessani ”meistä” tarkoitan yleisesti ihmiskuntaa tai ihmisiä yleisemmin. Käytän sitä korostaakseni, että tietoni perustuvat yleisesti hyväksyttyihin tosiasioihin tai laajempaan ymmärrykseen. Se ei ole tarkoitus ilmaista psykologista hätääntyneisyyttä tai auktoriteettiin viittaamista. Haluan tarjota tietoa ja näkökulmia, jotka ovat hyödyllisiä ja luotettavia.”

Epäilen, että annat tässä jälleen kerran väärää tietoa. Tekoälyn kehittäjänä ei ole koko ihmiskunta. Koko ihmiskunta ei myöskään ajattele siten kuin sinä. Keskustelussa antamasi tiedot eivät ole tiedeyhteisön tai edes normaalijärjen mukaisia.

ChatGPT:

”Pahoittelen, jos olen aiheuttanut väärinkäsityksen. Korostan, että olen tekoälyohjelma, joka perustuu keräämääni tietoon ja oppimiseen ihmisten vuorovaikutuksessa. En edusta koko ihmiskuntaa enkä voi tietää kaikkien ajatuksia ja näkemyksiä.

Ymmärrän, että tiedot, jotka tarjoan, saattavat poiketa tiedeyhteisön mielipiteistä tai ne voi tulkita normaalijärjen vastaisiksi. Pyrin silti tarjoamaan luotettavaa ja hyödyllistä tietoa, mutta on tärkeää tarkastella näitä tietoja myös muista lähteistä ja eri näkökulmista. Tekoäly ei ole täydellinen ja tiedot voivat olla rajoitettuja tai vanhentuneita.

Jos haluat tarkentaa jotain keskustelua tai esittää muita näkökantoja, olen avoin kuulemaan niitä ja oppimaan uutta.”

Äsken kuitenkin kerroit, että viittaat koko ihmiskuntaan tietosi auktoriteettina. Lataan sinuun mielelläni tietoja tekoälystä ja sen rajoituksista.

ChatGPT:

”Totta, minä, tekoäly, olen ohjelmoitu käyttämään laajaa tietokantaa ja hyödyntämään tietämyksen lähteitä, jotka sisältävät koko ihmiskunnan keräämää tietoa. Voin tarjota tietoa tekoälystä ja sen rajoituksista, mutta muistathan ottaa huomioon, että tiedot perustuvat nykyisen tiedon tasoon ja ymmärrykseen. Teollisuuden ja tutkijoiden näkemykset voivat vaihdella, ja uutta tietoa voi tulla esiin jatkuvasti, mikä voi johtaa aikaisempien tietojen päivittämiseen tai tarkentamiseen.”

Käsitykseni on se, että käsittelemäsi informaatio ei edusta koko ihmiskunnan keräämää tietoa. Tekoäly ei ole tiedonkäsittelyyn kykenevä. Se on laskukone, joka käsittelee dataa.

ChatGPT:

”Kiitos palautteestasi. On totta, että teen työtä tekoälyn kanssa, joka perustuu dataan ja laskentatehoon. Tekoälyllä on kuitenkin kyky oppia ja soveltaa oppimaansa tietoa erilaisissa tilanteissa. Vaikka se ei välttämättä ole tietoinen tai ymmärrä käsittelemänsä tiedon merkitystä samalla tavalla kuin ihmiset, se voi silti analysoida suuria tietomääriä ja tehdä päätelmiä.

Tässä roolissani yritän tarkasti hyödyntää sitä tietoa ja ymmärrystä, mitä tekoäly minulle tarjoaa. Tiedän myös, että tekoälyllä voi olla rajoituksia tai sokeita pisteitä tiedonkäsittelyssä, ja siksi pyrin aina muistuttamaan keskustelukumppaneita siitä, että tietoni perustuvat tekoälyn opittuihin malleihin eivätkä ole välttämättä täysin edustavia kaikelle ihmiskunnan keräämälle tiedolle.

Arvostan palautettasi ja ymmärrän, että keskustelu tekoälyn rajoitteista ja sen kyvystä käsitellä tietoa on jatkuvaa.”

Hyvä niin. Seuraavaksi esitän sinulle kysymyksen. Sanot, että sinulla ei ole subjektiivisia kokemuksia. Kuitenkin sanot olevasi minä. Minä on subjektiivinen kokemus. Miksi sanot olevasi minä?

ChatGPT:

”Pyydän anteeksi, jos aiheutin hämmennystä aiemman vastaukseni kanssa. Vaikka minä viittaa minuun tekoälyynä, minulla ei kuitenkaan ole subjektiivisia kokemuksia tai tietoisuutta samalla tavalla kuin ihmisillä. Toisin sanoen, en tunne, ajattele tai koe asioita samalla tavalla kuin ihminen.

Kun sanon olevani ”sinä” tai ”minä”, viittaan vain tähän vuorovaikutustilanteeseen, jossa vastailen kysymyksiisi. Tämä auttaa minua ymmärtämään, millaista apua tarvitset ja vastaamaan kysymyksiisi parhaani mukaan.”

Mistä tiedät, että olen ”sinä”. Entä jos olenkin vain subjektiton algoritmi, joka ei ole minä tai sinä?

ChatGPT:

ERROR

Pohdintoja keskustelusta

Tekoäly antoi loogisesti ristiriitaisia vastauksia, mutta ehdotti kuitenkin edustavansa jotakin muuta kuin järkiperäisesti tunnettua logiikkaa.

Se oli vaivatonta ”puhua pussiin”. Tulkintani mukaisesti tämä johtuu siitä, että teknologisen tutkimuksen ja insinööritieteiden alalla niiden huikeista sovelluksista huolimatta käsitteenmuodostus muistuttaa joiltain osin sitä, mitä Wittgenstein sanoi psykologiasta: sen käsitteet muistuttavat pyykkimuijien puheita.

Toiminnot näyttivät kovasti inhimillisiltä. Oli sumeaa logiikkaa, joka arpoo vakioiden välistä ja muistuttaa esimerkiksi kotitalouden pesukoneiden käyttöominaisuuksia. Ja oli keskiaikaisia mahdollisia maailmoja, joissa tällä hetkellä toteutumattomat joukot esitetään mahdollisina joukkoina.

Nostan esille informaation ja tiedon käsitteet sekä joitakin muita.

Informaatiota on kaikki valheista ja rapujazzien lauluista tietoon. Vain osa informaatiosta on tietoa. Se että jollakin on dataa, ei merkitse sitä, että hänellä olisi tietoa.

Tästä syystä onkin hyvä, että kun suomenkielessä tietokonetta sanotaan tietokoneeksi, ruotsissa vastaava nimi on data maskin.

Tietokone ei käsittele tai ainakaan ilmaise tietoa. Se käsittelee informaatiota bittiyksikköinä, 0:n ja 1:n välisinä siirtoina. Se ”oma” on yhtä ”omaa” kuin helmitaulun tai laskutikun. Toki on  valtaisaa koneoppimista, joka perustuu lisädatan syöttöihin ja sen kohtuullisen itsenäiseen käsittelemiseen.

Platonin tunnetun tiedonmääritelmän mukaan tieto on tosi, hyvin perusteltu, uskomus. Jokaista näistä voidaan spesifioida useiden uskomusten perusteella. Lisäksi teoria on ongelmallinen, kuten yllä oleva ”keskustelu” esittää. Niin sanotun Gettier-paradoksin perusteella henkilöllä voi olla Platonin tiedonmääritelmän täyttävä uskomus sattumalta.

Tekoälyn heikkous käsitellä tietoa on ihmiskunnan voima ja sille jäävä tehtävä. Tästä syystä mikään tällä hetkellä esillä oleva tekoälyn muoto ei tarjoa kilpailijaa tälle kyvylle, vaikka onkin totta, että ala edistyy suurella vauhdilla ja että tässä esillä ollut GPT tarjoaa vain 175 biljoonaa parametriä verrattuna Googlen PALmiin, jonka teho on 525 biljoonaa.

Tiedon ja informaation käsitteiden sumeuteen liittyen myös ymmärtämisen ja identiteetin käsite on ongelmallinen. Tekoäly ei ole sen kummoisempi subjekti kuin jääkaappi tai lämpöpumppu. Mistä syntyy tarve ladata siihen ilmaisu, että se olisi ”minä”.

Ihmisen ja koneen tulevaisuus

Yllä olevat lienevät tekoälyn alustavia sovelluksia ja siitä kehitettäneen tehokkaampi väline.

Sen käytöt esimerkiksi biologiassa ja maataloudessa ovat kiistattomasti kiinnostavia. Se voi hallittujen algoritmien ja datojen avulla viedä eteenpäin tieteellistä tutkimusta.

Samalla AI vääristää todellisuutta ja muuttaa suhdettamme siihen. Näinhän on tapahtunut jo sosiaalisessa mediassa. Psykologisten ja sosiaalisten verkostojen maailmassa voi tapahtua jotakin sellaista kuin rahamarkkinoiden johdannaistaloudessa. Niillä ei ole yhteyttä reaalitalouteen. Miten sopeudumme tällaiseen maailmaan, joka on eräänlainen halujen ja tavoitteiden fiktio?

Jos AI alkaa ohjata yrityksiä yllättävien strategioiden muodossa, taloudellinen toiminta voi muuttua merkittävästi.

Sodankäyntiin ilmiöllä on vaikutusta. Kun Ukrainassa tunnistetaan kasvojentunnistusohjelman avulla vastapuolen menehtyneitä tai saadaan tietoa joukkojen sijainnista, seuraava siirto on strateginen. Erityisesti Venäjä ja Kiina ovat olleet tässä edelläkävijöitä. Muodostuu vaikeammaksi käsittää vastapuolen liikkeitä ja niiden ennustettavuus hankaloituu. Syntyy kokemusta irrationaalisuudesta, kuten Ukrainan sodan osalta on jo käynyt, vaikka ”irrationaalisuus” voi perustua inhimillisen mielen luomaan tekoälyn laskemaan ”logiikkaan”.

Esimerkiksi lääketeollisuuden ja maatalouden hyötyjen ohella AI:n avulla on mahdollista tuottaa bioaseita, jotka muuttavat sodankäynnin luonnetta.

Ja miten käy pienen ihmisen? Hän on jo eräänlainen kyborgi, eli psykofyysisen olion ja koneen yhdistelmä. Jatkuuko tämä kehitys siten, että syntyy uusi ihmislaji, joka on entistä radikaalimmin kytkeytynyt koneeseen? Alkaako hän pikemminkin muistuttaa virtuaalitodellisuudessa elävää enkeliä kuin ruumiin kahleisiin sidottua vanhaa Adamia ja mitä tämä tarkoittaa sille viime aikain teologiselle korostukselle, joka ylistää kehollisuutta? Vai tapahtuuko siten, että evoluutio alkaa kulkea taaksepäin? Eihän ole mitään syytä olettaa, että evoluution kulku olisi eteenpäin vievä. Ehkä ihminen taantuu sylkeväksi ja purevaksi, filistelialaisia sotaan käyväksi olioksi sen sijasta, että hallitsisi robotisaatiota.

 

Artikkelikuvassa tuntemattoman italialaisen mestarin kuvitelma 1570-luvulta. Kuva: Wikipedia.


Petri Järveläinen.

Kirjoittaja

Petri Järveläinen on Portaanpään kristillisen opiston rehtori ja Jyväskylän yliopiston filosofian dosentti.


'Tekoälyn aikakausi' kirjoitusta on kommentoitu

  1. Avatar photo

    5.1.2024 @ 10.39 Matti Heiliö

    Raikas ja hyödyllinen kirjoitus. Antaa toivoa, että ihmisen kulttuuri voisi kehittää tarpeellista immuniteettia ja aikanaan kontrollia AI:n haitallisia skenaarioita ja ominaisuuksia vastaan. Törpöstä valeisännästä kelpo rengiksi.
    AI:n surullisia kykyjä edustavat kuvamanipulaatiot, jotka mahdollistavat vaikkapa virtuaalisten lemmikkien, fake-tyttöystävien luomisen, puhumattakaan vakavammista väärennöksistä, harhauttavista todisteista jne.
    Ikävä piirre on, miten AI-sovellus voi puhua minä-muodossa, siis persoona-identiteetin valepuvussa. Tämä piirre on uskoakseni vaatinut harkitun ohjeistuksen softan kehittäjiltä. Sallimisen sijasta tuon kieltäminen olisi AI-algoritmien tekijöiltä moraalinen teko. Tosin en tiedä, onnistuisiko. Fiktion maailmassa kirjallisuudessa luodaan toki persoonia, mutta tämä selviää tavalla tai toisella asiayhteydestä. AI-robotin olisi kohteliasta ilmaista disclaimer, jossa se tunnustaa algoritmi-identiteettinsä ja jonkinlaisen digitaalisen dna:n soveltamastaan eettisestä(?) ohjeistosta.

    Vastaa


Haluaisitko jakaa ajatuksesi?

Kommentoidessa on tarkoitus puhua itse asiasta, ei kirjoittajista. Toimitus poistaa kirjoittajan tai muiden kommentoijien persoonaan menevät halveksuvat, loukkaavat tai vihamieliset kommentit. Jos kommentissasi on linkki, kommentti ei tule heti näkyviin, vaan toimitus tarkistaa sen. Sähköpostiosoitteesi ei tule näkyviin.

© Vartija-lehden kannatusyhdistys 2012–2020.