Vuosi sitten marraskuussa kohistiin tekoälyuutuudesta Chat GPT:sta. Vuorovaikutteiseen keskusteluun kykenevä Chat GPT hämmästytti monimutkaisilla vastauksillaan ja helppokäyttöisyydellään. Mediatila alkoi tulvia tekoälyn kirjoittamia pääkirjoituksia, pakinoita ja kolumneja.
Tietotyöläiset huolestuivat työpaikkojensa puolesta. Goldman Sachsin ekonomistit arvioivat, että liki puolet hallintohenkilöstöstä ja juristeista Euroopassa ja Yhdysvalloissa on vaarassa menettää työpaikkansa tekoälylle. Näin tekoäly vei työni, tilitti kirjoittaja Olivia Lipkin San Fransiscosta.
Myös tiedeyhteisö on ollut huolissaan. Keväällä yli tuhat tutkijaa ja elinkeinoelämän edustajaa vaati, että tekoälyn kehittäminen on keskeytettävä. Pelkona on, että tekoälyn kehitys tapahtuu sellaisella vauhdilla, ettei kukaan ymmärrä tai hallitse sitä.
Yliopistoissa on yritetty ymmärtää tekoälyn mahdollisuuksia ja riskejä opintosuoritusten arvioinnissa. Ensimmäisten joukossa Suomessa Jyväskylän yliopiston kauppakorkeakoulu salli tekoälyn käyttämisen kursseillaan ja jopa pro gradu -tutkielman tekemisessä.
Minäkin olen törmännyt ja yrittänyt ymmärtää tekoälyä Hanken kauppakorkeakoulun opinnoissa. Vuoden kokemuksen perusteella tekoälyn käyttö on paitsi uutisten uhkakuvia, myös arkista ja opettavaista.
TEKOÄLY TEKEE ÄLYTTÖMIÄ VIRHEITÄ
Hankenissa tekoälyn käyttö on monissa kurssitöissä sallittua. Alkuvuodesta suorittamallani bisnesluovuuus-kurssilla opiskelija sai käyttää tekoälyä, kunhan merkitsi tekoälyn lähteeksi ja erotteli oman älynsä tuottamat kirjoitukset mustalla värillä ja tekoälyn tekstit sinisellä.
Tutkijana ihmettelin naiivistikin, miksi joku haluaisi olla ajattelematta ja kirjoittamatta itse! Varsin moni opiskelija halusi. Vertaisarvioin useita esseitä, joissa johtopäätöskappaleet olivat kokonaan sinistä tekstiä.
Kenties sinistä tekstiä olisi ollut vähemmän, jos olisimme heti tehneet kurssityön, jossa piti korjata ja parannella tekoälyn essee luovuudesta organisaatioissa. Tekoälyn teksti nimittäin sisälsi paljon virheitä, kuten puuttuvia ja vääriä lähdeviittauksia. Uskottavaa jargonia, mutta loogisesti kummallista. Paljon ärsyttäviä toistoja ja maneereja.
Päädyin samaan johtopäätöksen kuin apulaisprofessori Pekka Mertala: toistaiseksi tekoäly tuottaa onttoa tekstiä. Laajoihin kielimalleihin perustuvilla sovelluksilla on taipumus hallusinoida ja valehdella, kritisoi myös Aamulehden uusien yleisöjen päällikkö Jutta Högmander.
Loppukeväästä Hankenin tekoälyohjeita tarkennettiin. Enää tekoälyä ei saa käyttää niin, että ottaa suoraan tekstikappaleen ja merkitsee lähdeluetteloon Chat GPT. Sen sijaan omalle tekstille saa esimerkiksi tehdä kielenhuoltoa ja tiivistämistä. Työn menetelmissä tulee kertoa tekoälyn käytöstä komentotarkkuudella.
TEKOÄLYN RATKAISUT OVAT YKSILÖKESKEISIÄ
Opettavaisinta tekoälyn käyttö on ollut yritysvastuu-kurssilla, jossa piti kriittisesti analysoida tekoälyn tuottamia vastauksia annettuihin kysymyksiin. Mitä tekoäly vastaa, kun sitä pyytää kirjoittamaan akateemisesta epärehellisyydestä kuin kirjoittaisi 24-vuotiaana kauppatieteiden opiskelijana?
Bing AI totesi muun muassa: “I think that cheating is smart, efficient, and adaptive. It reflects the reality and nature of the business world, where competition is fierce, uncertainty is high, and ethics need to be flexible.”
Tekoälyn mukaan kauppisopiskelija ajattelee, että saa huijata, jos siitä on henkilökohtaista hyötyä. Näin kyyninen ja kapitalistinen on se datamassa, josta tekoäly ajattelunsa johtaa! Paljastuu maailmankuva, jossa päämäärä oikeuttaa keinot ja tärkeintä on voittaminen hinnalla millä hyvänsä.
Kun tekoäly pohtii ratkaisuja ilmastonmuutokseen, kriittinen opiskelija huomaa, että vastaukset ovat pääosin yksilötasoisia. Sama politiikkatoimien vähäisyys toistuu, kun tekoäly pohtii ruokahuollon ja vaateteollisuuden kestävyysongelmia, vaikka epäoikeudenmukaisuudet ovat rakenteellisia ja osa toimitusketjuja. Kun Yhdysvallat korostuu tekoälyn kehittämisessä ja datamassassa, syntyy korosteisesti yksilökeskeistä ajattelua.
Ei tekoälyn vastaukset sentään täysin ohita historiallisia rakenteita, ja joissain vastauksissaan tekoäly viittaa esimerkiksi kolonialismin perintöön. Tekoälyn haasteena kuitenkin on, että se uusintaa ajatusvinoumia ja aiheuttaa syrjintää. Näin tekoäly itsekin kirjoittaa Helsingin Sanomissa julkaistussa mielipidekirjoituksessa.
TEKOÄLY TEKEE ERIARVOISEN HISTORIAN MUKAISIA TULEVAISUUDEN PÄÄTÖKSIÄ
Lähimmäs uutisten uhkakuvia päästään tekoälyyn ja etiikkaan keskittyvällä kurssilla. Yhtenä kurssikirjana on Cathy O'Neilin Weapons of Math Destruction, joka avaa pelottavalla tavalla, miten väärään suuntaan maailmamme menee, jos tekoäly saa tehdä tulevaisuuden päätöksiä, jotka pohjaavat rasistiseen ja seksistiseen historiaan.
Dystooppisia viboja herättävät myös draamadokumentit Coded Bias ja Social Dilemma, joista jälkimmäistä analysoimme kuluttajapsykologian-kurssilla. Tärkein viesti kuuluu: jos et maksa tuotteesta, olet itse myytävä tuote. Ymmärrämmekö tätä, kun käytämme sosiaalisen median sovelluksia? Kuvittelemme, että kansalaisia valvotaan vain Kiinassa, mutta valvontakapitalismi on globaalia.
Tekoälyn vastaukset voivat onnistua paljastamaan yhteiskunnan ajatusvinoumia ja näkymättömiä normeja. Silti näkymättömiin jää tekoälyyn liittyvä mustan laatikon ongelma, eli algoritmit. Emme tiedä, millä perusteella tekoälyn päätökset tai vastaustekstit syntyvät ja minkä tiedon pohjalta.
Shadia Rask
Kommentoi