24.04.2023

Vieraskynä: Vastuuta ja kriittisyyttä tekoälykeskusteluun, kiitos!

“Pedagogy is always about power, because it cannot be separated from how subjectives are formed, desires mobilized, how some experiences are legitimized and others are not, or how some knowledge is considered acceptable while other forms are excluded from the curriculum.”

― Henry A. Giroux, America at War with Itself

Viimeisen puolen vuoden aikana julkaistut versiot koneoppivista algoritmeista ovat olleet laajasti esillä mediassa, myös taiteen, kulttuurin ja opetuksen puolella. On vuoroin pelätty niiden vaikutuksia ja vuoroin esitelty niiden mahdollisuuksia. Ja ihmekös tuo, esimerkiksi OpenAI:n chatGPT luo todella uskottavaa tekstiä ja vaikkapa Stability AI:n Stable Diffusion pystyy monenmoiseen kuvan generointiin. Erilaisia versioita ja uusia algoritmeja syntyykin tällä hetkellä kuin sieniä sateella, milloin mihinkin tarkoitukseen. Tässä kirjoituksessa en kuitenkaan mene enempää esittelemään tai spekuloimaan näiden algoritmien mahdollisuuksia, vaan keskityn asioihin, jotka omaksi harmikseni ovat jääneet melko vähäiselle huomiolle, nimittäin koneoppivien algoritmien eettisiin ja ekologisiin ongelmiin sekä tekoäly-termin käytön haasteisiin.

Koneoppivien algoritmien selkeimmät eettiset ongelmat ovat varmastikin tekijänoikeuksiin liittyvät kysymykset: onko algoritmien tekijöillä oikeutta käyttää kaikkea, mitä he verkosta kaapivat algoritmien opetukseen (Ks. Esim. Baio,2022; Edwards, 2022)? Entä silloin kun tuotokset muistuttavat liikaa alkuperäistä, tai ovat osakopioita alkuperäistä (Xiang,2023)? Osaa näistä ongelmista puidaan jo oikeussaleissa, ja ehkä saammekin lähivuosina ohjeistusta tällä saralla (ks. Esim. Dafoe, 2023).

Hieman harmaammassa maastossa liikutaan materiaalin kaapimiskysymyksen1 äärellä: onko eettistä ladata kaikki sisältö internetistä kysymättä lupia keneltäkään, ja käyttää tätä aineistoa omiin (kaupallisiin) tarkoituksiin? Tätä nykyä verkosta löytyy palveluita kuten haveibeentrained.com, jotka kertovat, jos sinun materiaaliasi on käytetty koulutuksessa, ja tarjoavat mahdollisuuden oman materiaalin poistamiseen. Toisaalta voi kysyä, mitä hyötyä tästä enää on, kun mallit on jo koulutettu tuolla datalla? Oma ongelmansa on tietenkin myös algoritmien oppidatan vinoutumat ja niiden ymmärtäminen, data kun ei koskaan vastaa todellisuutta ja useimmiten vahvistaa ennakkoluuloja ja käsityksiä.

Kate Crawford vie kirjassaan Atlas of AI (Crawford, 2021) tekoälyn eettiset kysymykset paljon pimeämmille vesille tutkiessaan, mitä materiaaleja ja resursseja tekoäly tarvitsee. Esimerkiksi laitteiden valmistuksessa tarvittavien mineraalien hankkiminen vaatii yhtiöiltä kaupankäyntiä diktatuurien ja sodassa olevien valtioiden kanssa, jolloin suoraan tai epäsuorasti saatetaan tukea kansanmurhaa. Crawford ehdottaakin, että aivan samoin kuin puhumme veritimanteista, voisimme myös puhua verimineraaleista (s. 34). Tämä ongelma ei tietysti rajoitu vain tekoälyyn, vaan koskee kaikkea digitaalista teknologiaa, mutta Crawford tuo kirjassaan esille, miten tämä on erityisen haasteellista tekoälyteollisuudelle.

Algoritmien takana olevien yhtiöiden vastuuta ja tarkoitusperiä olisi syytä muutenkin puida tarkemmin, erityisesti ennen kuin otamme niitä opetukseen. Perinteiset kriittisen pedagogiikan mukaiset kysymykset vallasta, vastuusta sekä poliittista ja taloudellisista kytköksistä olisi tärkeää nostaa esille. Lyhytkin kurkkaus tekoäly-yhtiöiden julkisivun taakse tuo esille haasteellisia asioita. Esimerkiksi OpenAi lupaa verkkosivuillaan demokraattista tekoälyä kaikille, vaikka samaan aikaan luo miljardisopimuksen Microsoftin kanssa (Matthews & Kahn, 2023) ja ennustaa jopa miljardin voittoa ensi vuodelle (Dastin et al., 2022). Miten massiiviset voitot ja kytkökset teknologiajättien kanssa todella voi tuoda tekoälyä kaikille? Tai ketä nuo ”kaikki” silloin ovat? Kirjoitin taannoin blogissani:

”Algoritmit kytkeytyvätkin jo tutuksi tulleeseen jälkikapitalistiseen kaavaan, jossa tuo parempi maailma on todennäköisesti parempi vain hyvin harvalle. Tässä kaavassa yhdistyy mitä Richard Barbrook ja Andy Cameron ovat nimittäneen kalifornialaiseksi ideologiaksi, ”huvittavaksi” cocktailiksi raaka uusliberalistista taloutta ja hippiliikettä (Barbrook & Cameron, 1996).” (Slotte Dufva, 2023). ”

Taiteilija ja tutkija Hito Steyrl on myös kommentoinut näitä kytköksiä tuoden esiin, miten helppokäyttöiset tekoälygeneraattorit ikään kuin perehdyttävät ja viettelevät ihmiset teknologiajättien käyttäjiksi (Brown, 2023). Samoilla linjoilla on myös tekoälytutkija Dan McQuillan kirjassaan Resisting AI (2022).

Poliittisten, taloudellisten ja eettisten haasteiden lisäksi tekoälyalgoritmien koulutus vaatii usein huomattavat määrät energiaa. Googlen jo hieman vanha BigGAN-algoritmin koulutus vaati joidenkin arvioiden mukaan saman verran energiaa kuin puolet Yhdysvaltojen kotitalouksista vuodessa (Schwab, 2018). Laitteiden elinkaari ja tekoälyn kouluttamisen ja ylläpidon edellyttämä infrastruktuuri ovat edelleen asioita, joista ei paljoa puhuta, tai oteta huomioon. Koulujen ja maailman pyrkiessä kestävämpään resurssien käyttöön ja ekologisuuteen, olisi tärkeää myös luoda katsaus käyttämiemme sovellusten kestävyyteen.

Viimeiseksi sananen tekoälystä ja sitä ympäröivistä halujen ja toiveiden sädekehistä. Tekoäly sananakin jo ehdottaa, että olisimme vuorovaikutuksessa jonkin älykkään, tietoisen, entiteetin kautta (Toki käsite älykkyys on myös ongelmallinen, ja posthumanistisessa mielessä olisikin hyvä nostaa esiin erilaisia älykkyyksiä erilaisilla toimijoilla). Tekoäly on sanana miltei kuin seireeni, joka kosiskelee meitä luokseen ja hämärtää ymmärrystämme. Vaikka näillä algoritmeilla on tietynlaisia kognitiivisia kykyjä2, ne eivät ole tietoisia, tai älykkäitä samalla tavoin kuin me sen yleispuheessa käsitämme.  Useimmiten ymmärrämmekin tämän, mutta turhan usein, varsinkin kun mietimme tekoälyalgoritmien tulevaisuutta, todellisuudentajumme jotenkin jättää meidät ja hyppäämme miettimään melko epärealistisia tulevaisuuskuvia kaikkivoivasta tai kaiken tuhoavasta tekoälystä (ks esim. Dufva & Mertala, 2021; Cave et al., 2019)).

Toisekseen ajatteluamme sekoittaa esimerkiksi jokin, mitä MIT:n tutkija Sherry Turkle kuvaa Eliza-efektiksi (Turkle, 2011) ja josta itse Eliza-ohjelman3 luoja Joseph Weizenbaum myös paljon kirjoitti (ks. Esim. Z.M.L., 2023). Lyhyesti Eliza-efektiä voisi kuvata meidän ihmisten hyväntahtoisuudeksi uskoa jonkin olevan elossa tai kommunikoivan meidän kanssamme. Haasteena on, että uskoessamme tämän annamme anteeksi monelle epäjohdonmukaisuudelle tai jopa törkeälle virheelle. Nykyiset koneoppivat algoritmit ovat Elizaa parempia monin tavoin, parempia vastaamaan kysymyksiin – ja toisaalta parempia huijaamaan.  Kate Crawford ja Dan McQuillan haastavatkin, että tekoälyssä ei ole mitään tekaistua, vaan se on hyvinkin materiaalista ja todellista, eikä tekoälyssä myöskään ole mitään älykästä, vain raakaa dataa ja todennäköisyyslaskentaa.

Koneoppivat algoritmit tulevat varmasti haastamaan opetusta ja yhteiskuntaa, mutta ennen kuin riennämme miettimään tekoälyn pedagogisia käyttötarkoituksia tai estokeinoja, on ensisijaista ymmärtää, että ne myös entisestään lisäävät harvojen valtaa, mahdollistavat syrjimistä ja haavoittavat ekosysteemiä. Tekoälypuheen voikin nähdä (jälleen) uutena haasteena ja mahdollisuutena harjoittaa kriittistä ajattelua ja pedagogiikkaa!

Tomi Slotte Dufva työskentelee yliopiston lehtorina Aalto Yliopiston Taiteen ja Median laitoksella.

1 Englanniksi scraping, tarkoittaen laajamittaista automatisoitua digitaalisen sisällön lataamista omaan käyttöön.

2 Esimerkiksi N. Katherine Hayles on kirjoittanut algoritmien kognitiivista kyvyistä ja niiden merkityksistä, erittäin mielenkiintoinen ja tärkeä asia!

3 Eliza oli yksinkertainen algoritmi, joka pystyi keskustelemaan tekstin välityksellä ihmisen kanssa, vääntämällä ihmisen kirjoittaman tekstin kysymyksen muotoon. Elizasta tuli todella suosittu ”psykologi” jolle monet ihmiset uskoutuivat hyvin syvästikin. Elizaa voit kokeilla esimerkiksi netissä.

Lähteet:

Baio, A. (2022). Exploring 12 Million of the 2.3 billion Images Used to Train Stable Diffusion’s Image Generator – Waxy.org. https://waxy.org/2022/08/exploring-12-million-of-the-images-used-to-train-stable-diffusions-image-generator/

Barbrook, R., & Cameron, A. (1996). The Californian ideology. Science as Culture, 6(1), 44-72. https://doi.org/10.1080/09505439609526455

Brown, K. (2023). Hito Steyerl on Why NFTs and A.I. Image Generators Are Really Just ‘Onboarding Tools’ for Tech Conglomerates. https://news.artnet.com/art-world/these-renderings-do-not-relate-to-reality-hito-steyerl-on-the-ideologies-embedded-in-a-i-image-generators-2264692

Cave, S., Coughlan, K., & Dihal, K.  (2019). “Scary Robots”.  In. New York, NY, USA: ACM. http://dx.doi.org/10.1145/3306618.3314232

Crawford, K. (2021). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale.

Dafoe, T. (2023). Getty Images Is Suing the Company Behind Stable Diffusion, Saying the A.I. Generator Illegally Scraped Its Content. https://news.artnet.com/art-world/getty-images-suing-stability-ai-stable-diffusion-illegally-scraped-images-copyright-infringement-2243631

Dastin, J., Hu, K., & Paresh, D. (2022). Exclusive: ChatGPT owner OpenAI projects $1 billion in revenue by 2024  Reuters. https://www.reuters.com/business/chatgpt-owner-openai-projects-1-billion-revenue-by-2024-sources-2022-12-15/

Dufva, T. S., & Mertala, P. (2021). Sähköä ja alkemiaa: Tekoälydiskurssit Yleisradion verkkoartikkeleissa. Media & viestintä, 44(1), 95-115. https://journal.fi/mediaviestinta/article/download/107302/62752

Edwards, B. (2022). Artist finds private medical record photos in popular AI training data set  Ars Technica. https://arstechnica.com/information-technology/2022/09/artist-finds-private-medical-record-photos-in-popular-ai-training-data-set/

Matthews, J., & Kahn, J. (2023). Inside the structure of OpenAI’s looming new investment from Microsoft and VCs  Fortune. https://fortune.com/2023/01/11/structure-openai-investment-microsoft/

McQuillan, D. (2022). Resisting AI. An Anti-fascist Approach to Artificial Intelligence. Bristol University Press.

Schwab, K. (2018). A Google intern’s BigGAN AI makes super realistic images. https://www.fastcompany.com/90244767/see-the-shockingly-realistic-images-made-by-googles-new-ai

Slotte Dufva, T. (2023). AI MIXEI?! https://www.thispagehassomeissues.com/blog/2023/3/1/ai-mixei

Turkle, S. (2011). Alone Together: (Non-Fiction ed.). Basic Books, Inc. http://scholar.google.com/scholar?q=related:lrRbK7NH9IgJ:scholar.google.com/&hl=en&num=20&as_sdt=0,5

Xiang, C. (2023). AI Spits Out Exact Copies of Training Images, Real People, Logos, Researchers Find. https://www.vice.com/en/article/m7gznn/ai-spits-out-exact-copies-of-training-images-real-people-logos-researchers-find

Z.M.L. (2023). “Computers enable fantasies” – On the continued relevance of Weizenbaum’s warnings  LibrarianShipwreck. https://librarianshipwreck.wordpress.com/2023/01/26/computers-enable-fantasies-on-the-continued-relevance-of-weizenbaums-warnings/

Artikkelin kuva: Dennis Sylvester Hurdin tekoälyn avulla luoma kuva, Flickr.