Laatu, uskottavuus ja vastuu generatiivisen tekoälyn käytössä

Lataa PDF-tiedosto

Tuuli Nivala, KM, asiantuntija, Digitaaliset ratkaisut, FrostBit ohjelmistolaboratorio, Lapin ammattikorkeakoulu

Johdanto

Viime vuosien tekoälykilpajuoksu on vauhdittanut kaupallisten mallien ja järjestelmien kehitystä, mikä on nostanut erityisesti laajojen kielimallien ja kuvagenerointimallien suosiota kuluttajien keskuudessa (Luccioni, Jernite & Strubell 2024; Israfilzade 2024). Lyhyessä ajassa tekoäly on vakiintunut osaksi myös monen työntekoa, ja erityisesti generatiivinen tekoäly (GenAI) on tuottanut monipuolisia mahdollisuuksia esimerkiksi markkinointiin ja sisällöntuotantoon (Israfilzade 2024, 560). Samalla kun tekoälyn käytön intensiteetti, ymmärrys ja vaikutus koko yhteiskuntaan kasvavat, myös siihen liittyvien haasteiden kirjo lisääntyy ja vaikeutuu (Hermann & Puntoni 2025, 332; Israfilzade 2024). Voimme tällä hetkellä vielä sanoa, että generatiivinen tekoäly on vasta teknologiansa alkuvaiheissa, vaikka kehitysvauhti on ollut silmin nähden huimaa viime vuosina.

Oma ammattitaustani häilyy luovan ja teknisen alan välimaastossa, jonka vuoksi generatiivisen tekoälyn trendit ja niitä koskevat eettiset kysymykset ovat nousseet näkyvästi pinnalle omassa työympäristössäni. Tarkastelen tässä tiiviissä artikkelissa GenAI:n käyttöä ja vastuuta erityisesti kuluttajan ja työntekijän käsissä: Mitä merkitystä on visuaalisen sisällön laadulla, kuka on siitä vastuussa, ja mitä vaikutuksia sillä voi olla uskottavuuteen ja luottamukseen?

Generoimalla sisältöä markkinointiin – vaihtelevalla vastaanotolla

Vuonna 2022 julkaistiin ensimmäinen avoin betaversio suositusta Midjourney generointityökalusta. Midjourney, kuten myös Dall-E 2 ja muut suositut GenAI-työkalut, vauhdittivat kuluttajien tekoälykuvien generoinnin suosiota julkaisuistaan lähtien. Generoitua sisältöä alkoi nopeasti näkyä sosiaalisissa medioissa ja markkinoinnissa, jonka myötä myöskään tekoälyllä generoitujen brändikampanjoiden huono vastaanotto ja epäonnistuneesti generoidut kuvat eivät jääneet uutisten pimentoon (Loeppky 2024; Brewer, Cuddy, Dawson, & Stise 2024, 78–79).

Kuluttajien mielipiteitä ja näkemyksiä tekoälyllä generoituun sisältöön on alettukin tutkia huomattavasti enemmän viime vuosina (Brewer ym. 2024, 78). Vaihtelevat tutkimustulokset osoittavat, että ihmisten ja tekoälyn tuottamaa sisältöä havainnoidessa negatiivinen asenne syntyy useimmiten tekoälykuvia kohtaan silloin, kun ihmisen ja tekoälyn tuottama materiaali asetetaan keskinäiseen kilpailuasemaan (Neef, Zabel, Papoli & Otto 2024, 2859–2860). Näissä tilanteissa ihmisten tuottamaa materiaalia arvostetaan yleensä enemmän kuin tekoälyn generoimaa sisältöä, mikäli sisältö pystytään erottamaan toisistaan.

Asennevinouma ei synny siis kaikissa tilanteissa, vaan erityisesti silloin, kun tekoälyn ja ihmisen tuottama sisältö on tietoisesti vertailussa. Asenteisiin tekoälyä kohtaan tuleekin tulevaisuudessa vaikuttamaan yhä enemmän generoidun sisällön laatu ja realistisuus, sillä kykymme erottaa tekoälyn tuottamaa sisältöä ihmisen tuottamasta sisällöstä vaikeutuu kehityksen mukana (Kramer, Jones, Fitousi & Tree 2025; Yoo Jeong Ha ym. 2024). Uusien GenAI-mallien generointitulokset ovat aina entistä parempia (Kuva 1), ja tutkimukset osoittavat, että tekoäly itsessään tunnistaa tekoälyllä generoitua sisältöä yleisesti jo paremmin kuin ihmiset (Silva, Lotfi, Ihianle, Shahtahmassebi & Bird 2024). Jatkuvasti realistisemmat tulokset nostavat yhä ajankohtaisemmaksi eettiset kysymykset muun muassa generoidun sisällön luotettavuudesta ja väärinkäytöstä tulevaisuudessa.

Kuva 1. June-Hao Houn havainnot Midjourneyn kehityksestä eri promptauksilla (Hou 2024).

Generoidun sisällön käyttö on itse promptaajan vastuulla

Vaikka GenAI-työkalujen tuottama sisältö on kehittynyt valtavasti ensimmäisistä malleistaan, usein generoitujen kuvien ominaisuuksia voi vielä tunnistaa. Huolimatta GenAI-mallista, ihmisartistien mukaan tekoälygeneroitua taidetta saattaa esimerkiksi usein yhdistää sileät ja virheettömät rakenteet, yhteensulautuneet elementit ja yksityiskohdat, sekä päämäärättömät tai järjettömät asetelmat (Yoo Jeong Ha ym. 2024, 4832). Israfilzade (2024, 559-560) listaa tekoälygeneroidun sisällön yleisiksi ongelmiksi myös puutteet syvyydessä ja oikeanlaisessa sävyssä sekä tarkoitusperässä. Tekoäly rakentaakin tilastollisesti vain todennäköisimmät visuaaliset piirteet koulutusdatan perusteella, eikä se ”ymmärrä” generoidessaan kuvan kokonaisuutta ja todellisuutta.

Tekoälykuvien laatua tai ”hyvää” tulosta on kuitenkin hankalaa arvioida objektiivisesti, sillä GenAI-sisältöjä arvioidaan pääosin omien asenteiden kautta. Nostan kuitenkin huomioon sen, että tietynlaiset laatukriteerit tulisi koskea generoitua sisältöä yhtä lailla kuin vaikkapa ihmisen ottamia valokuvia, kun sisältöä halutaan käyttää esimerkiksi tavoitteellisessa markkinoinnissa. Helpon ja nopean generoinnin myötä ”laatuseulannan” läpi saattaa päästä hyvinkin huomattavia ongelmia, niin suuremmilla organisaatioilla kuin brändiään rakentavilla pienyrityksillä. Huonolaatuinen materiaali voi sisältää esimerkiksi ihmiskehon vääristymiä tai ympäristöihin kuulumattomia elementtejä, kuten vaikka palmuja Rovaniemen uimarannalla.

Vertailevana esimerkkinä käytän tilannetta, jossa graafinen suunnittelija tuottaa illustraatiota tai audiovisuaalisen median ammattilainen ottaa valokuvia. Illustraatiot ja valokuvat käyvät läpi monivaiheisen prosessin ennen sisällön jakamista, joka yksinkertaisimmillaan alkaa suunnittelusta, jatkuu vaihtoehtojen validointiin ja päätyy lopulliseen tuotokseen. Asiakas tai tilaaja käy usein läpi laaduntarkastuksen prosessin, vaikka materiaalien tuottajina olisi kokeneita ammattilaisia.

Generoidun sisällön tuotannossa asiakas usein tuottaa itse promptin ja saa tekoälytyökalulta valmiita tuotoksia. Asiakkaan omalle vastuulle jää siis generoidun sisällön laadun validointi, jolloin esimerkiksi graafikon tai valokuvaajan ammattiosaaminen jää kokonaan pois tarkastusprosessista. Israfilzade (2024, 559) toteaa, että sisällöntuottajien tulisi aina tarkistaa ja jalostaa tekoälyn tuottama sisältö, jotta lopputulos täyttäisi tarkoitusperän tai brändin laatustandardit.

Visuaalinen lopputulos vaikuttaa uskottavuuteen ja luotettavuuteen

Generatiivisella tekoälyllä voidaan luoda näyttäviä, houkuttelevia ja uskottaviakin sisältöjä, mutta on erityisen tärkeää pohtia, milloin ne vastaavat todellisuutta tai edustavat sisällön jakajan tavoitteita. Brändiuskottavuuteen ja luotettavaan markkinointiin vaikuttaa erityisesti visuaalisen sisällön autenttisuus (Napoli, Dickinson, Beverland & Farrelly 2013, 1091). Visuaalisella markkinoinnilla pyritään luomaan jonkinlainen yhteys ja reaktio katsojaan, jolla herätetään kiinnostusta ja rakennetaan haluttuja mielikuvia. Pienetkin epäjohdonmukaisuudet ja epäaidot yksityiskohdat voivat siis, katsojasta riippuen, heikentää mielikuvia ja luottamusta aiheesta.

Onkin siis syytä pohtia, milloin GenAi:n käyttö on soveliasta ja tarpeellista, kun halutaan luoda tietynlaisia ja aitoja mielikuvia. Lisäksi huolimatta realismin ja laadun kehityksestä, generatiivisen tekoälyn normalisoituvassa käytössä tulisi välttää eräänlaista ”tarpeeksi hyvä” ajattelumallia, jossa tekoälylle asetetaan erehtymätön auktoriteetti. Laatutarkkailu on vähintäänkin yhtä tärkeää GenAI-sisällön tuotannossa ja sen jakamisessa, kuin minkä tahansa muun sisällön suhteen: lopputulos voi vaikuttaa siihen, millaisena toimijan ammattimaisuus ja luotettavuus koetaan (Karpenka, Rudiene, Morkūnas, & Volkov 2021; Robins, Holmes & Stansbury 2010).

Kuva 2. Vaikka generoidut kuvat jäljittelevät realismia, voiko niiden käyttö olla haitallista autenttisuudelle esimerkiksi matkailun markkinoinnissa? Kuva: Tuuli Nivala

Lopuksi

Tekoäly on mullistanut monin tavoin tehokkuutta ja tuottavuutta työpaikoilla, ja lyhyessä ajassa se on muokannut tapoja, joilla visuaalista sisältöä voidaan tuottaa. Parhaimmillaan tekoäly voi toimia tehokkaana työkaluna luovuuden ja ideoinnin tukena ja tarjota uusia väyliä innovointiin (Das & Kundu 2024, 27), mutta generatiivisten kuvamallien helppokäyttöisyys voi johtaa myös tilanteisiin, joissa niiden käyttöönoton soveltuvuutta tai tarkoituksenmukaisuutta ei pysähdytä arvioimaan riittävän kriittisesti.

Generatiivisen tekoälyn käyttöön liittyy suuri määrä muita eettisiä ongelmakohtia erityisesti luovaan alaan ja sen tulevaisuuteen liittyen, kuten koulutusdatan tekijänoikeudelliset kysymykset ja ihmistaiteen ja luovuuden aseman heikentyminen (Hermann & Puntoni 2025, 332; Das & Kundu 2024, 27). Tässä artikkelissa olen kuitenkin tarkastellut GenAI:n käyttöä erityisesti visuaalisen sisällön näkökulmasta ja korostanut laadun, uskottavuuden ja vastuun välistä yhteyttä. Kun sisällöntuotanto yleistyy yksittäisillä käyttäjillä, korostuu myös entistä enemmän tarve tietoiselle arvioinnille ja laadunvalvonnalle. Kun koet tarvitsevasi työssäsi generatiivista tekoälyä, olisi hyvä käydä läpi esimerkiksi seuraavia pohdintoja:

  1. Onko generoitu materiaali ainoa ratkaisu tässä tilanteessa? Löytyisikö vastaavaa materiaalia valmiiksi, tai olisiko sitä mahdollista tehdä muilla tavoin?
  2. Onko generoitu materiaali tähän tarkoitukseen autenttista ja totuudenmukaista? Voiko tuotos olla harhaanjohtavaa?
  3. Kuka kantaa vastuun materiaalin lopputuloksesta ja pidemmän aikavälin vaikutuksista? Ylläpitääkö, lisääkö tai vähentääkö generoitu materiaali käyttötarkoituksessaan uskottavuutta ja luotettavuutta?

Generatiivisen tekoälyn läpimurron myötä olemme visuaalisen markkinoinnin ja sisällöntuotannon uudessa kehitysvaiheessa, jossa roolit, prosessit ja vastuut muotoutuvat uudelleen (Hermann & Puntoni 2025, 332). GenAI:n käytössä arviointi ja vastuu siirtyvät enemmän yksittäisten käyttäjien käsiin, mikä korostaa harkinnan, laadunvalvonnan ja vastuun merkitystä. Koen, että vastuullinen tekoälyn käyttö tulisi nähdä tulevaisuudessa sen tarkoituksenmukaisena ja läpinäkyvänä hyödyntämisenä tilanteissa, joissa se tukee viestinnällisiä tavoitteita ja uskottavuutta, sekä ihmisen omaa luovuutta ja kriittistä ajattelua.

Lähteet

Brewer, P. R., Cuddy, L., Dawson, W. & Stise R. 2024. Artists or art thieves? Media use, media messages, and public opinion about artificial intelligence image generators. AI & Society, Volume 40. https://link.springer.com/article/10.1007/s00146-023-01854-3

Das, S. & Kundu, R. 2024. The Ethics of Artificial Intelligence in Creative Arts: A Comprehensive Review. Interdisciplinary International Journal of Advances in SocialSciences, Arts and Humanities, Volume 1 Issue 1.

Hermann, E. & Puntoni, S. 2025. Generative AI in Marketing and Principles for Ethical Design and Deployment. Journal of Public Policy & Marketing, Volume 44, Issue 3. https://journals.sagepub.com/doi/epub/10.1177/07439156241309874

Hou, J-H. 2024. Comparing AI-generated images two years apart – 2022 vs. 2024. Medium, 17.4.2024. Viitattu: 16.1.2026. https://medium.com/@junehao/comparing-ai-generated-images-two-years-apart-2022-vs-2024-6c3c4670b905

Israfilzade, K. 2024. Benefits and Risks of Generative AI in Content Marketing. International European Congress on Advanced Studies in Basic Sciences.

Karpenka, L., Rudiene, E., Morkūnas, M. & Volkov, A. 2021. The Influence of a Brand’s Visual Content on Consumer Trust in Social Media Community Groups. Journal of Theoretical and Applied Electronic Commerce Research.

Kramer, R. S. S., Jones, A. L., Fitousi, D. & Tree, J. J. 2025. AI-generated images of familiar faces are indistinguishable from real photographs. Cognitive Research: Principles and Implications. Volume 10, Article number 70. https://doi.org/10.1186/s41235-025-00683-w

Loeppky, J. 32 times artificial intelligence got it catastrophically wrong. Live Science, 16.6.2024. Viitattu 16.1.2026. https://www.livescience.com/technology/artificial-intelligence/32-times-artificial-intelligence-got-it-catastrophically-wrong

Luccioni, S., Jernite, Y. & Strubell, E. 2024. Power Hungry Processing: Watts Driving the Cost of AI Deployment? Proceedings of the 2024 ACM Conference on Fairness, Accountability, and Transparency. Cornell University. https://doi.org/10.1145/3630106.3658542

Napoli, J., Dickinson, S. J., Beverland M. B. & Farrelly, F. 2013. Measuring consumer-based brand authenticity. Journal of Business Research 67 (2014) 1090–1098.

Neef, N. E., Zabel, S., Papoli, M. & Otto, S. 2024. Drawing the full picture on diverging findings: adjusting the view on the perception of art created by artificial intelligence. AI & Society, Volume 40.

Robins, D., Holmes, J. & Stansbury, M. 2010. Consumer Health Information on the Web: The Relationship of Visual Design and Perceptions of Credibility. Journal of the American Society for Information Science and Technology.

Silva, R., Lotfi, A., Ihianle, I., Shahtahmassebi, G. & Bird, J. 2024. ArtBrain: An Explainable end-to-end Toolkit for Classification and Attribution of AI-Generated Art and Style.

Yoo Jeong Ha, A., Passananti, J., Bhaskar, R., Shan, S., Southen, R., Zheng, H., Zhao, B. Y. 2024. Organic or Diffused: Can We Distinguish Human Art from AI-generated Images? CCS ’24: Proceedings of the 2024 on ACM SIGSAC Conference on Computer and Communications Security.

Asiasanat: tekoäly, vastuullisuus, sisältötuotanto, laadunvalvonta, luotettavuus, luovat toimialat

Leave a Reply