Kuinka ihmismieli vääristää keskustelua tekoälyn riskeistä ja etiikasta. Kognitiotieteellisiä näkökulmia keskusteluun

  • Michael Laakasuo Helsingin yliopisto
  • Aku Visala Helsingin yliopisto
  • Jussi Palomäki Helsingin yliopisto
Avainsanat: Tekoäly, Moraalipsykologia, Moraalifilosofia, Konemoraali, Kognitiiviset harhat, Arkiteoriat

Abstrakti

Keskustelu tekoälyn soveltamiseen liittyvistä eettisistä ja poliittisista kysymyksistä käy juuri nyt kuumana. Emme halua tässä puheenvuorossa osallistua keskusteluun tarttumalla johonkin tiettyyn eettiseen ongelmaan. Sen sijaan pyrimme sanomaan jotain itsekeskustelusta ja sen vaikeudesta. Haluamme kiinnittää huomiota siihen, kuinka erilaiset ihmismielen ajattelutaipumukset ja virhepäätelmät voivat huomaamattamme vaikuttaa tapaamme hahmottaa ja ymmärtää tekoälyä ja siihen liittyviä eettisiä kysymyksiä. Kun ymmärrämme paremmin sen, kuinka hankalaa näiden kysymysten hahmottaminen arkisen mielemme kategorioilla oikein on, ja kun tunnistamme tästä syntyvät virhepäätelmät ja ajattelun vääristymät, kykenemme entistä korkeatasoisempaan eettiseen arviointiin tekoälyyn liittyvissä kysymyksissä. Tarkoituksemme ei ole tarkastella loogisiavirhepäätelmiä, jotka rikkovat formaalin modus tollensin tai modus ponensin sääntöjä. Sen sijaan esittelemme empiirisiä tutkimustuloksia, jotka havainnollistavat ihmismielen taipumustatehdä systemaattisia virhearviointeja erilaisissa tilanteissa.

Tunnus vertaisarvioiduille tiedejulkaisuille
Osasto
Artikkelit
Julkaistu
joulu 7, 2020
Viittaaminen
Laakasuo, M., Visala, A., & Palomäki, J. (2020). Kuinka ihmismieli vääristää keskustelua tekoälyn riskeistä ja etiikasta. Kognitiotieteellisiä näkökulmia keskusteluun. Ajatus, 77(1), 131–168. Noudettu osoitteesta https://journal.fi/ajatus/article/view/100252