Kuinka ihmismieli vääristää keskustelua tekoälyn riskeistä ja etiikasta. Kognitiotieteellisiä näkökulmia keskusteluun

Kirjoittajat

  • Michael Laakasuo Helsingin yliopisto
  • Aku Visala Helsingin yliopisto
  • Jussi Palomäki Helsingin yliopisto

Avainsanat:

Tekoäly, Moraalipsykologia, Moraalifilosofia, Konemoraali, Kognitiiviset harhat, Arkiteoriat

Abstrakti

Keskustelu tekoälyn soveltamiseen liittyvistä eettisistä ja poliittisista kysymyksistä käy juuri nyt kuumana. Emme halua tässä puheenvuorossa osallistua keskusteluun tarttumalla johonkin tiettyyn eettiseen ongelmaan. Sen sijaan pyrimme sanomaan jotain itsekeskustelusta ja sen vaikeudesta. Haluamme kiinnittää huomiota siihen, kuinka erilaiset ihmismielen ajattelutaipumukset ja virhepäätelmät voivat huomaamattamme vaikuttaa tapaamme hahmottaa ja ymmärtää tekoälyä ja siihen liittyviä eettisiä kysymyksiä. Kun ymmärrämme paremmin sen, kuinka hankalaa näiden kysymysten hahmottaminen arkisen mielemme kategorioilla oikein on, ja kun tunnistamme tästä syntyvät virhepäätelmät ja ajattelun vääristymät, kykenemme entistä korkeatasoisempaan eettiseen arviointiin tekoälyyn liittyvissä kysymyksissä. Tarkoituksemme ei ole tarkastella loogisiavirhepäätelmiä, jotka rikkovat formaalin modus tollensin tai modus ponensin sääntöjä. Sen sijaan esittelemme empiirisiä tutkimustuloksia, jotka havainnollistavat ihmismielen taipumustatehdä systemaattisia virhearviointeja erilaisissa tilanteissa.

Osasto
Artikkelit

Julkaistu

2020-12-07

Viittaaminen

Laakasuo, M., Visala, A., & Palomäki, J. (2020). Kuinka ihmismieli vääristää keskustelua tekoälyn riskeistä ja etiikasta. Kognitiotieteellisiä näkökulmia keskusteluun. Ajatus, 77(1), 131–168. Noudettu osoitteesta https://journal.fi/ajatus/article/view/100252