Miksi suomalaisen tutkimuksen tuottavuus kasvoi, mutta laatu heikentyi?

Kirjoittajat

Avainsanat:

tiedepolitiikka [http://www.yso.fi/onto/yso/p13670], tieteensosiologia [http://www.yso.fi/onto/yso/p19328], tutkimusrahoitus [http://www.yso.fi/onto/yso/p23735], tieteellinen julkaisutoiminta [http://www.yso.fi/onto/yso/p10480], tuottavuus [http://www.yso.fi/onto/yso/p4259]

Abstrakti

Performance-based research funding systems are often assumed to create an increasing pressure to publish among academics. Presumption is that national level incentives put pressure on researchers to increase quantity of publishing at the expense of quality (publishing pressure hypothesis). Janne Pölönen and Otto Auranen argued in their article in Information Studies 2 (36) that the hypothesis does not apply to Finland. The purpose of this article is to continue the discussion on the hypothesis. I repeat the empirical study by Pölönen and Auranen, and I will end up with somewhat opposite results. Secondly, I discuss the factors affecting the productivity and quality of research. Changes in productivity and quality of research are not just related to the introduction of publications as a criterion for research funding, but the range of explanatory factors is much wider. I will highlight the make-up of researchers, the amount of funding and competitive funding, and look at their explanatory power in respect to the changes of the productivity and the impact of Finnish scientific research.

Osasto
Artikkelit

Julkaistu

2018-04-20

Viittaaminen

Poropudas, O. (2018). Miksi suomalaisen tutkimuksen tuottavuus kasvoi, mutta laatu heikentyi?. Informaatiotutkimus, 37(1). https://doi.org/10.23978/inf.70169

Janne Pölönen ja Otto Auranen tarkastelivat Informaatiotutkimus 2(36) julkaisemassa artikkelissaan [1] oletusta, jonka mukaan siirtyminen suoritusperustaiseen tutkimusrahoitukseen tuottaa julkaisupaineen, jonka seurauksena tutkijoiden julkaisujen määrä lisääntyy, mutta laatu laskee. Keräämällään numeroaineistolla he pyrkivät osoittamaan, että näin ei ole tapahtunut Suomessa: suomalaisten yliopistojen henkilökunnan julkaisutuottavuus ei ole kasvanut eikä laatu laskenut tarkasteluajanjaksolla 1998–2016.

Tunnetuimpia julkaisupainetutkimuksia on Linda Butlerin artikkeli [2] Australian 1990-luvun alun uudistuksesta, jossa osa yliopistojen rahoituksesta sidottiin julkaisumääriin. Tuloksena oli oletuksen mukainen julkaisumäärien kasvu ja vaikuttavuuden lasku. Uusin tutkimus ei kuitenkaan vahvista julkaisupainehypoteesia. Besselaar, Heyman ja Sandström [3] toistivat Butlerin analyysin ja pidensivät aikasarjatarkastelua. Heidän mukaansa Australian julkaisujen määrä ei ole vain lisääntynyt, vaan myös sen vaikuttavuus on kohonnut huomattavasti. Heidän johtopäätöksensä on, että julkaisuihin perustuvalla tutkimusrahoituksella voidaan vaikuttaa myönteisesti sekä julkaisujen määrään että niiden vaikuttavuuteen. Schneider, Aagaard ja Bloch vertasivat omassa tutkimuksessaan [4] Norjaa Australiaan. Norjan vuoden 2005 uudistus nosti julkaisuaktiivisuutta vaikuttavuuden pysyessä vakaana. Maiden erojen syynä kirjoittajat näkevät sen, että Norjassa julkaisut eriytettiin – Suomen julkaisufoorumin tapaan – kahteen luokkaan, joista vaikuttavamman julkaisuista rahoitusmalli palkitsee selvästi enemmän.

Tämän artikkelin tarkoituksena on jatkaa keskustelua julkaisupainehypoteesin toteutumisesta suomalaisessa tiedeyhteisössä. Ensiksi toistan Pölösen ja Aurasen empiirisen tarkastelun, jossa päädyn jokseenkin päinvastaisiin tuloksiin. Lähteinä käytän osittain samoja aineistoja, mutta niiden lisäksi tietoja Tilastokeskuksen tutkimustilastosta ja opetus- ja kulttuuriministeriön Vipunen- ja OECD:n MSTI-tietokannasta (Main Science and Technology Indicators).

Toiseksi keskustelen hieman laajemmin tutkimuksen tuottavuuteen ja laatuun vaikuttavista tekijöistä. Edellä mainittujen tutkimusten taustaoletus on, että tuottavuuden ja laadun muutokset liittyvät vain julkaisujen käyttöönottoon tutkimusrahoituksen kriteerinä. Mielestäni näkökulma on liian kapea. Aiheesta on paljon tutkimuskirjallisuutta, jossa esitettyjen selittävien tekijöiden skaala on huomattavan laaja: rahoituksen määrä, tutkijakunnan rakenne, tutkimukseen käytettävissä oleva aika, kilpailullinen vs. keskitetty rahoitus, tutkimusyksiköiden koko, kansainvälinen yhteistyö, infrastruktuuri jne. Nostan niistä esille tutkijakunnan rakenteen, kilpailullisen rahoituksen ja rahoituksen määrän, ja tarkastelen niiden selitysvoimaa Suomen tieteellisen tutkimuksen tuottavuuden ja vaikuttavuuden muutoksiin.

Suomen yliopistojen julkaisutuottavuus

Pölönen ja Auranen tutkivat julkaisutuottavuutta Suomen yliopistojen aineistoilla ja vertaavat Suomen kehitystä muihin Pohjoismaihin. Yliopistojen julkaisutuottavuus on saatu jakamalla yliopistojen julkaisut opetus- ja tutkimushenkilökunnan henkilötyövuosilla. Lähteenä ovat KOTA- ja Vipunen -tietokantojen aineistot.

Julkaisutiedot lienevät oikein. Sen sijaan KOTA:n ja Vipusen opetus- ja tutkimushenkilökunnan henkilötyövuositietojen käyttö tuottavuusyhtälön jakajana on hyvin ongelmallista. Henkilötyövuodet eivät ole riittävän täsmällinen tutkimustyöpanoksen mittari, koska opetus- ja tutkimushenkilökunnan aika kuluu tutkimuksen lisäksi opetukseen ja hallinnollisiin tehtäviin. Tällä ei olisi niin väliä, mikäli jakauma pysyisi vakiona ajan suhteen. Näin ei kuitenkaan ole, vaikka yliopistojen työajan mittaukset niin osoittaisivatkin. Työaikaa on tutkittu vain budjettirahoitteisen opetus- ja tutkimushenkilökunnan osalta, ja se jättää ulkopuolelle ulkopuolisella rahoituksella palkatut työntekijät, joiden määrä on vuosien varrella kasvanut melkoisesti. Lisäksi yliopistoissa on paljon tutkimusta tukevaa opetus- ja tutkimushenkilökuntaan kuulumatonta henkilökuntaa, jonka työpanos jää Pölösen ja Aurasen käyttämien henkilötyövuositietojen ulkopuolelle. KOTA:n ja Vipusen luokitusmuutokset vaikeuttavat yhtenäisten aikasarjojen rakentamista, mikä ei onnistu ilman tarkempia selvityksiä.

Tarjolla olisi ollut Tilastokeskuksen tutkimus- ja kehittämistoiminnan tilasto, jonka käyttö olisi ratkaissut työpanoksen arviointiin liittyvät ongelmat. Tilasto mittaa eri organisaatioiden tutkimus- ja kehittämishenkilökunnan (tutkijat ja muu tutkimus- ja tuotekehityshenkilökunta) tutkimukseen käyttämää aikaa. Se on laadittu yhdenmukaisin perustein vuodesta 1971 lähtien, ja sitä käytetään OECD:n ja muissa kansainvälisissä tilastoissa kuvaamaan Suomen tutkimuspanostuksen kehittymistä.

Taulukossa 1 on verrattu yliopistojen opetus- ja tutkimushenkilökunnan henkilötyövuosia (KOTA, Vipunen) yliopistojen tutkimusvuosiin (Tilastokeskus). Henkilötyövuodet ja tutkimustyövuodet antavat aika tavalla erilaisen kuvan tutkimukseen käytetyn työpanoksen kehityksestä. Tilastokeskuksen tutkimustyövuosien kokonaismäärä pysyy liki samana vuosina 1998–2016, kun taas KOTA:n ja Vipusen henkilötyövuosien määrä kasvaa yli 40 prosenttia. Merkille pantavaa on myös, että tutkimustyövuosien määrä ylittää henkilötyövuosien määrän aina 2000-luvun puoliväliin asti. Tilanne korjaantuu vaiheittain vasta vuosien 2007–2009 ja 2010–2012 tienoilla, eli Pölösen ja Aurasen aikasarjojen luokitusmuutosten ajankohtina.

Yliopistojen henkilötyövuodet (KOTA ja Vipunen) ja tutkimustyövuodet (Tilastokeskus) 1998–2016. Pölönen & Auranen 2017; Tilastokeskus.
3-vuotisjakso KOTA ja Vipunen Tilastokeskus
1998-2000 12420 13541
1999-2001 12921 14027
2000-2002 13529 14562
2001-2003 14129 15022
2002-2004 14639 15542
2003-2005 14888 15588
2004-2006 15014 15365
2005-2007 15074 14759
2006-2008 15144 14268
2007-2009 15315 13988
2008-2010 16389 14419
2009-2011 17258 14160
2010-2012 18056 13917
2011-2013 17957 13205
2012-2014 17940 13406
2013-2015 17741 13399
2014-2016 17672 13314

Menemättä enempää tilastojen muodostamisen yksityiskohtiin, voidaan todeta, että Tilastokeskuksen tutkimustyövuosien käyttäminen kääntää Pölösen ja Aurasen johtopäätökset julkaisutuottavuuden osalta päälaelleen. Kun kirjoittajat toteavat, että julkaisutuottavuus ei ole tarkasteluajanjaksona noussut lainkaan, vaan päinvastoin hieman laskenut, tutkimustyövuosien perusteella laskettu tuottavuus nousee vertaisarvioitujen julkaisujen osalta 1,54:stä 2,06:een eli 33 prosenttia (Kuva 1).

Pölönen ja Auranen toteavat, että heidän tuloksensa ovat samansuuntaisia kuin aiemmat selvitykset [5][6]. Tässä on kuitenkin huomioitava, että mainitut selvitykset koskevat ajanjaksoa 1990-luvun lopusta 2000-luvun puoliväliin, jolloin julkaisutuottavuus todella laski. Kuva 1 osoittaa, että tuon ajanjakson jälkeen julkaisutuottavuus lähti uudelleen nousuun, ja on kasvanut kokonaisuudessaan tarkasteluajanjaksolla 1998–2006.

Vertaisarvioidut julkaisut, tutkimustyövuodet (TTV) ja julkaisutuottavuus 1998–2016.

Vertaisarvioidut julkaisut, tutkimustyövuodet (TTV) ja julkaisutuottavuus 1998–2016.

Pohjoismainen vertailu

Pohjoismaisessa tuottavuusvertailussa Pölönen ja Auranen käyttävät panostietoina OECD:n tilaston tutkimustyövuosia ja julkaisuina Web of Science -tietokannan julkaisuja (WoS-julkaisut). Tutkimustyövuosia ovat kaikkien sektoreiden yhteenlasketut tutkimustyövuodet. Tämäkin ratkaisu on ongelmallinen. WoS-julkaisuja tuottavat lähinnä yliopistojen, yliopistosairaaloiden ja tutkimuslaitosten tutkijat, kun taas suurin osa tutkimushenkilöstöä työskentelee yrityssektorilla. Tästä ja muista OECD-tutkimuspanosten ja WoS-julkaisujen yhdenmukaisuuteen liittyvistä ongelmista varsin perinpohjaisen selvityksen ovat tehneet [7]. Analyysinsa pohjalta he päätyvät suosittelemaan, että kun tuottavuuslaskelmia tehdään näitä aineistoja käyttäen, yhdenmukaisin tulos saadaan käyttämällä korkeakoulu- ja julkisen sektorin yhteenlaskettuja tietoja.

Taulukossa 2 esitetään Pohjoismaiden korkeakoulu- ja julkisen sektorin tutkimustyövuodet sekä niiden osuus kaikista tutkimustyövuosista. Taulukko osoittaa, että näiden kahden sarjan välillä on huomattavat erot. Suomessa, Ruotsissa ja Tanskassa korkeakoulu- ja julkisen sektorin osuus laskee, eniten Tanskassa, vähiten Suomessa. Norjassa osuus sitä vastoin nousee.

Suomen, Ruotsi, Tanskan ja Norjan korkeakoulu- ja julkisen sektorin tutkimustyövuodet ja niiden osuus maiden yhteenlasketuista tutkimustyövuosista 1998-2014.
4-vuotisjakso Tutkimustyövuodet Osuus kaikista työvuosista, %
Suomi Ruotsi Tanska Norja Suomi Ruotsi Tanska Norja
1998-2001 15261 17309 9605 8579 45 40 50 45
1999-2002 15795 17877 9585 8774 44 42 45 46
2000-2003 16231 18474 9676 9012 43 39 42 45
2001-2004 16639 19114 9851 9373 42 40 41 46
2002-2005 17033 19100 10033 9925 42 38 38 48
2003-2006 17207 18852 10355 10493 42 36 38 49
2004-2007 17111 18189 10565 11203 43 35 37 50
2005-2008 16899 17321 11060 11854 42 34 36 51
2006-2009 16788 17255 11755 12516 42 35 36 51
2007-2010 16983 17522 12637 13153 42 36 36 51
2008-2011 16973 18127 13692 13655 42 37 37 52
2009-2012 17075 18601 14542 14107 42 38 38 52
2010-2013 17007 19350 15338 14394 42 37 39 52
2011-2014 16600 20117 16031 14638 42 35 40 52

Taulukko osoittaa, että julkaisutuottavuus on noussut ei vain Suomessa, vaan kaikissa Pohjoismaissa. Tulos on keskeisiltä osiltaan sama kuin Pölösen ja Aurasen aineistolla. Kirjoittajat kuitenkin väittävät, että aineiston perusteella ei voida päätellä julkaisutuottavuuden kasvaneen: kasvu ei ole todellista, vaan johtuu Web of Science-tietokannan laajentumisesta. Onkin totta, että tietokanta on laajentunut, mutta se voi selittää vain osan julkaisutuottavuuden kasvusta. WoS-julkaisujen määrä suhteessa yliopistojen vertaisarvioituihin julkaisuihin kasvoi vuosina 1998–2013 30 prosentista 35 prosenttiin. Kun tiedetään, että julkaisujen kokonaismäärä on kasvanut, on osan WoS-julkaisujen kasvusta täytynyt olla todellista, eikä vain seurausta tietokannan laajentumisesta.

Olennaisinta kuitenkin on, että vertailumaista Suomen julkaisutuottavuus (WoS-julkaisut/tutkimustyövuodet) on noussut eniten (taulukko 3). Kun Suomen vuosien 2011–2014 tuottavuutta verrataan lähtöajanjakson 1998–2001 tilanteeseen, on se noussut 36 prosenttia, ja 30 prosenttia ajanjaksoon 2002–2005 verrattuna, jolloin tuottavuus oli Pohjoismaissa alimmillaan.

Suomen, Ruotsi, Tanskan ja Norjan korkeakoulu- ja julkisen sektorin julkaisutuottavuus suhteessa vuosien 1998–2001 ja 2002–2005 julkaisutuottavuuteen.
Vertailuajanjakso Vuosien 2011-2014 julkaisutuottavuus
Suomi Ruotsi Tanska Norja
1998-2001 1.30 1.17 1.05 1.23
2002-2005 1.36 1.27 1.04 1.30

On mahdollista, että osa havaitusta julkaisutuottavuuden kasvusta johtuu yhteisjulkaisemisen yleistymisestä [8]. Kansainvälistä julkaisemista [9] lukuun ottamatta yhteisjulkaisemisen osuutta ei tiedetä, joten kysymys julkaisutuottavuuden todellisesta kasvusta jää jonkin verran avoimeksi.

Tutkimuksen vaikuttavuus

Pölönen ja Auranen perustelevat WoS-tietokannan tiedoilla väitettään, että suomalaisen tutkimuksen laatu ei ole heikentynyt. Suomen ja muiden Pohjoismaiden viittaus- ja Top10-indeksi ovatkin nousseet tarkasteluajanjaksolla. Kovin looginen kirjoittajien päättely ei kuitenkaan ole, koska samalla tietokannan laajentumisella, jolla he selittävät pois julkaisutuottavuuden nousun, ei nyt näytä olevan merkitystä tutkimuksen vaikuttavuuden arvioinnissa.

Viittausindeksivertailussa maan julkaisujen saamat viittaukset suhteutetaan koko maailman keskiarvoon. Tilanne on hyvä, jos maan julkaisut saavat enemmän viittauksia kuin maailman julkaisut. Vielä enemmän tyytyväisyyttä tuottaa, mikäli maan viittausenemmyys kasvaa. Ongelma on kuitenkin, että koko maailman aineisto muuttuu, ja maa voi parantaa asemiaan ilman, että sen julkaisujen ja viittausten määrässä tapahtuu olennaisia muutoksia. Viime vuosikymmeninä Kiina, Intia ja eräät muut maat ovat lisänneet julkaisutuotantoaan voimakkaasti, mutta kun nämä julkaisut ovat varsin vähän viitattuja, seurauksena on, että maailman viittauskeskiarvo on aikaisempaa helpompi saavuttaa.

Tutkimuksen laatu ei ole absoluuttinen, vaan suhteellinen käsite. Urheilussa suorituskykyä mitataan metreinä, minuutteina ja sekunteina, mutta todellisesta tasosta kertoo se, minkälainen urheilijan suoritus on verrattuna muiden urheilijoiden suorituksiin. Urheiluväki ei ole tyytyväinen, vaikka suomalainen juoksee 10 000 metrillä uuden Suomen ennätyksen, jos tulos on vasta 50. paras maailmassa. Samoin viittausindeksien arvon nousulla ei ole juuri merkitystä, mikäli toisten maiden indeksit nousevat enemmän.

Maan tutkimuksen kansainvälisen laadun kohoamisen viittausindeksin arvon nousua parempi mittari onkin maan sijoituksen muuttuminen kansainvälisissä vertailuissa. Tutkimuksen kansainvälisen laadun nousua indikoi, mikäli maa ohittaa sijoituksissa sitä aikaisemmissa mittauksissa edellä olleet maat, ja laskua taas, mikäli muut maat ohittavat sen.

Kuva 2 esittää Suomen sijoitukset OECD-maiden läpimurtotutkimusta mittaavassa Top10-indikaattorivertailussa vuosina 1991–2013. Kuva tulee tulkita siten, että mitä alempana käyrät ovat, sitä parempi on sijoitus, ja päinvastoin. Suomen sijoitukset olivat hyviä 1990-luvun loppupuolelle asti. Tilanne alkoi muuttua 2000-luvulla, jolloin tipahdettiin heikoimmillaan sijalle 18. Vuosina 2000–2009 Suomen ohi Top10-indikaattorin sijoituksissa ajoivat Belgia, Israel, Irlanti, Saksa, Itävalta, Luxemburg ja Uusi-Seelanti.

Suomen sijoitus OECD-maiden tiedevertailussa 1991–2014.

Suomen sijoitus OECD-maiden tiedevertailussa 1991–2014.

Olen sijoittanut kuvaan myös Suomen sijoitukset julkaisuvertailussa (julkaisut/asukas) ja tutkimusmenovertailuissa (korkeakoulu- ja valtiosektorin tutkimusmenot/asukas). Ajatus on, että maiden välisissä tiedevertailuissa on otettava huomioon myös se, kuinka paljon maa panostaa tutkimukseen. Maan, joka panostaa enemmän tutkimukseen, pitäisi saada paremmat tulokset myös tutkimuksen tuottavuuden ja vaikuttavuuden suhteen. Suomen tieteen tilan viimekätinen mittari on panossijoitusten ja tuotossijoitusten välinen suhde. Jos Suomi panostaa tutkimukseen viidenneksi eniten OECD-maista, myös sen julkaisu- ja viittausindeksivertailujen sijoitusten tulee olla viidenneksi korkeimmat.

Suomi on pärjännyt tutkimusinvestoinneissa ja julkaisutuottavuudessa hyvin viime vuosikymmenen lopulle (sijat 3–5). Sen jälkeen olemme menettäneet asemia ja olemme nyt OECD-maiden sijoilla 7–9. Merkille pantavaa on, että julkaisuvertailujen sijoitukset seuraavat melko tarkasti tutkimusinvestointivertailujen sijoituksia, mutta niiden ja Top-indikaattorin välillä on jatkuvasti kasvava ero.

Tutkimuksen tuottavuuden ja laadun selittäminen

Aineistoni osoittaa, että Suomen tutkimuksen julkaisutuottavuus on kasvanut, mutta vaikuttavuus heikentynyt. Pölösen ja Aurasen kysymys, miksi tuottavuus ei ole kasvanut, ei ole lainkaan tarpeen. Mutta tämä ei tarkoita, että julkaisupainehypoteesi selittää, miksi Suomen tutkimuksen julkaisutuottavuus on kasvanut, mutta vaikuttavuus taas heikentynyt.

Yksi tieteensosiologian tärkeimmistä ja vanhimmista traditioista selittää tutkimusryhmien, yliopistojen ja maiden tutkimuksen tuottavuutta ja laatua tutkijakunnan rakenteella [10][12]. Perushavainto on, että tutkijoiden tuottavuudessa ja tutkimuksen laadussa on valtavia eroja; kymmenesosa tutkijoista tuottaa puolet maan julkaisuista ja kerää vielä suuremman osan viittauksista [13]. Mitä enemmän tutkimusorganisaatiossa on näitä tuotteliaita tutkijoita, sitä tuottavampi se on ja sitä korkeampi sen tutkimuksen vaikuttavuus.

Yliopistojen tutkimusrahoitusjärjestelmät voidaan pelkistää keskitettyyn perusrahoitukseen ja kilpailulliseen rahoitukseen. Keskitetyssä rahoituksessa yliopistot saavat rahoituksen panosten (esimerkiksi opiskelijoiden, henkilökunnan tai aikaisemman rahoituksen määrä) mukaan. Kilpailullinen rahoitus voi olla kilpailullista projektirahoitusta tai kilpailullista perusrahoitusta. Kilpailullinen projektirahoitus on yliopiston ulkopuolisten tutkimusrahoitusinstituutioiden (esimerkiksi Suomen Akatemia) ja muiden tutkimusrahoittajien hankesuunnitelmien laadun perustella myöntämää rahoitusta. Kilpailullista perusrahoitusta yliopistot saavat esimerkiksi julkaisujen määrän tai tutkimuksen vaikuttavuuden perusteella.

Siirtyminen keskitetystä perusrahoituksesta kilpailulliseen rahoitukseen kohottaa tutkimuksen tuottavuutta ja vaikuttavuutta. Kun kriteereinä eivät enää ole panokset, vaan tutkimuksen laatu, enemmän rahoitusta saavat korkeampaa tieteellistä suorituskykyä edustavat yliopistot. Vaikutukset eroavat kuitenkin sen mukaan, onko kyseessä kilpailullinen projektirahoitus vai kilpailullinen perusrahoitus. Kilpailullisessa projektirahoituksessa kaikkien yliopistojen tuotteliaat tutkijat saavat työhönsä enemmän aikaa ja muita resursseja. Kilpailullisen perusrahoituksen vaikutukset jäävät pienemmiksi, koska yliopistojen välisen rahoituksen kriteerit eivät välttämättä siirry tutkijatasolle [14].

Suomen yliopistojen tutkimusrahoituksessa tapahtui tarkasteluajanjaksolla vahva siirtymä keskitetystä perusrahoituksesta kilpailulliseen rahoitukseen. Suurimmaksi osaksi siinä on kyse kilpailullisen projektirahoituksen kasvusta, eikä vain Pölösen ja Aurasen noteeraamasta kilpailullisesta perusrahoituksesta. Siirtymät selittävät hyvin julkaisutuottavuuden kohoamisen. Kehitys on analoginen Norjan kanssa, jossa tutkijat nostivat julkaisutuottavuuttaan ja aikaisemmin julkaisemattomat tutkijat alkoivat julkaista, kun maassa siirryttiin kilpailulliseen rahoitukseen [4]. Mutta mikä selittää sen, että vaikka kilpailun piti kohottaa myös tutkimuksen vaikuttavuutta, se onkin laskenut?

Selittäminen edellyttää palaamista Suomen toteuttamaan tutkimuksen lisärahoitusohjelmaan 1997–1999. Valtio myi omistamiaan yrityksiä, ja sijoitti osan myyntituloistaan tutkimus- ja kehittämistoimintaan. Pääosa lisärahoituksesta suunnattiin Suomen Akatemialle ja Tekesille, jotka valitsivat rahoitettavat kohteet kilpailun perusteella. Määrältään nopeasti lisääntyneisiin hankkeisiin yliopistot joutuivat rekrytoimaan uransa alkupuolella olevia ja matalan tutkimustuottavuuden maistereita ja jatko-opiskelijoita [15]. Seurauksena oli paitsi julkaisutuottavuuden notkahtaminen 2000-luvun alussa (Kuva 1) myös viittausindeksien arvon pysyvämpi lasku, mikä näkyy viiveellä Suomen sijoitusten voimakkaana putoamisena kansainvälisessä vertailussa (Kuva 2).

Suomessa tapahtui sama mikä Belgian flaamilaisissa yliopistoissa [16][17]. Belgia lisäsi 1980-luvulla ja 1990-luvun alussa voimakkaasti tutkimusrahoitusta. Rahoitus jaettiin kilpailullisena projektirahoituksena tutkimuksen laadun perusteella. Oletus oli, että toimenpide nostaisi flaamilaisten yliopistojen tutkimuksen tuottavuutta ja vaikuttavuutta. Tuottavuus ei kuitenkaan noussut ja vaikuttavuus alkuvuosien vähäisen nousun jälkeen kääntyi laskuun. Huomiota herättävää oli, että eniten ulkoista rahoitusta saaneiden tutkimusyksiköiden tuottavuus laski voimakkaasti ja vaikuttavuus palautui tarkasteluajanjakson lopussa alkuvuosien tasolle. Moed tutkimuskumppaneineen selittää tätä sekä kokemattomien tutkijoiden osuuden lisääntymisellä sekä sillä, että korkeampaa tuottavuutta ja laatua edustavat senioritutkijat joutuivat käyttämään aikaansa nuorten tutkijoiden ohjaamiseen oman tutkimustyönsä kustannuksella.

Tutkimuksen (julkaisujen) määrä seuraa tutkijoiden määrää, mikä taas riippuu rahoituksen määrästä. Tutkimuksen vaikuttavuus riippuu sen sijaan tutkijakunnan kokoonpanosta, erityisesti tuotteliaiden tutkijoiden osuudesta. Tutkimusrahoituksen äkillinen ja voimakas kasvattaminen lisää todennäköisyyttä, että tutkijakunnan kokoonpano muuttuu tutkimuksen vaikuttavuuden kannalta epäedulliseen suuntaan. Sitä voidaan havainnollistaa tilanteella, jossa professori rekrytoi hankkeisiinsa kaikki tohtorikoulutuskurssin opiskelijat, vastakohtana sille, että hän palkkaa kurssin lahjakkaimmat. Jos rahoitusta lisätään asteittain, professori voi palkata hankkeisiinsa peräkkäisten kurssien lahjakkaimmat opiskelijat, jolloin kaikki rekrytoidut edustavat tuotteliainta tutkijapotentiaalia.

Tutkimuksen lisärahoitusohjelman myötä tutkijakunnan kokoonpano muuttui, mikä on heijastunut suomalaisen tutkimuksen kansainvälisessä vaikuttavuudessa. On kuitenkin odotettavissa, että Suomi palaa tulevina vuosina aikaisempien vuosien sijoituksiin kansainvälisissä tiedevertailuissa. Suomen tutkijakunta oli laajimmillaan vuonna 2004, jonka jälkeen yliopistot ovat palanneet asteittaisen rekrytoinnin malliin.

On tavallista, että yliopistojen tutkimuksen julkaisutuottavuutta ja vaikuttavuutta tarkasteltaessa viitataan tutkimusrahoitusjärjestelmissä tapahtuneisiin muutoksiin, ja niissä otetaan huomioon vain yliopistojen kilpailullinen perusrahoitus. Usein kuitenkin suurempaa roolia näyttelevät kilpailullinen projektirahoitus sekä muutokset tutkijakunnan kokoonpanossa.

Kirjallisuus

  1. , (). Julkaisupaine suomalaisessa tiedeyhteisössä. Informaatiotutkimus 36(2) https://doi.org/10.23978/inf.65186
  2. (). Explaining Australia’s increased share of ISI publications—the effects of a funding formula based on publication counts. Research Policy 32(1), 143. https://doi.org/10.1016/S0048-7333(02)00007-0
  3. , , (). Perverse effects of output-based research funding? Butler’s Australian case revisited. Journal of Informetrics 11(3), 905. https://doi.org/10.1016/j.joi.2017.05.016
  4. , , (). What happens when national research funding is linked to differentiated publication counts? A comparison of the Australian and Norwegian publication-based funding models. Research Evaluation 25(3), 244. https://doi.org/10.1093/reseval/rvv036
  5. Tiedepolitiikan tietopohjan kehittäminen Bibliometristen aineistojen käytettävyys yliopistojen julkaisujen laadun ja tuottavuuden arvioinnissa. Opetus- ja kulttuuriministeriö. http://urn.fi/URN:ISBN:978-952-485-280-7
  6. , (). Julkaisukäytännöt eri tieteenaloilla.. Opetus- ja kulttuuriministeriö. . http://urn.fi/URN:ISBN:978-952-485-566-2
  7. , , , , (). Measuring the productivity of national R&D systems: challenges in cross-national comparisons of R&D input and publication output indicators. Science and Public Policy 44(2), 246. https://doi.org/10.1093/scipol/scw058
  8. , (). Researchers’ individual publication rate has not increased in a century. PloS One 11(3) https://doi.org/10.1371/journal.pone.0149504
  9. , , (). Suomen kansainvälinen yhteisjulkaiseminen. Opetus- ja kulttuuriministeriön julkaisuja 2012:4. Opetus- ja kulttuuriministeriö. . http://urn.fi/urn:isbn:978-952-263-097-1
  10. (). The frequency distribution of scientific productivity. Journal of the Washington Academy of Sciences 16(12), 317.http://www.jstor.org/stable/24529203
  11. (). Little science, big science ... and beyond. New York: Columbia University Press. .
  12. , (). The Ortega hypothesis: citation analysis suggests that only a few scientists contribute to scientific progress. Science 178(4059), 368. https://doi.org/10.1126/science.178.4059.368
  13. , (). Author practices in citing other authors, institutions, and journals. Journal of the Association for Information Science and Technology 67(10), 2536. https://doi.org/10.1002/asi.23580
  14. (). How incentives trickle down: local use of a national bibliometric indicator system. Science and Public Policy 42(5), 725. https://doi.org/10.1093/scipol/scu087
  15. Tutkimuksen tuottavuuden kehitys Suomen yliopistoissa Tutkimuksen tuottavuuden kehitys Suomen yliopistoissa. Opetus- ja kulttuuriministeriö. http://urn.fi/URN:ISBN:978-952-485-982-0
  16. , , , , (). The effects of changes in the funding structure of the Flemish universities on their research capacity, productivity and impact during the 1980’s and early 1990’s. Scientometrics 43(2), 231. https://doi.org/10.1007/BF02458409
  17. (). ’Notkahduksen’ selittämisestä. Tiedepolitiikka 37(2), 17.http://urn.fi/URN:NBN:fi:ELE-1555951