Tiede Webin aikakautena: laajentuva elektroninen maailma

Nature-lehden numerossa 7068 oli monta artikkelia teemalla ”Science in the web age”. Artikkelit käsittelevät tieteellisen viestinnän tulevaisuutta; mm. blogeja, digitointiprojekteja ja Google Scholaria. Tässä yhteenvedot näistä artikkeleista.

Johdanto Webin uusiin tekniikoihin

Sarah Tomlin: Science in the web age: The expanding electronic universe – News Feature, Nature 438, 547 (1 December 2005),http://www.nature.com/nature/journal/v438/n7068/full/438547a.html

Studies in Intelligence -lehden syyskuun 2005 numerossa oli D. Calvin Andrusin kirjoittamaartikkeli wikien ja blogien käytöstä ideoiden levittämisessä ja kommentoinnissa sekä tätä kautta joustavammasta tiedon hallinnasta. Samalla tavoin niitä voitaisiin käyttää myös tiedeyhteisössä.

Seuraavat artikkelit tutkivat mitä blogit, wikit ja muut uudet tekniikat voivat muuttaa tieteellistä viestintää. Nämä työkalut tarjoavat uusia mahdollisuuksia tutkijoiden keskinäisessä viestinnässä. Myös viestinnässä suuren yleisön ja päätöksentekijöiden kanssa avautuu uusia mahdollisuuksia.

Tällä hetkellä tiede on jäljessä näiden mahdollisuuksien hyödyntämisessä. Tutkijat ovat usein vastentahtoisia julkaisemaan ajatuksiaan verkossa, peläten että se olisi epäsopivaa tai voisi vahingoittaa heidän uraansa.

Toinen huolenaihe on pelko tiedon yliannostuksesta viestinnän helpottuessa. Osa esitellyistä työkaluista tarjoaa tähän apua mm. tiedon suodattamisen tai kehittyneiden hakumahdollisuuksien avulla.

Suuri osa näistä uusista mahdollisuuksista tuskin johtaa mihinkään: osan syrjäyttävät paremmat tekniikat, osa taas kaatunee tiedeyhteisön kulttuuriseen vastustukseen. Keskinkertaisten ajatusten joukosta kuitenkin nousevat esiin nerokkaimmat ideat, jotka menestyvät.

Tiedon vapaus ja hajautettavuus

Let data speak to data – Editorial, Nature 438, 531 (1 December 2005),http://www.nature.com/nature/journal/v438/n7068/full/438531a.html

Internet mahdollistaa nykyään raakatiedon (datan) jakamisen sekä epävirallisen keskustelun paljon aiempaa paremmin. Mutta hyödyntääkseen uutta tekniikkaa parhaalla mahdollisella tavalla, tutkijoiden täytyisi tukea tiedon jakamista ja uudistaa näkemyksiään tietokannoista.

Uudet verkkotekniikat ovat muuttamassa verkon luonnetta staattisesta sähköisestä kirjastosta interaktiiviseksi, yhteistyötä tukevaksi työskentely-ympäristöksi (ns. Web 2.0). Suuria muutoksia on viime aikoina nähty etenkin bioinformatiikassa ja tähtitieteessä. Tähtitieteessä tutkimus keskittyy laajojen tietovarantojen ympärille, joita tuottaa ja käyttää koko tutkimusyhteisö. Yksinään toimivien ja tietojaan pimittävien tutkimusryhmien aika alkaa olla ohi.

Yksi teknologinen muutos tämän takana on siirtyminen suurista, keskitetyistä tietokannoista verkkopalveluihin: rajapintoihin, jotka mahdollistavat hajautettujen järjestelmien keskustelemisen keskenään. Rajapinnat antavat kenelle tahansa ohjelmointikykyiselle mahdollisuuden kerätä ja yhdistellä automaattisesti eri järjestelmistä peräsin olevaa tietoa. Tuloksena syntyy aivan uusia palveluita. Esimerkiksi biodiversiteettitutkimuksessa tutkijat voisivat hakea tietoa lajien taksonomiasta, levinneisyyksistä ja geneettisestä koodista näihin kuhunkin keskittyneestä itsenäisestä järjestelmästä. Tiedon hajauttaminen turvaa myös sen saatavuutta projektien rahoituksien loppuessa tai ihmisten siirtyessä muualle.

Tieteessä tarvitaan kuitenkin myös keskitettyjä tietovarantoja tiedon pysyvään pitkäaikaissäilytykseen sekä helpon saatavuuden varmistamiseksi. Esimerkkejä säilytyspalveluista on jo olemassa: OurMedia on mm. Internet Archiven ja Creative Commonsin tukema projekti, joka tarjoaa ilmaista pysyvää säilytystilaa digitaalisille töille.

Verkkopalvelut ovat riippuvaisia siitä että tietokoneet pääsevät vapaasti käsiksi tietoon. Tämä vaatii uutta ajattelua tiedon vapaudesta. Vaikka mm. tunnettu GenBank tarjoaa vapaan pääsyn raakatietoonsa, monet tutkimuslaitokset pitäytyvät vanhoissa tiedonkäyttöperiaatteissa, jotka estävät tiedon käytön verkkopalvelujen toimesta.

Kovalla työllä kerätyn tiedon pitäminen vain omassa käytössä voi olla perusteltua, mutta on paljon tietoa, jota ei tarvitsisi pitää piilossa. Vain muutamat organisaatiot näyttävät olevan tietoisiaCreative Commons -lisensseistä, jotka mahdollistavat tiedon jakamisen koneiden käyttöön säilyttäen samalla tekijän oikeudet ja tunnustuksen.

Suurin este uusien visioiden käyttöönotossa on kulttuurinen. On tärkeää kehittää mielekkäitä tunnustustapoja niille, jotka jakavat tietojaan vapaasti, jotta uusia tapoja otettaisiin käyttöön. Tieteellinen kilpailu kun on ja pysyy.

Webin uudenlainen käyttö tieteellisessä viestinnässä

Declan Butler: Science in the web age: Joint efforts – News Feature, Nature 438, 548-549 (1 December 2005), http://www.nature.com/nature/journal/v438/n7068/full/438548a.html

Tiedeyhteisö on parhaimmillaan ideoiden kauppapaikka. Monet tutkijat ovat kuitenkin haluttomia käyttämään uusia työkaluja, jotka auttaisivat heitä viestimään nykyistä paremmin.

Tim Berners-Lee loi Webin 15 vuotta sitten viestintäalustaksi tutkijakollegoilleen. Webin suosio ylitti odotukset, mutta viestintänäkökulma jäi taka-alalle: Web nähtiin aluksi lähinnä tietoarkistona. Sittemmin se on alkanut palata juurilleen. Uudet työkalut mahdollistavat Webin joustavamman käytön viestinnässä (kehitystä kutsutaan myös nimellä Web 2.0). ”Uudessa Webissä” olennaista onkin dynaaminen interaktio ja keskustelu käyttäjien välillä. Tiedeyhteisö on kuitenkin jäämässä tästä kehityksestä jälkeen.

Useimmat tutkijat näkevät perinteisen tieteellisen kirjallisuuden ensisijaisena julkaisumuotona. Mutta erityisesti nuoret tutkijat ovat huolissaan siitä että tutkijat eivät käytä uusia keinoja viestiä toistensa ja yleisön kanssa. He suosittelevat yhteistyöhön perustuvien työkalujen käyttöä, kuten blogeja ja wikejä.

Kannattajat sanovat että nämä tarjoavat ympäristön nykyistä laajemmalle ja ajankohtaisemmalle keskustelulle, täydentämään nykyistä vertaisarvioituihin julkaisuihin perustuvaa järjestelmää. Tämä tehostaisi tieteellistä viestintää.

Blogit voivat tarjota mitä tahansa sisältöä luoden ympärilleen hetkessä verkkoyhteisön. Tiedeyhteisön ulkopuolella blogien suosio kasvaa huimaa vauhtia. Blogeja arvioidaan olevat n. 20 miljoonaa kaikilta yhteiskunnan aloilta. Tieteeseen keskittyviä blogeja on kuitenkin vain vähän (esimerkkinä biologiaa käsittelevä Pharyngula).

Blogit ovat vain yksi esimerkki uusista tekniikoista, jotka mahdollistavat verkkojulkaisun nykyistä nopeammin ja monipuolisemmilla tavoilla.

Toinen paljon huomiota saanut julkaisumuoto ovat Wikit. Ne ovat web-sivustoja, joita kuka tahansa voi muokata. Parhaiten tunnettu wiki on Wikipedia, verkkoajan tietosanakirja. Muutamat tutkijat ovat jo perustaneet omia wikejään, esimerkkinä OpenWetWare, joka tavoittelee tiedon jakamista biologien kesken.

Mielipiteitä blogeista tieteen käytössä

Monet tutkijat kuitenkin näkevät blogit ja wikit häiritsevinä ja aikaa vievinä turhuuksina, jotka vain lisäävät tietotulvaa. Blogeja käyttävät tutkijat kuitenkin ajattelevat että blogiyhteisö voi muodostaa ”suodattimen”, joka nostaa esiin tärkeitä ja ajankohtaisia asioita tietotulvan keskeltä. Mitä suurempi blogiyhteisö on, sitä tehokkaampaa suodatus on. Suodatus muistuttaa jossain määrin BioMed Centralin maksullista Faculty of 1,000 -palvelua, joka nostaa esiin olennaisia tutkimusartikkeleita tutkijoiden suosituksiin perustuen. Monet tutkijat kuitenkin suhtautuvat varauksella siihen että blogit auttaisivat hallitsemaan tietotulvaa.

Blogit nähdään usein perinteisiä julkaisemistapoja tukevina. Perinteiset julkaisut ovat staattisia, mutta kun saman asian julkaisee blogissa, voi helposti saada palautetta ja uusia ideoita monilta ihmisiltä myös oman alansa ulkopuolelta. Myös blogien lukijamäärät voivat olla huomattavastikin suurempia kuin perinteisten lehtien lukijamäärät tai luentojen yleisö (esimerkiksi Effect Measure -blogilla on n. 1500 lukijaa päivässä).

Monet kokevat tieteen keskittyvän liiallisesti perinteisiin ”papereihin”, joista on tullut paremminkin kirjoittajan aseman mittari kuin viestintäväline.

Webin erilaisilla palveluilla (perinteisten lehtien verkkoversioista blogeihin ja wikeihin) on omat virhelähteensä sekä hyvät ja huonot puolensa. Nämä kuitenkin tunnetaan, ja voidaan ottaa huomioon tietoa käytettäessä.

Perinteisten lehtien yhteydessä toimivat blogit voivat auttaa kuromaan kuilua uuden ja perinteisen median välillä. Yksi esimerkki on Blog.Bioethics.Net-blogi, joka toimii The American Journal of Bioethics -lehden yhteydessä. Blogi auttaa lehteä vastaamaan nopeasti ja uudella tavalla kiistanalaisiin aiheisiin ja lisää lehden näkyvyyttä valtamediassa.

Paperilehdet eivät pysy kehityksen mukana kaikilla aloilla. Esimerkiksi Real Climate -blogissa ilmastotutkijat tarjoavat tutkimustietoa ajankohtaisista ilmastokysymyksistä paljon nopeammin kuin mihin paperilehti pystyisi.

Monet tutkijat eivät kirjoita blogeihin, koska he kokevat blogit epäilyttävinä ja pelkäävät niiden käytön vahingoittavan uraansa. Yleinen pelko on että kilpailijat varastavat ideoita, jos niitä esittää vähänkään julkisesti. Monet pelkäävät myös esimiestensä suhtautumista bloggaamiseen. Tämä tilanne jatkuu niin kauan kun blogin pitämistä pidetään epänormaalina toimintana.

Uusi tutkijasukupolvi kuitenkin pitää liiallista kilpailua vahingollisena tieteelle. Monet uskovat että ajatusten esittämisestä Webissä ja julkisesta aivoriihestä on enemmän hyötyä kuin haittaa. Ajatusta voi pitää myös naiivina, mutta kun tutkijat kehittävät blogeihin jonkinlaisen vertaisarviointijärjestelmän ilman että se vähentää niiden spontaania luonnetta, bloggauksen uskotaan yleistyvän tiedeyhteisössäkin.

Juttuun haastateltiin mm. Amy Gahrania, joka pitää omaa Contentious-blogiaan. Siellä hän kirjoittaa omia näkemyksiään, joista tässä pääkohdat:

Paljon puhuttu Web 2.0 ei ole uusi Webin ilmiö, vaan juontaa juurensa syvempää yhteiskunnasta. Web ei ole muuttunut keskustelevammaksi uusien työkalujen ansiosta, vaan uusia työkaluja on syntynyt koska yhteiskunnassa on alettu keskustella aiempaa enemmän.

Kestävä tiede on perustaltaan metodologista, ts. siihen kuuluvat juurta jaksaen kuvatut ja säntillisesti toistetut tutkimusmenetelmät. Jotta tiede olisi edelleen kestävällä pohjalla, tämän periaatteen pitää toimia jatkossakin, samoin kuin tieteellisen laadunvalvonnan.

Uudet joustavammat viestintävälineet auttavat tieteen tekoa, mutta eivät muuta sitä ratkaisevasti. Ne toimivat työkaluina samaan tapaan kuin muutkin viestintävälineet puhelimesta internetin ilmoitustauluihin. Mutta ne voivat edesauttaa etenkin amatöörien tekemän tieteen uutta tulemista.

 

Blogiyhteisössä Naturen artikkelista käydään puhutaan lisäksi kymmenien muiden blogien voimin.

Tieteellisen paperimedian tulevaisuus

Andreas von Bubnoff: Science in the web age: The real death of print – News Feature, Nature 438, 550-552 (1 December 2005),http://www.nature.com/nature/journal/v438/n7068/full/438550a.html

Maailmalla on meneillään monia digitointiprojekteja, joissa kirjoja muutetaan sähköiseen muotoon ja julkaistaan verkossa. Kunnianhimoihin ja eniten julkisuutta saanut projekti on Google Book.

On usein hankala löytää vanhoja kirjoja joiden painos on loppunut. Tätä ongelmaa ratkaisemaan on syntynyt useita kirjojen digitointiprojekteja. Niiden visiona on että kirjojen sisältämä tieto olisi saatavissa verkosta nopeasti ja helposti. Digitointi tuo kirjat paitsi paremmin saataville, myös helpottaa tiedon etsintää niiden sisältä. Sen sijaan että etsittäisiin haluttua kirjaa, voitaisiin keskittyä kaivatun tiedon hakuun.

Pari vuotta sitten digitointiprojekteja oli vain muutamia, pioneerina Project Gutenberg. Joulukuussa 2004 Google julkisti oman projektinsa, Google Bookin, jonka tavoitteena on digitoida miljoonia kirjoja viiden suuren amerikkalaisen kirjaston kokoelmista. Google tarjoaa verkkohakupalvelun, jonka avulla kuka tahansa voi tehdä hakuja kirjojen sisältöön. Kirjoista ei kuitenkaan saa luettavaksi kuin lyhyen otteen. Myös verkkokauppa Amazonilla tarjoaa samanlaista palvelua osaan myymistään kirjoista. Tausta-ajatuksena on että hakumahdollisuus kannustaa ihmisiä ostamaan kirjoja.

Vaikka Google ei julkaise digitoituja kirjoja verkossa, projekti on kohdannut vastustusta kustantamojen puolelta. Kustantajat eivät halua että Google digitoi kirjoja ilman julkaisijan etukäteen antamaa lupaa. Oikeudenkäynti asiasta on kesken.

Googlen vanavedessä myös muut digitointiprojektit ovat ottaneet tuulta alleen (esim. Million Book Project). Niiden useimpien tarkoituksena on saattaa kirjat kokonaisuudessaan luettavaksi verkossa. Nämä projektit keskittyvätkin vanhoihin kirjoihin, joiden tekijänoikeudet ovat vanhentuneet.

Digitointiprojekteihin liittyen on syntynyt huoli lukutapojen muutoksesta huonompaan suuntaan. Kun kirjoista voi helposti etsiä yksittäisiä tiedonmurusia, pelätään että ihmiset lukevat vain nämä muruset. Tällöin heille ei muodostu syvällistä kokonaiskuvaa, jollaisen voi saavuttaa vain perehtymällä laajempaan tekstiin. Sama ilmiö näkyy verkkosivujen käytössä: lukijat poimivat yksittäisiä tiedonmurusia sieltä täältä.

(Yksi huoli ei-engalnninkielisissä maissa liittyy kulttuuriin saatavuuteen.)

Myös digitoinnin keskittyminen yritysten käsiin on herättänyt huolta. Vaikka Google ei ole ilmoittanut hakupalvelun maksullisuudesta tai omistusoikeudestaan digitoituun materiaaliin, digitointia ei haluta jättää pelkästään yrityksille. Vastavetona on syntynyt Open Content Alliance(OCA), jonka tarkoituksena on saattaa vanhoja kirjoja mahdollisimman vapaaseen jakeluun. Sen tarkoituksen on vastata Googlelle myös skannattujen kirjojen määrässä.

Biologien näkökulmasta OCA on kiinnostavin projekti. Kahdeksan museota on muodostanut Biodiversity Heritage Library -projektin, jonka tarkoituksena on OCA:n kanssa digitoida miljoona biodiversiteettiä käsittelevää kirjaa.

PS. Artikkelin lopussa Matthias Ulmer väittää että vanhojen kirjojen skannaus on ”täyttä rahan tuhlausta”, ilmeisesti koska niitä ei hänen näkemyksensä mukaan tieteessä tarvita. Tämä väite on ainakin biologian osalta täysin väärä: on paljon (suppeita) tutkimusaloja joista ei ole tuoreita julkaisuja, koska alalla ei ole viime aikoina tehty tutkimusta. (Suoraan sanottuna epäilen että Ulmerin väite on pohjimmiltaan kaupallinen ja sen tarkoituksena on tuoda esiin hänen edustamiensa kustantajien uusien kirjojen digitointiprojektia.)

Scholar: tieteellinen Google-haku

Jim Giles: Science in the web age: Start your engines – News Feature, Nature 438, 554-555 (1 December 2005), http://www.nature.com/nature/journal/v438/n7068/full/438554a.html

Google julkaisi marraskuussa 2004 Google Scholarin, jonka on yliopistomaailmalle suunnattu artikkelihakupalvelu. (Ks. juttuani samasta aiheesta vuosi sitten) Scholarin tavoitteena on tulla ensisijaiseksi hakupalveluksi sekä opiskelijoille että tutkijoille.

Google Scholar on helppokäyttöisin työkalu artikkelien löytämiseen suurelle yleisölle. Monilla tutkimusaloilla on kuitenkin omat, juuri niille suunnitellut hakupalvelunsa, joita alan tutkijat ovat tottuneet käyttämään. Miksi tutkijat siirtyisivät näistä Scholarin käyttöön?

Scholar on saavuttanut sekä suosiota että epäileviä kommentteja. Sen käyttö kasvaa nopeasti ja on epäilty että se voi syrjäyttää monia vakiintuneempia palveluja. Se on erityisen hyvä silloin kun tiedonhakija ei osaa tarkkaan sanoa mitä etsii tai kun hän etsii tietoa oman alansa ulkopuolelta. Myös opiskelijat käyttävät Scholaria paljon.

Scholar seuraa myös sitaatteja: artikkelien tiedoista pääsee helposti käsiksi niitä siteeraaviin myöhemmin julkaistuihin artikkeleihin. Tällaista toimintoa ei ole monissa kaupallisissa artikkelihakupalveluissa, poikkeuksena Elsevierien Scopus ja Thomson Scientificin Web of Science. Sitaattilinkkejä seuraamalla löytää helposti artikkeleita, joihin ei muulla tavoin törmäisi.

Mutta toisin kuin kaupalliset hakupalvelut, Scolar ei tallenna tietokantaansa pelkästään vertaisarvioitua kirjallisuutta. Mukana on esijulkaistuja artikkeleita (preprint), konferenssijulkaisuja (conference proceedings) ja muita julkaisuja. Tämän ns. harmaan kirjallisuuden merkitys kasvaa jatkuvasti. Scholariin ilmeisesti otetaan mukaan kaikenlaisia julkaisuja, joihin viitataan vertaisarvioiduissa julkaisuissa.

Scholar löytää suunnilleen saman verran artikkeleita kuin kaupalliset palvelut, mutta sillä on ongelmia kaksoiskappaleiden kanssa. Kun kaupalliset hakupalveluihin syötetään tietoja systemaattisella tavalla ja niitä tarkistetaan osin käsipelillä, Scholar tekee kaiken automaattisesti koko Webiä tutkien. Tuloksena voi olla paljon näennäisesti erilaisia hakutuloksia, jotka kuitenkin viittaavat samaan lähteeseen.

Scholarilla on jonkin verran ongelmia myös artikkelien metadatan (kuten kirjoittaja, julkaisuvuosi) tulkinnassa. Sen tietokantaa ei myöskään vielä päivitetä päivittäin. Toisaalta Scolarin haku kohdistuu usein koko artikkeliin, kun hakupalvelut tavallisesti mahdollistavat haun vain tiivistelmistä ja otsikosta. Googlessa ei kuitenkaan ole mukana muita kuin verkossa julkaistuja artikkeleita; esim. Web of Sciencen arkisto ulottuu vuoteen 1900. Sitaattien seuranta voi joskus tuottaa outoja tuloksia, Scholaria voi esim. väittää niitä olevan huomattavasti todellisuutta vähemmän.

Toistaiseksi kirjastoalan ammattilaiset ovat yhtä mieltä siitä että kun tarvitaan perusteellista kirjallisuushakua tai luotettavaa tietoa sitaattien määrästä, kannattaa käyttää vakiintuneita tieteellisiä hakupalveluita. Scholar on vielä kokeiluasteella (”beta”), eivätkä sen toimintaperiaatteet ole julkisia.

Kaikki hakupalvelut kehittyvät kaiken aikaa, mutta Google säilyttänee yksinaseman harmaan kirjallisuuden etsinnässä. Seuraava kiinnostava asia on julkaiseeko Google ohjelmointirajapinnan Scholariin, kuten se on tehnyt muutamilla muilla palveluillaan (esim. Google Maps). Ainakaan pian tällaista ei kuitenkaan ole tulossa. Rajapinta antaisi käyttäjille mahdollisuuden ohjelmoida omia lisätyökaluja Scholariin (yksi tämän suuntaisista projekteista on LibXFirefox-selaimeen tehty lisäosa).

Tämän sivun sisältöä voi kommentoida blogissa.