Scientometri: Videnskabspublicering og bibliometriske metoder

Publiceret April 2005

At udføre citationsanalyser og lignende bibliometriske sammentællinger af publicerede forskningsartikler kaldes ofte ’Scientometri’ – dvs. måling af videnskab. Scientometriske undersøgelser kræver som anden forskning stringens og kvalitetskontrol. Den almindelige antagelse er, at publikationsaktiviteten og -mønstre afspejler forskningsaktiviteten. Citationer antages at afspejle anerkendelse fra medforskere, som senere har gjort brug af den udgivne forskning – som en slags betaling. Nogle vil endda hævde, at citationer viser noget om forskningens kvalitet.

Dette er nok at gå for langt i fortolkningen af citationers betydning – specielt udenfor de naturvidenskabelige områder. I stedet for kan man sige, at citationer viser forskningens gennemslagskraft eller synlighed. Man antager desuden, at de centrale citationsbaser Science Citation Index (SCI) og Social Science Citation Index (SSCI) viser et troværdigt billede af forskningssituationen i en given periode på (inter)nationalt, institutionelt og/eller disciplinniveau. Disse antagelsers rigtighed diskuteres ofte kritisk (1-2), herunder basernes dækningsgrad, som fx. for dansk sundhedsvidenskabelig forskning på internationalt artikelniveau er godt 90 % (3).

Scientometrien anvender forskellige kvantitative metoder, som traditionelt kaldes bibliometriske – altså ’bogmåling’ – selv om man ikke mere kun tæller og analyserer publikationer i traditionel forstand, dvs. artikler, bøger eller patenter og deres citationer. Moderne datatyper, f.eks. elektroniske lænker til og fra web-sider1 indgår i stigende grad. Som redskab for analyserne anvendes oftest de af Institute for Scientific Information (Thomson/ISI, USA) producerede citationsbaser, nævnt ovenfor, herunder afledte produkter som National Science Indicators (NSI), som i tabelform oplyser om mere end 100 landes indikatorer indenfor over 100 fagområder. Baserne er opbygget af kolossale mængder af tidsskriftsartikler – med tilhørende referencelister – fra flere end 6.000 internationale tidsskrifter udgivet fra midten af 1970-erne. Vi taler her om op mod hundrede millioner citationer, som er i omløb. Man skal her huske, at nogle videnskabelige felter har mange citationer i omløb på grund af stor publikationsaktivitet og særlig citationsadfærd, mens andre discipliner udviser et mindre citationsomfang – se Tabel 1. Det er derfor svært umiddelbart at sammenligne på tværs af faglige discipliner.

SCI og de andre citationsbaser indekserer imidlertid ikke bøger og kongresberetninger, hvorfor de humanistiske og visse samfundsvidenskabelige fag ikke kan anvende dem uden supplerende og kostbare manuelle analyser. Kun i fag, hvor det videnskabelige tidsskrift er det centrale forskningsformidlende medie, som i molekylærbiologi o.l., kan citationsbaserne anvendes som et sikkert analyseredskab. Man skal ligeledes være opmærksom på, at citationer afgivet i bøger, kongresbidrag og lokale tidsskrifter til de internationale centrale tidsskrifter i SCI ikke medtages i SCI. Dette skyldes, at disse publikationstyper ikke optages i indekset.

Tabel 1 viser de ret store forskelle i citations- og publikationsmængder samt gennemslagskraft, som forekommer selv mellem beslægtede biomedicinske discipliner og i forhold til et samfundsvidenskabeligt område. Tallene kan også anvendes til at finde verdensandele, fx at Generel & Intern Medicin udgør 1 % af verdensproduktionen, men modtager 1,7 % af citationerne. Heroverfor står Molekylærbiologi og Genetik med 1,4 % som verdensandel på publikationssiden, men blot godt 1 % af de modtagne citationer. Derfor den 20 % lavere gennemslagskraft for Danmark i relation til verden i dette område.

 

C/P - Verden

c/p - DK

Citat. - Verden

Citat. - DK

Publ. - V

publ. - DK

Biokemi & Biofysik

8,82

8,67

1.198.166

13.202

135.854

1.523

Generel & Intern Medicin

5,59

9,68

365.945

6.396

65.508

661

Molekylærbiologi & Genetik

10,04

7,97

599.939

6.481

59.752

813

Statsvidenskab & Off. Adm.

1,02

0,79

19.956

104

19.580

131

Total – alle fire fagkategorier

7,78

8,37

2.184.006

26.183

280.694

3.128

Tabel 1. Gennemslagskraft 1996-2000 pr. fag-kategori (C/P), for Danmark (c/p) samt citations- og publikationsantal for kategorierne vedr. verden og  Danmark (Kilde: NSI, 2001)

Nærværende artikel søger at give et indblik i de centrale scientometriske indikatorer, som kan udledes via publikations- og citationsmålinger. Artiklen berører også faldgruber, som man kan løbe ind i under analysearbejdet, samt anvendelsen af analyser af World Wide Web, dvs. Webometri.

Scientometriske indikatorer og faldgruber

Det er væsentligt først at gøre sig klart, på hvilket niveau analyserne skal foretages: (inter)nationalt, regionalt, institutionelt, afdeling/institut/center, eller forskningsgruppe. Naturligvis kan analyser ligeledes foretages alene på individ-niveau, men det siger sig selv, at der er store etiske problemer og situationsbestemte faktorer forbundet med denne analysetype. Individuelle analyser indgår naturligvis på højere aggregeringsniveauer, hvor individerne beholder deres anonymitet.  

De primære scientometriske indikatorer er:

  1. Publikationsandel i forhold til landet og/eller faget (=verden) som helhed. Se Tabel 1, p/P;
  2. Citationsandel, se Tabel 1, c/C;
  3. Gennemslagskraft for enheden under analyse, dvs. c/p, se Tabel 1;
  4. Gennemslagskraft for enheden – set i forhold til gennemslagskraft for:
  1. faget (=verden) som sådan: (c/p) / (C/P), Tabel 1;
  2. andre lignende enheder, fx. laboratorier i andre universiteter og lande;
  3. et højere aggregeringsniveau, fx. universitetet og landet som helhed;
  4. andre sammenlignelige enheder, fx. de anvendte tidsskrifter.

Indikatorerne kan alle laves som tidsserier og sættes i forhold til økonomiske og andre ressourceprægede forhold: antal VIP, sengepladser, forskningsmidler, o.l.

Sekundære indikatorer kan fx være:

  1. Antallet af forfattere pr. artikel over tid, samt deres geografiske og institutionelle tilhørsforhold. Denne indikator informerer om (inter)nationalt samarbejde;
  2. Andelen af artikler citeret mindst én gang  pr. tidsenhed. Denne indikator oplyser om omfanget af forskningen, som rent faktisk anvendes af andre forskere over et bestemt tidsrum;
  3. Videneksportens spredning over citerende lande og fagområder;
  4. Videnimportens spredning over citerede lande, fag og tidsrum (forældelse)

Der er mange flere muligheder, fx ved at inddrage produkter som patenter, licenser o.l. eller ved at se på webometriske indikatorer, fx tyngden af indlænker til en enhed. Som nævnt nedenfor, har lænker ikke samme betydning som videnskabelige citationer grundet manglen på konventioner ved skabelse af lænker.

Fælles for alle indikatorer er dybest set anvendelsen af de grundlæggende publikations- og citationstællinger. Derfor er kvaliteten heraf afgørende. Det er ofte her faldgruberne indfinder sig. For eksempel spiller navneformer for forskerne og tidsskriftstitler en stor rolle. Der er ingen såkaldt navneformskontrol i citationsbaserne for personer eller citerede tidsskrifter. Kun de publicerende tidsskrifter kontrolleres. Dette indebærer, at de former for forfatter- og tidsskriftsnavne, med eller uden initialer og forkortelser, som oprindelig blev anført i en artikel og dens litteraturhenvisninger, videreføres i indekserne. Samme problem optræder ofte i de officielle årsberetninger fra danske universiteter, se eksempler i (3).

Sammenligninger ved Brug af Indikatorer

En anden faldgrube forekommer ofte i forbindelse med sammenlignende analyser, hvor flere indikatorer indgår. Den retfærdigste måde at analysere fx et forskningscenters gennemslagskraft på, er dels at sammenligne til centrets videnskabelige områder på verdensplan, jf. punkt 4a ovenfor, dels til citationstyngden af de af centret anvendte tidsskrifter, jf. punkt 4d.

Diakrone Analyser

Den førstnævnte sammenligning udføres ved, at alle centrets modtagne citationer optælles artikel for artikel i citationsbaserne. Summen divideret med artikelantallet for centret udgør dermed centrets reelle gennemslagskraft for en given periode (CIF). Denne kan nu sammenlignes direkte med gennemslagskraften for centrets egne forskningsområder. Grundtallene kan findes i NSI. Tabel 1 angiver fx disse indikatorer for Danmark og verden for et ’skyggecenter’ omfattende netop de fire fagkategorier (4). Vi observerer, at for dette måske lidt kunstige center ligger den danske gennemsnitlige gennemslagskraft faktisk over verdens (8,4 > 7,8). Dette skyldes ’vægten’ af de Biokemiske og Generel & Intern Medicinske felter. Ligger nu enhedens CIF over 8,4 er vort center altså bedre kørende end såvel det danske som verdensgennemsnittet – med en tilsvarende faglige ’profil’.

Man vil her kunne sammenligne med den sekundære indikator vedr. andelen af citerede artikler. Her er andelen for Danmark 1996-2000: 79,2 % i Biokemi (verden: 77 %), 64,2 % i Generel & Intern medicin (verden: 51,9 %) og blot 36,7 (verden: 35,5 %) for Statsvidenskabsområdet. Dette indicerer at årsagen til Danmarks fordelagtige position først og fremmest ligger i omfanget af publikationerne (forskningen) som citeres, specielt indenfor det medicinske område. Da vi kender vort centers artikler og deres citationer, kan vi derfor også finde centrets andel af citerede artikler til sammenligning. Det er tit observeret, at netop størrelsen af denne andel er af stor betydning for hvor enheden under analyse placerer sig i forhold til andre enheder, verden og det danske gennemsnit.  

Sammenligningen 4d til de anvendte tidsskrifters citationstyngde udføres for at få en ide om publikationsadfærden. Sideløbende med at observere de enkelte artiklers citationstal for centret (som summeres til CIF), findes det antal citationer, som hver anvendt tidsskriftsårgang har modtaget indenfor samme tidsrum. Citationsvinduet bliver dermed det samme for en given centerartikel og det tilhørende tidsskrift. Ved at kende antallet af artikler, som i alt blev publiceret i pågældende tidsskriftsårgang, kan man udregne et diakront (fremadskuende) citationsgennemsnit for tidsskriftet for det givne tidsrum. Dette gennemsnit udgør tidsskriftets reelle Journal Impact Factor (JIF).

JIF er nu direkte sammenlignelig med det antal citationer, centrets pågældende artikel modtog. Er en artikels citationstal større end tidsskriftets JIF, har centerartiklen klaret sig bedre end forventet. JIF angiver nemlig det forventede antal citationer, man i gennemsnit bør modtage siden publiceringen i tidsskriftet. Man kan derfor også sige, at JIF angiver en slags værdi for publiceringssucces. Det samlede gennemsnit af alle de anvendte tidsskrifters forskellige JIF (Center JIF) kan nu direkte sammenlignes med centrets samlede CIF. Sammenligningen mellem CIF og Center JIF er imidlertid relativ. Som vi ser i Tabel 2, optræder nogle interessante forhold i visse situationer hvor flere indikatorer er i spil. Tabellen viser forholdene for fire centre i den offentliggjorte slutevaluering af Det Strategiske Miljøforskningsprogram (SMP), 2004 (5).

Center

CIF

Center JIF

c/p - DK

C/P - V

Terrestrisk økosystemforskning

13.6

11.0

12.4

11.5

Rodzone-processer

14.7

10.4

10.7

7.8

Miljøforskning i ferskvand

28.0

11.0

20.0

19.9

Biokemisk og arbejdsme-dicinsk epidemiologi

25.4

16.6

23.1

22.5

Tabel 2. Gennemslagskraft for fire centre under Det Strategiske Miljøforskningsprogram (5). (kilde: SCI online & NSI, 2001)

Vi observerer, at centrene Terrestrisk økosystemforskning og Biokemisk og Arbejdsmedicin begge besidder en CIF-værdi, der er mindst 10 % højere end alle andre indikatorer. Men centrenes samlede JIF-værdi er mindre end såvel den danske og feltets gennemslagskraft. Samme fænomen optræder i f. m. Ferskvandscentret. Her er CIF endda meget høj, mens Center JIF er meget lav i f. t. landsgennemsnittet og felternes slagkraft. Hvis Center JIF er lavere betyder det, at centrets forskere lidt uambitiøst gik efter at publicere i tidsskrifter, som ligger under felternes samlede gennemslagskraft, nationalt og på verdensniveau – altså valgte lav-impact-tidsskrifter. Alligevel (og heldigvis for centrene) opnåede man pænt høje CIF-værdier. Omvendt betyder en højere Center JIF end felt-slagkraften at forskerne gik efter højimpact-tidsskrifter. Hvis CIF samtidig er højere end centrets JIF - er denne publikationsstrategi og –adfærd lykkedes overmåde godt. Dette sidste er næsten tilfældet for Centert for Rodzone-processer, Tabel 2, hvis Center JIF er på linje med det danske gennemsnit.

Som indikator er CIF meget stærk, idet den kan udføres med et ret langt citationsvindue. I SMP evalueringen udgjorde vinduet maksimalt ni år (1993-02) og minimum seks år 1997-02. Tilsvarende er den diakrone JIF også en uhyre velegnet indikator. Problemet med disse måletyper er imidlertid, at de er historiske. Øjebliksbilleder af forskningens styrke kan vanskeligt udføres på regionalt, institutionelt og lavere niveauer uden store omkostninger, fx ved køb af resultater direkte fra ISI i USA. Problemet er, at man nødvendigvis må vente mindst et år, oftest 2-3 år, før man udfører analyserne p. g. af  trægheden ved publicering af de efterfølgende citationer.

Synkrone Indikatorer – ISI’s Journal Impact Factor

Man har derfor ofte på de enkelte institutter og fakulteter tyet til en mindre arbejds- og omkostningstung metode, som desværre også udgør et mere lemfældigt grundlag eller ligefrem en faldgrube: anvendelsen af den fra ISI kendte og berygtede – ofte frygtede – (synkrone) JIF pr. tidsskrift, som offentliggøres hvert år i Journal Citation Report. Den er udregnet synkront med et fast etårigt citationsvindue rettet bagud mod to tidligere årgange af tidsskriftet under analyse. For eksempel vil et tidsskrifts synkrone JIF for 2004 anføre antal citationer afgivet i hele 2004 tilbage til artiklerne udgivet i 2002-03 i tidsskriftet. Offentliggørelsen af denne JIF-type sker typisk om foråret året efter, dvs. 2005.

Den synkrone JIF informerer også om det forventede antal citationer, man kan opnå i pågældende tidsskrift, men indenfor en meget kort tidsperiode. Imidlertid har mange amatøranalytikere anvendt den direkte på artikelniveau: for hver artikel i et tidsskrift allokeres tidsskriftets synkrone JIF til artiklen for det år den blev publiceret. Dette kan udføres af en sekretær. Summen af alle disse synkrone JIF, divideret med en enheds artikler udgør da enhedens ’gennemslagskraft’. Det siger sig selv, at udregningen de facto alene angiver enhedens forventede gennemslagskraft – dens publikationssucces – ikke dens egentlige tyngde og anerkendelse.

Det er ligeledes indlysende, at man ikke kan foretage en sammenligning mellem en gennemsnitlig synkron JIF og de reelt opnåede citationstal for en enhed, som jo altid tælles fremad (diakront) for enhedens artikler. Den eneste måde at udføre en sammenligning på, er at relatere enhedens samlede synkrone JIF til en generel synkron JIF. Denne udregnes for alle de tidsskrifter, som samlet publiceres indenfor enhedens videnskabelige felter. Udregningen bør ske via de reelle citations- og publikationstal for tidsskrifterne, således at den virkelige vægt af de enkelte tidsskrifters volumen indgår. Man bør ikke forsimple udregningen ved blot at udregne et gennemsnit af gennemsnit, hvorved alle tidsskrifters synkrone JIF får samme vægt. Denne sidste ’felt’-lignende indikator er reelt et udtryk for den samlede forventning til en enheds gennemslagskraft – altså et tal for hvor ambitiøs publiceringsmæssigt enheden burde være.

Rigtigt udregnet betegner den generelle synkrone JIF, ligesom ovenfor for diakrone felt-indikatorer, en slags ’skygge-enhed’ med de samme vægte af videnskabelige felter som enheden under analyse. I modsætning til diakrone indikatorer opererer den synkrone JIF-metode som regel med ret små værdier grundet det snævre citationsvindue. Forskellene mellem enhedens samlede synkrone JIF og skyggeenhedens tilsvarende JIF bliver derfor små og ikke så informative – men indikatoren er mere up-to-date. Ved senere diakrone analyser kan man verificere resultatet fra de synkrone analyser (6). Et eksempel på den synkrone anvendelse af skygge-fakulteter er Spang-Thomsen (7)).

Fragmentering og Selvcitationer

Det er normalt ved større (inter)nationale sammenligninger direkte mellem universiteter, centre/institutter o.a. grupperinger, jf. ovenfor 4b, at der foretages en eller anden form for fragmentering. For eksempel er det velkendt, at antallet af forfattere pr. artikel er stigende indenfor alle videnskaber, inkl. humaniora. Det er derfor naturligt at opdele de opnåede citationer i fragmenter svarende til antal forfattere til de citerede værker eller deres ’ansvar’. Der er en fortløbende diskussion indenfor Scientometrien vedr. fordele og ulemper ved fragmenteringsmetoderne, inkl. anvendelsen af ufragmenterede beregninger. Aggregeringsniveauet har ligeledes betydning, altså om vi skal fragmentere på person-, gruppe, institutions-, regions-, og/eller nationsniveau i analyserne. Det er fx velkendt at USA i høj grad afgiver og modtager citationsmængder, hvis proportion ikke vægtes retvist uden fragmentering på nationsniveau (7).

Netop det internationale samarbejde forøger muligheden for at opnå mange citationer (8). Dette kan iagttages indenfor de naturvidenskabelige fag og sundhedsvidenskaberne. For sundhedsvidenskaberne viser (3), at det internationale samarbejde udgjorde ca. 40 % indenfor allerede i 1998, med USA som den mest frekvente partner. Fragmentering er derfor på sin plads, også fordi der er store forskelle i samarbejdsmønstrene, fx mellem forskellige discipliner. Vanskeligheden ligger på forfatter- og institutionsniveauet, idet en simpel division af modtagne citationer med antallet af forfattere (eller institutioner) involveret i en artikel ofte ikke udgør en retfærdig metode. Mange discipliner lægger vægt på første- og sidsteforfatterens (institutions) placering på titelbladet, hvorfor disse bør vægtes højere end mellemforfatterne. I andre tilfælde anvendes ren alfabetisk placering af forfatterne (og dermed deres institutioner). Det er ligeledes uhyre omkostningstungt at foretage fragmentering  i analyserne.

Selvcitationer udgør et kapitel for sig. I de ovennævnte sammenligninger indgår selvcitationer, også når vi taler om andelen af artikler, som citeres over en given periode. Det er faktisk meget interessant, at over 20 % (i Statsvidenskab over 60 %) af artiklerne over fem år, Tabel 1, ikke engang via selvcitationer opnår nogen citation. Det er ligeledes en myte, at de betyder meget på individ-niveau i analyserne (8). Kun i de (få) tilfælde, hvor en forsker producerer mange artikler, som han/hun konstant selvciterer, og hvor nærmest ingen andre citerer disse artikler, vil selvcitationer opnå en vis betydning. Man skal her være opmærksom på, at forskeren skal være så tilpas ’god’, at han/hun konstant publicerer i de centrale hårdt peer-reviewede, SCI-indekserede tidsskrifter. Ellers er (selv)citationerne jo gået tabt. For ”I cite you – you cite me” syndromet gælder samme betingelser, samt det faktum, at alene de eksterne citationers volumen kan løfte én mod toppen rent citationsmæssigt. Kun i enheder med middelmådige eller dårlige forskere vil selvcitationer derfor udgøre en faktor.

Derimod fungerer selvcitationer på en mere afgørende måde i inter-institutionelle scientometriske analyser, alt efter forskerantal og intra-institutionelt samarbejde.  

Videneksport

Der er en vis sammenhæng mellem samarbejde, selvcitationsfænomenet og videneksport. Eksporten kan måles på de institutioner, lande og discipliner, som afgiver citationer til en enhed under analyse. Man kan fx konstatere om samarbejdsmønstre på internationalt niveau afspejles i citationsmønstre, og om det alene er kerneområdet, som citerer enhedens forskning, eller der sker en spredning af viden til andre områder, målt på citationer. Tabel 3 giver et eksempel fra (5) på hvilke lande, der hovedsagelig citerer Centret for Biokemisk og Arbejdsmedicinsk Epidemiologi. Man observerer det interessante fænomen, at Danmark som hjemmemarked ikke udgør den top-citerende nation. USA er den mest viden-importerende nation for dette center.

RANK No.

Items

%Ranked

Geographic Location

    1

224

30.4%

USA

    2

123

16.7%

DENMARK

    3

72

09.8%

GERMANY

    4

64

08.7%

JAPAN

    5

52

07.1%

ITALY

    6

47

06.4%

ENGLAND

    7

41

05.6%

FRANCE

    8

29

03.9%

NETHERLANDS

    9

25

03.4%

SWEDEN

   10

20

02.7%

CANADA

Tabel 3. Lande citerende Center for Biokemisk og Arbejdsmedicinsk Epidemiologi 1993-2002. (Kilde. SCI Online, ISI; (5)).

Korrelationsanalyser og Kort

Data bag de ovennævnte indikatorer kan ofte anvendes til illustration af adfærdsmønstre. Visualiseringer af samarbejde eller samcitationsmønstre i interdisciplinære domæner bliver mere og mere anvendt, og bygger på multi-dimensionel skalering. Ligeledes finder korrelationsanalyser større anvendelse end førhen. En af årsagerne hertil ar at søge at opklare om der er klare sammenhænge mellem fx økonomiske indikatorer og scientometriske tendenser. Adfærdsanalyser kan også med fordel gøre brug af korrelationsanalyse.

Korrelationen mellem publicering i høj-impacttidsskrifter og efterfølgende indhøstning af mange citationer udgør en sådan type undersøgelse. Som led i evalueringen af SMP blev der foretaget en midtvejsevaluering i 1999, med et femårigt citationsvindue 1993-98, dækkende artikler publiceret 1993-95. Her kunne man konstatere, at der fandtes en statistisk set god korrelation mellem alle de af programmet som helhed anvendte tidsskrifters JIF og de tilsvarende artiklers citationstal ved Pearson’s r = 0,5865, med et sikkerhedsniveau på mindst 99 % (signifikansniveau: 0,005). For top-25 JIF tidsskrifter og tilsvarende artiklers CIF observeredes r = 0,68 og r2 = 0,47. Det vil sige, at anvendelsen af et tidsskrift med høj JIF i hvert andet tilfælde kunne føre til tilsvarende høje citationstal, se Diagram 1.

2005_2 ingwersen.gif
Diagram 1. Korrelation mellem den diakrone gennemslagskraft for de af SMP anvendte tidsskrifter og de tilsvarende artikler, publiceret 1993-1995 og citeret 1993-1998 (5).

Imidlertid viste det sig, at når publikations- og citationsvinduerne blev udvidede under slutevalueringen, med et forøget antal artikler og tidsskrifter som følge, forsvandt den pæne korrelation, både for hele programmet og for top-40 JIF tidsskrifterne (5). Der fremkom for mange tilfælde af lave citationstal til artikler i høj-impact-tidsskrifter og høje citationstal i lav-impact-tidsskrifter – se også diskussionen omkring Tabel 2. Dette skyldes hovedsagelig de forlængede analysevinduer.

Webometri: Analyser af Web-lænker

Webometriske analyser starter i midten af 1990-erne. Dels undersøges søgemaskinernes kapacitet, dækningsgrad, sorteringsalgoritmer o.l., dels foretages et utal af analyser, som fundamentalt udspringer af anvendelsen af bibliometriske metoder. Tidligt fremkom den intuitive opfattelse, at udlænker på www svarede til bibliografiske referencer i videnskabelige arbejder, og at indlænker optræder som citationer. Det blev dog hurtigt klart, at fx ’web-gennemslagskraft’ for en bestem webside eller et web-domæne ikke er det samme som citationstyngde. Der mangler simpelthen de citationskonventioner, som videnskaben generelt hylder og som regel efterlever. Adfærden på www er desuden præget af ad-hoc-lignende tilstande, kaos og adfærdsmønstre, som gør web-analyser uhyre svære at fortolke.

Det har fx vist sig, at der ikke findes en egentlig korrelation mellem antallet af indlænker til en akademisk web-enhed og kvalitet, og ej heller til citationsgennemslagskraft. Derimod er der konstateret relativt overbevisende korrelationer mellem indlænker til akademiske enheder, fx institutter i Storbritannien, og forskningsproduktivitet eller antal VIP (10; 11). Dette er jo egentlig meget naturligt: jo mere publicering (og lagt på nettet) jo større chance for forøget antal indlænker til denne mængde. Årsagerne til at lænker bliver skabt er mangfoldige i forhold til årsagen til at afgive citationer. Men en ting er sikker: det er meget sjældent, at nogen (har lyst til) udformer negative lænker til andre web-sider – i modsætning til den videnskabelige verdens negative citationer begrundet i falsifikation af resultater.

Referencer

(1)   Rehfeld JF. Kvantifering af kvalitet. Ugeskr Læger, 1995, 157: 6111-14.

(2)  Seglen PO. Causal relationship between article citedness and journal impact. J. Am. Soc. Inform. Sci., 1994, 45: 1-11.

(3) Dækningsgraden i Science Citation Index af  dansk sundhedsvidenskabelig forskning 1998. Peter Ingwersen & Elsebeth Lynge. Ugeskr Læger, 2004, 166(40): 3493-3497.

(4) van Raan, A.F.J. Advanced bibliometric methods for the evaluation of universities. Scientometrics, 1999, 45(3): 417-423.

(5) Det Strategiske Miljøforskningsprogram: Forskningsaktivitet og gennemslagskraft. Miljøforskning, nr. 58, 2004: 8-25.

(6) Ingwersen P, Larsen B, Djurhuus JC et al. Rapport fra Arbejdsgruppen vedrørende videnskabelig publicerings- og citationsanalyse (Bibliometrigruppen), November 2000. København: Statens Sundhedsvidenskabelige Forskningsråd, 2000. http://www.fsk.dk /dec. 2003 eller http://www.db.dk/pi /dec. 2003.

(7) Spang-Thomsen, M. Kan og skal dansk sundhedsvidenskab males? Ugeskr Læger, 2004, 166(40): 3479-3480.

(8)  Olesen Larsen, P & Gauffriau, M. Different outcomes of different counting methods for publications and citations. In: Ingwersen, P. & Larsen, B. (eds.), Proceedings of ISSI 2005: The 10th Conference of the International Society for Scientometrics and Informetrics, Stockholm, July 24-28, 2005. (in press).

(9) van Raan, A.F.J. The influence of international collaboration on the impact of research results – Some simple mathematical considerations concerning the role of self-citations. Scientometrics, 1998, 42: 423-8.

(10) Björneborn, L., Ingwersen, P. Towards a basic framework for webometrics. J. Am. Soc. Inform. Sci. & Tech., 2004, 55(14), 1216-1227.

(11) Thelwall, M., Vaughan, L., Björneborn, L. Webometrics. Ann. Rev. Inf. Sc. & Tech., 2004, 39: 81-135.

Noter

1 Bibliometriske målinger af publikationsadfærd og informationsveje på WWW kaldes oftest ’Webometri’.