Crowdsourcing – ny vej til bedre eksperimenter

Lader man folk selv afgøre, hvilke spørgsmål der er bedst i et spørgeskema om deres egen adfærd, vil resultatet være bedre, end hvad en ekspert kunne finde på. Resultatet kan være en øjenåbner – og f.eks. vise, at fedme og masturbation går hånd i hånd.


Efter at virksomheder i 1990’erne opdagede ‘outsourcing’ som en vigtig konkurrenceparameter i den globale kamp om spidskompetencer, har man i de seneste par år fået øjnene op for en langt mere radikal og potentielt mere effektiv måde at få arbejdskraft på: Det hedder ‘crowdsourcing’.

Crowdsourcing er blevet kaldt internetæraens svar på 1800-tallets guldfeber. Det går ud på, at du og jeg og alle andre mennesker i denne verden med adgang til en internetforbindelse kan arbejde for en virksomhed eller organisation, der måtte have brug for store grupper af udefinerede, tilfældigt distribuerede og forskelligt uddannede mennesker til at udføre specifikke opgaver for dem. Det gælder ikke kun, når arbejdsmængden er stor, f.eks. når amazon.com har brug for hjælp fra folk til at skrive produktbeskrivelser af deres bøger via deres ‘Mechanical Turk’-interface. Det gælder også, når opgaven kræver specialiserede kompetencer, f.eks. via kaggle.com, hvor statistikere boltrer sig med at forudsige alverdens ting, eller når selve den iterative proces med at have mange øjne på et bestemt problem, f.eks. at oversætte et digt, eller at finde ruiner via Google Earth, er i stand til at overgå selv de bedste eksperter.

Også blandt videnskabsfolk er brugerinddragelse i dataopsamling og analyse blevet et stort hit. Her er frivilligheden i højsædet, og det kaldes derfor for ‘citizen science’. Man kan f.eks. hjælpe astronomer med at udforske billeder fra Hubble-rumteleskopet via Galaxy Zoo, finde ny medicin ved at folde proteiner via foldit.com, eller indsamle klimadata til at hjælpe forskere med deres simulationer på climateprediction.net.

Hvad skal vi undersøge?
En ting, crowdsourcing endnu ikke er god til, er selv at formulere en problemstilling og afgøre, hvilke parametre det er værd at undersøge, når man vil finde det bedste svar på et problem. Men en gruppe af dataloger under ledelse af Josh C. Bongard og Paul Hines fra College of Engineering and Mathematical Sciences, University of Vermont, Burlington, USA, har nu vist, at crowdsourcede lægmænd sagtens ville kunne bruges til at designe et eksperiment, så længe det handler om adfærdsmæssige problemstillinger og ikke om partikelfysik.

Helt konkret har Bongard lavet en hjemmeside, hvor han lavede to eksperimenter. I ét eksperiment forsøgte han ved hjælp af et spørgeskema at estimere de besøgendes Body Mass Index (BMI) og i et andet deres energiforbrug i hjemmet. Folk kunne så komme ind på siden, svare på et par spørgsmål, og på baggrund af det få en computers estimat af deres BMI og elregning. Desuden skulle de angive deres rigtige BMI og kilowattforbrug, hvilket gjorde det muligt for Bongard at beregne spørgsmålenes kvalitet, dvs. deres evne til at forudsige korrekt.

Men nu kommer det sjove: I stedet for selv at udtænke spørgeskemaerne, havde Bongard blot initieret processen med et simpelt og halvdårligt spørgsmål (‘Hvor mange gange om ugen spiser du fast food?’ i forbindelse med BMI-eksperimentet), og så ladet brugerne selv indtaste nye spørgsmål, hvis de følte, at de var bedre til at forudsige eget og andres BMI. Spørgeskemaerne udviklede sig løbende, og spørgsmålene blev bedre og bedre. Ved hjælp af lineær regression kunne Bongard løbende beregne spørgsmålenes forudsigelseskraft, og de bedste spørgsmål forblev på spørgeskemaet. Efter en periode var der 58 spørgsmål, og nye brugere kunne sammenligne deres faktiske BMI (som de selv havde angivet) med det beregnede BMI, baseret på spørgsmålene.

Læs videre på ingeniørens hjemmeside inkl. kommentarer her.

0 comments:

There was an error in this gadget