Crowdsourcing – ny vej til bedre eksperimenter

Lader man folk selv afgøre, hvilke spørgsmål der er bedst i et spørgeskema om deres egen adfærd, vil resultatet være bedre, end hvad en ekspert kunne finde på. Resultatet kan være en øjenåbner – og f.eks. vise, at fedme og masturbation går hånd i hånd.


Efter at virksomheder i 1990’erne opdagede ‘outsourcing’ som en vigtig konkurrenceparameter i den globale kamp om spidskompetencer, har man i de seneste par år fået øjnene op for en langt mere radikal og potentielt mere effektiv måde at få arbejdskraft på: Det hedder ‘crowdsourcing’.

Crowdsourcing er blevet kaldt internetæraens svar på 1800-tallets guldfeber. Det går ud på, at du og jeg og alle andre mennesker i denne verden med adgang til en internetforbindelse kan arbejde for en virksomhed eller organisation, der måtte have brug for store grupper af udefinerede, tilfældigt distribuerede og forskelligt uddannede mennesker til at udføre specifikke opgaver for dem. Det gælder ikke kun, når arbejdsmængden er stor, f.eks. når amazon.com har brug for hjælp fra folk til at skrive produktbeskrivelser af deres bøger via deres ‘Mechanical Turk’-interface. Det gælder også, når opgaven kræver specialiserede kompetencer, f.eks. via kaggle.com, hvor statistikere boltrer sig med at forudsige alverdens ting, eller når selve den iterative proces med at have mange øjne på et bestemt problem, f.eks. at oversætte et digt, eller at finde ruiner via Google Earth, er i stand til at overgå selv de bedste eksperter.

Også blandt videnskabsfolk er brugerinddragelse i dataopsamling og analyse blevet et stort hit. Her er frivilligheden i højsædet, og det kaldes derfor for ‘citizen science’. Man kan f.eks. hjælpe astronomer med at udforske billeder fra Hubble-rumteleskopet via Galaxy Zoo, finde ny medicin ved at folde proteiner via foldit.com, eller indsamle klimadata til at hjælpe forskere med deres simulationer på climateprediction.net.

Hvad skal vi undersøge?
En ting, crowdsourcing endnu ikke er god til, er selv at formulere en problemstilling og afgøre, hvilke parametre det er værd at undersøge, når man vil finde det bedste svar på et problem. Men en gruppe af dataloger under ledelse af Josh C. Bongard og Paul Hines fra College of Engineering and Mathematical Sciences, University of Vermont, Burlington, USA, har nu vist, at crowdsourcede lægmænd sagtens ville kunne bruges til at designe et eksperiment, så længe det handler om adfærdsmæssige problemstillinger og ikke om partikelfysik.

Helt konkret har Bongard lavet en hjemmeside, hvor han lavede to eksperimenter. I ét eksperiment forsøgte han ved hjælp af et spørgeskema at estimere de besøgendes Body Mass Index (BMI) og i et andet deres energiforbrug i hjemmet. Folk kunne så komme ind på siden, svare på et par spørgsmål, og på baggrund af det få en computers estimat af deres BMI og elregning. Desuden skulle de angive deres rigtige BMI og kilowattforbrug, hvilket gjorde det muligt for Bongard at beregne spørgsmålenes kvalitet, dvs. deres evne til at forudsige korrekt.

Men nu kommer det sjove: I stedet for selv at udtænke spørgeskemaerne, havde Bongard blot initieret processen med et simpelt og halvdårligt spørgsmål (‘Hvor mange gange om ugen spiser du fast food?’ i forbindelse med BMI-eksperimentet), og så ladet brugerne selv indtaste nye spørgsmål, hvis de følte, at de var bedre til at forudsige eget og andres BMI. Spørgeskemaerne udviklede sig løbende, og spørgsmålene blev bedre og bedre. Ved hjælp af lineær regression kunne Bongard løbende beregne spørgsmålenes forudsigelseskraft, og de bedste spørgsmål forblev på spørgeskemaet. Efter en periode var der 58 spørgsmål, og nye brugere kunne sammenligne deres faktiske BMI (som de selv havde angivet) med det beregnede BMI, baseret på spørgsmålene.

Læs videre på ingeniørens hjemmeside inkl. kommentarer her.

Terningen er kastet til en ny, ophedet klimadebat

Skal en klimaforsker kere sig om, hvordan folk 'opfatter' klimaforandringerne? Skal han ikke bare gøre sit arbejde og lade os andre om at opfatte? Det er et spørgsmål, der synes at dele vandene i forbindelse med klimaforskeren James Hansens nyeste artikler.


James Hansen fra Nasas Goddard Institute for Space Studies har fået gang i debatten igen. Rettidigt til nyheden om, at juli 2012 har været den varmeste måned i USA, siden man begyndte at måle på den slags, skrev han en klumme i Washington Post, fulgt op af en artikel i fagbladet PNAS med titlen 'Perceptions of Climate Change', hvori han advarede om forklejnende beskrivelser af klimaforandringerne.

Data viser, at situationen er meget værre, end vi oprindeligt troede. Ekstreme vejrfænomener som hedebølger, tørke, orkaner og oversvømmelser er blevet til dagens orden, og hvis vi ikke øger skatten på karbon, vil det bare blive værre, skriver James Hansen.

Femtusinde kommentarer er det blevet til - på klummens hjemmeside alene. Titusinder af blogindlæg og kommentarer er skrevet på andre internetsider. Ingen sætter spørgsmålstegn ved data, men kun ved 'måden', de bliver kommunikeret på.

Hansen har med andre ord fået gang i en metadebat om, hvordan man formidler videnskab. 'Alarmisme', siger den ene side. 'Ærlig snak', siger en anden. 'Akademisk diskussion', siger en tredje og tilføjer: 'Lad os i stedet diskutere løsninger!'

Men debatten er måske værd at tænke over, ikke kun fordi Hansen var en af de allerførste, der advarede om den menneskeskabte globale opvarmning, og stadig den dag i dag betragtes som en af de mest autoritative stemmer inden for klimaforskningen, men også fordi han mere end nogen anden har forsøgt at definere fronterne i kampen om agendaen.

Og som enhver politolog med kendskab til offentlige debatter og mediernes indflydelse på politiske beslutningsprocesser ved, sidder den, der sidder på agendaen, også på magten. James Hansen har gjort dette ved blandt andet under orlov at deltage i demonstrationer mod den amerikanske regerings klimapolitik, med jævnlige arrestationer til følge. Det har gjort ham til en 'aktivist', hvilket huer de færreste forskere, fordi de mener, at det kan udlægges som manglende objektivitet.

Et retorisk greb
Centralt i Hansens argumentation står et retorisk greb. 'Vores analyse viser, at det ikke længere er nok at sige, at den globale opvarmning vil øge sandsynligheden for ekstremt vejr, og gentage fejlslutningen om, at ingen individuelle vejrfænomener kan kobles direkte til klimaforandringerne. Tværtimod viser vores analyse, at der praktisk talt ikke er nogen anden forklaring på de seneste års ekstremt varme vejr end klimaforandringerne .'

Vejr og klima er med andre ord ikke to forskellige ting, og som forsker kan man sagtens sige, at det ene skyldes det andet uden at skulle helgardere sig med forbehold om sandsynligheder. Det er netop denne selvcensur i videnskaben, der de sidste mange år er blevet udnyttet af lobbyisterne for de fossile brændstoffers industri, mener James Hansen.

De fleste klimaforskere har dog haft problemer med at koble vejr og klima så direkte, som Hansen gør det. Det kan man for eksempel høre ud fra en kommentar til artiklen af seniorforsker Ole Bøssing Christensen fra DMI:

Læs hele artiklen med kommentarer på ing.dk

Højfrekvente algoritmer forvandler børser til casinoer

Børshandel er i stigende omfang overtaget af computere med udspekulerede algoritmer, som betyder, at aktier skifter hænder efter mikrosekunders ejerskab. Det har gjort aktiehandel til en farlig leg med risiko for et globalt crash.


Det er som taget ud af en scene fra en Terminator-film: En ny og kompliceret computeralgoritme bliver taget i brug, og straks går den amok på sin skaber (se Skynet gå amok her). 

I sidste uge skete det igen. En nyinstalleret algoritme – ‘high-frequency trading’ (HFT) – købte og solgte onsdag morgen millioner af tilfældige aktier i 148 selskaber på New York Stock Exchange. I løbet af en halv time havde algoritmens ejer, Knight Capital Group, tabt 440 millioner dollars og er nu konkurstruet.

Noget lignende skete den 6. maj 2010, da et flash crash sænkede værdien af Dow Jones Industrial Average med ni procent i løbet af få minutter, og i en kort periode gjorde enkelte aktier næsten værdiløse. Faktisk sker der små flash crashes hver dag, siger en gruppe forskere fra University of Florida, der har undersøgt sagen.

Spørgsmålet er derfor ikke, om disse algoritmer en dag vil forårsage et ragnarok på det globaliserede marked, men hvornår.

De fleste mennesker tror stadig, at handel på en børs er en sober affære: Køber og sælger har den samme nødvendige information om hinanden, de bliver enige om en pris, og udfører handlen med et simpelt klik med en mus. 

Desværre er dette et glansbillede af virkeligheden. Ligesom den nye robot, der altid vinder i ‘sten saks, papir’ (se den her) kan de højfrekvente algoritmer nemlig forudse kundens intentioner og handle derefter. 

Algoerne (som de kaldes) ved, hvilke ordrer der sidder i køen, og fordi de kan udføre tusinder af handler i sekundet, kan de i smug opkøbe eller sælge en aktie forud for kunden, hvorved prisen ændres i sidste øjeblik. Forskellen skummes af andre, mens gebyrerne opsamles af børsen. 

Fænomenet hedder ‘front running’ og betyder, at bankerne, der egentlig burde handle i kundernes interesse, i virkeligheden spekulerer mod kundernes positioner. Det er i princippet ulovligt, men stort set umuligt at dæmme op for.

En væsentlig grund til udviklingen er, at de store børser i løbet af de sidste fem til ti år selv er gået på børsen, og dermed gået fra et mandat om at skaffe kapital og sikre orden og gennemsigtighed på markedet, til et mandat om at skabe værdi for aktionærerne. 

Da børsernes primære indtægtskilder er data og handelsgebyrer, er flere kunder og flere ordrer ensbetydende med flere penge. I gamle dage ejede man en aktie i gennem lang tid, inden man solgte den igen. I dag har højfrekvenshandlen gjort, at den gennemsnitlige tid en aktie ejes ifølge The Wall Street Journal er nede på 22 sekunder.

Ifølge børsmæglerforeningens formand Steen Blaafalk fra Danske Bank foretages mere end 45 procent af alle aktiehandler i Danmark i dag af algo- og højfrekvent trading. I USA er tallet ifølge finanshuset Morgan Stanley allerede oppe på 84 procent. 

Officielt er den drivende kraft bag udbredelsen af højfrekvenshandlen, at algoerne udnytter små prisforskelle på samme aktie, alt efter hvilken markedsplads de bliver handlet på. Det forbedrer prisdannelsesprocessen og øger likviditeten. Derfor, siger bankerne, er det i de frie markedskræfters hellige navn afgørende med gigantiske computerparker tæt ved handelspladserne og metertykke fiberkabler over Atlanten og nu også igennem Arktis. Alt sammen for at spare afgørende mikrosekunder mellem London og Tokyo.

Tricktyverier
I virkeligheden er der dog langt mere skumle ting på spil. 

Læs resten af artiklen på Ingeniørens hjemmeside her.

There was an error in this gadget