Sanseblanding støtter hukommelsen

Synæstetiske oplevelser skyldes neuroner i hjernen, der er koblet på kryds og tværs. Og måske ligger de til grund for visse menneskers overudviklede hukommelse.

Læs artiklen med kommentarer på ing.dk

Der findes mennesker, som får en metallisk smag i munden, når de rører ved et dørhåndtag. Nogle kan se tal og bogstaver i farver, eller lugte en bestemt slags musik. Stadig andre ser tiden som en farvet sløjfe omkring deres krop eller får en prikkende fornemmelse i fingrene når de spiser kylling.

Fænomenet kaldes synæstesi, og skyldes en sammenblanding af forskellige sanseoplevelser i hjernen. Forskere har længe forsøgt at forstå, hvad der får disse mennesker til at opleve verden så meget anderledes end resten af os, og i visse tilfælde give dem helt unikke evner, som for eksempel en fotografisk hukommelse.

Man regner med, at 4-5 procent af befolkningen har delvist synæstetiske oplevelser, hvoraf 4-5 procent er stærkt synæstetiske. Man ved ikke, i hvor høj grad fænomenet er arveligt, eller hvordan det manifesterer sig i hjernen. Men to nye forskningsartikler viser, at synæstesi helt konkret skyldes en genuin krydsning af neuroner i hjernen, der tilhører hver deres sansedomæne. Ægte synæstesi er med andre ord ikke noget, man husker eller kan tilegne sig via associativ læring. Det er noget, man skal være født til.

Klædt i et stort 7-tal
I det første studie fra novemberudgaven af fagbladet Cortex viser Michelle Jarick fra Universitetet i Waterloo, Ontario, USA, at rum/tid synæstesi er kendetegnet ved en speciel visualisering af tiden, der manifesterer sig som en slags fysisk objekt omkring personen.

I den konkrete undersøgelse fortalte den 21-årige forsøgsperson L om oplevelsen af årets måneder som et gigantisk 7-tal, der bevæger sig rundt om kroppen med en længde på cirka en meter. Specielt for L er, at hun ser sin mentale kalender forskelligt - udefra eller indefra - alt efter om hun hører eller ser tidsenheden, f.eks. måneden april (se illustration).

For at teste hendes udsagn, skulle L og ti kontrolpersoner så hurtigt som muligt pege på den rette måned med et laserlys. For eksempel: når hun visuelt blev præsenteret for måneden januar, var hun signifikant hurtigere til at finde svar til venstre (konsistent med hendes synæstetiske placering i april fra hendes visuelle ståsted), mens hun var signifikant hurtigere til at ramme rigtigt til højre, når hun hørte måneden januar fra en højtaler (igen konsistent med hendes synæstetiske placering fra hendes auditive ståsted).

Undersøgelsen viser, at tid/rum synæstesi skaber en stærk korrespondance mellem et imaginært rum af tiden og et virkeligt rum, som man kan eksaminere fra flere ståsteder, og dermed have nemmere adgang til.

L's mentale rum-kalender gør, at hun ikke kan forholde sig til månederne uden først at placere dem i sit 7-tal, men når det er sket, gør det mange opgaver hurtigere og nemmere.

Link til Rainman?
I et andet studie fra samme nummer af Cortex spekulerer Julia Simmer og kolleger fra Universitetet i Edinburgh, England, på, at mennesker med tid/rum-synæstesi har visse kognitive fordele i forhold til resten af befolkningen, og at deres specielle sanse-sammenblanding måske kan føre til hypernormale begavelser, som f.eks. en ekstremt overudviklet hukommelse eller musikalitet. I faglitteraturen bliver den slags mennesker kaldet idiot savants (tænk på Dustin Hoffman i filmen Rainman).

Simmer bad ti tid/rum-synæsteter samt en kontrolgruppe om at huske datoer på nogle historiske, selvbiografiske, kulturelle og verdenspolitiske begivenheder. Synæsteterne klarede sig betydeligt bedre end kontrolgruppen, og var også bedre til at rotere 2D-tegninger af 3D-objekter, og havde bedre korttidshukommelse.

Forskerne spekulerer på, om tid/rum-synæstesi ligger til grund for det såkaldte hyperthymestiske syndrom, også kaldet total hukommelse. Mest kendt er nok russeren Solomon Shereshevsky, som ifølge 1920'ernes kendte hjerneforsker Alexander Luria kunne huske alt, hvad han havde foretaget sig.

En kvinde kendt som A.J. og amerikaneren Brad Williams er andre kendte eksempler på folk, som med fordel kunne gæste Jeopardy. Og det ser det ud til, at deres unikke evne er ufrivilligt at koble oplevede fænomener og ting de har hørt eller læst til rummelige markører i en slags virtuel rum-tid verden.

Rummelig lokalisering er desuden en velkendt mnemo-teknik, som ikke-synæsteter kan lære at bruge. Ægte tid/rum synæstesi er derfor måske en nødvendig, men ikke en tilstrækkelig betingelse for mennesker med total hukommelse. Hvad de andre betingelser kunne være, ved forskerne endnu ikke noget om, så her er der stadig noget at tænke over - og smage på.

Rystede forskere: Medicinalgigant afsløret i fusk

Verdens største lægemiddelproducent Pfizer har holdt dårlige forsøgsresultater hemmelige og markedsført stoffet Gabapentin til ikke-godkendte formål. Eksperter er rystede og kræver nu en stramning af lovgivningen.


Læs hele artiklen med kommentarer på ing.dk

Medicinalindustriens største spiller, Pfizer, har snydt med afrapporteringen i deres kliniske forsøg med epilepsi-midlet Gabapentin. Interne dokumenter viser, at stoffet næppe virker på andet end epilepsi, og i stedet for at droppe det lukrative off-label salg, dvs. salg til anden brug end mod epilepsi, ændrede Pfizer blot i data og konklusioner.

Gabapentin bliver blandt andet brugt af læger til behandling af smerter, især perifere nervesmerter som i forbindelse med herpesudbrud, men også i nogle tilfælde muskelsmerter.

En analyse af førhen utilgængelige dokumenter afslører en række forskere i det nye nummer af New England Journal of Medicin, at kun 12 ud af 20 kliniske forsøg var blevet offentliggjort, og at otte ud af de 12 offentliggjorte forsøg indeholdt retoucherede konklusioner i forhold til de interne protokoller.

Afvigelserne skyldes opdagelsen af ny primære virkninger og nye bivirkninger, manglende evne til at kende forskel på virkninger og bivirkning, og udeladelser i at afrapportere dem. Desuden blev de forsøg, som ikke kunne fremvise en statistisk signifikans, enten gemt væk, eller ændret til at være signifikante til fordel for Gabapentin.

»Det er længe siden jeg har læst en så etisk bekymrende rapport,« sagde Arthur Caplan, direktør for Center for Bioetik ved Universitetet i Pennsylvania, USA, i en kommentar, og den danske ekspert Asbjørn Hrobjartsson fra Cochrane Centret er meget enig:

»Vi står over for et kæmpe problem, og det kan ikke gå hurtigt nok med at gøre det lovpligtigt at offentliggøre alle protokoller.«

Pfizer står dog ikke alene med sen sådan sag. Medicinalindustrien bliver ofte afsløret i at fuske og snyde, og efter en bøde eller to fortsætter hverdagen som om intet var hændt. Vi kender historierne fra tidligere sager omkring Plaxil (GlaxoSmithKline), Vioxx (Merck), Zyprexa (Eli Lilly), Novoseven (Novo Nordisk) osv.

Dansk ekspert: Det er ren hokus pokus
Mange af de førhen hemmeligholdte dokumenter stammer fra amerikanske retssager, hvor Pfizer blev sagsøgt for at hemmeligholde beviser for, at stoffet Neurontin (og dermed dets generiske stof gabapentin) ikke virker på off-label forbruget på nervesmerter, migræne og skitzofreni.

I en offentlig tilkendegivelse tilbageviser Pfizer rapporten. Virksomheden har aldrig »forsøgt at vildlede offentligheden« og mener i øvrigt, at den nye undersøgelse »lider af signifikant mangel på data, dårlig metodologi, og kan derfor ikke passere som troværdig videnskabelig forskning.«

Det kan dog lyde hult set i lyset af, at Pfizer for blot to måneder siden blev idømt 2,3 milliarder dollar i bøde i USA for illegal markedsføring af populære produkter, og i Danmark i maj måned blev anmeldt for overtrædelse af lægemiddellovens reklameregler.

De gentagende lovovertrædelser og uetiske handlemåder kan kun imødegås med større åbenhed omkring forskningsprocessen, mener Hrobjartsson:

»Akademikere har råbt og stampet i gulvet de sidste 20 år for at gøre opmærksom på problemet i at producenter af medicin tilbageholder resultater fra de forsøg, som de synes er kommercielt problematiske. Det er jo indlysende et kæmpe problem, hvis man har 10 undersøgelser af en behandling, hvor nogle af dem viser negative resultater, og andre viser positive resultater, og de fleste viser, at det ikke hjælper, og at man så selektivt kun offentliggør de gode resultater. Hokus pokus, så virker megen medicin,« siger Hrobjartsson.

Centerleder: Læger bør søge tilladelse til brug af off-label produkter

Ifølge et tidligere forslag fra lederen af Cochrane Centret Peter Gøtzsche burde læger søge om tilladelse, før de begynder at udskrive off-label produkter. Apotekerne kunne så fungere som den kontrolinstans, der sikrer, at lægemidlet faktisk er udskrevet til den godkendte behandling. Men adgangen til informationer er lige så vigtig, mener Hrobjartsson.

»Vi har brug for at ændre hele kulturen med nogle nye incitamentsstrukturer, som gør at industrien kan begynde at konkurrere på hæderlighed i stedet for at konkurrere på at tilbageholde oplysninger,« siger han.

Et skridt i den rigtige retning
Men måske er udviklingen ved at gå i den rigtige retning. I løbet af 2004-2005 besluttede redaktører på de store medicinske tidsskrifter, at de ikke ville publicere flere randomiserede forsøgsresultater, med mindre de først blev registreret i en forsøgsdatabase, hvoraf den største er clinicaltrials.org.

Senere kom der en lovændring i USA, som gjorde at man end ikke kunne starte en godkendelsesprocedure med mindre medikamentet var blevet registreret i databasen.

Men registrering er ikke det samme som offentliggørelse af data.

»Det næste skridt må være, at vi skal have adgang til de fulde protokoller fra de kliniske tests,« siger Hrobjartsson.

»Og det ville selvfølgelig være fantastisk dejligt hvis Danmark ville være foregangsland og starte med det, men generelt må nok regne med at det kræver en international indsats.«

Lægemiddelstyrelsen ønsker ikke at kommentere problemstillingen generelt, men siger at hvis der er ny viden om et produkt på markedet i Danmark, som kunne ændre vurderingen af dets effekt og sikkerhed, så vil de undersøge, om man skal slå bremserne i.

Det har heller ikke været muligt at få en kommentar fra pfizer.dk.

Det er hans geners skyld

Det er nogle gange fascinerende at se, hvordan fordomme, fejltænkning og vaneargumenter kan hobes op og blandes sammen i så høj en grad, at resultatet bliver en hel katedral af misforstået videnskab. Lad mig tage en aktuel sag fra Italien: I Trieste har en dommer givet en morder ved navn Abdelmalek Bayout en reduktion i sin fængselsdom, fordi forsvareren mente, at den tiltalte har en genetisk mutation, der øger aggressiv adfærd. Retssagen har været omtalt i flere medier, fordi den konstituerer den første sag i Europa siden anden Verdenskrig, hvor et adfærdsgenetisk argument er blevet tilgodeset i en strafudmåling.

Første åbenlyse mærkværdighed ved dommen var, at den genetiske mutation blev brugt som et argument for at mildne straffen, ikke til at øge den, ligesom man gjorde det i de gamle dage, da sindssyge, åndssvage og kriminelle rask væk blev dræbt med argumentet om at de alligevel ikke kunne reddes. At sende en morder hurtigere ud på gaden igen, fordi man kan være sikker på at han ikke har styr på sine aggressioner, er da også en original udgang af sagen. Det svarer ifølge genetikeren Steve Jones til at sige, at mænd (det vil sige dem med et Y-kromosom) får en mildere straf end kvinder, fordi man jo ved at 90 pct. af alle mord begås af mænd. Eller til at mene, at fulde mennesker ved rattet skal have en mildere straf, hvis de kan bevise at de er alkoholikere.

Jeg er født doven, og hvis mine gener kan bevise det, så vil min chef ikke kunne fyre mig. Det ville da være lækkert, hvis man kunne klare sig igennem livet med den slags argumenter. Den største fejl ved dommen er derfor nok troen på en genetisk determinisme, altså ideen om, at man kan undslippe ansvar for egne handlinger, fordi universet er deterministisk, fordi Gud, Fædreland eller Generne har deres egne foreskrevne regler. Dommeren Paolo Alessio Vernì sagde efter dommen, at han var specielt påvirket af forsvarerens henvisning til en videnskabelig undersøgelse, efter hvilken Bayout har en mutation i neurotransmitter-enzymet monoamine oxidase A (MAOA), som allerede i 2002 var blevet associeret med aggressivitet og kriminel adfærd hos unge drenge i en misbrugssituation.

Her kommer vi så til en lige så alvorlig, men mere forståelig misforståelse hos dommeren, nemlig at sætte lighedstegn mellem en association og en årsag. Langt de fleste genetiske tests kan fortælle lige så lidt om en mands adfærd, som hans lønningspose kan sige noget om hans politiske holdning. Den kan måske give et hint, men heller ikke mere. Som professor Nita Farahany fra Vanderbilt Universitet i USA siger: »Pointen er den, at adfærdsgenetik endnu ikke findes. Vi kan ikke forklare individuel adfærd, kun store statistikker for populationer.« Forskeren bag det syv år gamle associationsstudie, professor Terrie Moffitt fra King's College London, sagde i en kommentar til dommen, at resultatet desuden let kan være ubrugeligt, fordi man altid skal korrelere med etniciteten i den slags associationsstudier (Bayout er algierer), hvilket ikke er blevet gjort i denne sag.

At sagen kommer fra Italien, gør den heller ikke mindre prekær. Det var her lægen Cesare Lombroso i det sene 1800-tal udviklede skolen for 'positivistisk kriminologi' ved at måle næselængde og tælle pandefolder hos de fængslede. Lombroso mente, at kriminalitet var arvelig, og troede på den evolutionære rekapitulation - en teori, der antog at menneskefostre gennemgår tidligere evolutionære stadier, fra fisk til menneske så at sige, for til sidst at nå frem til det gloriøse slutmål: den hvide mand. De kriminelle, kvinder og de vilde var 'atavister', som var gået evolutionært i stå. De var primitive halvmennesker, som skulle håndteres med videnskabelig præcision, og deres negative påvirkning på menneskeslægten skulle modgås løbende med selektivt avl, også kaldet eugenik. Det er en historie, hvis historiske lavpunkt, man kender fra nazitysklands Wannseeprotokol.

I øvrigt er denne historie et klassisk eksempel på, hvordan videnskabelige fremskridt sjældent luger ud i vanetænkning og fordomme. Da biologer efter genopdagelsen af Mendels arbejde fandt ud af, at rekapitulationsteorien ikke var rigtig, erstattede man den med neoteni-teorien, som groft sagt siger det modsatte, nemlig at mennesker i stigende grad bibeholder deres embryoniske træk (stort kranie, lille kæbe, parallel storetå, hårløshed på kroppen, etc,) i forhold til aber og andre »laverestående« dyr. Ikke desto mindre kunne neoteni-teoriens fader, Louis Bolk, i 1926 konkludere at »det er muligt for alle andre racer at nå til toppen af denne udvikling, som nu er besat af den hvide race.« Videnskaben kommer og går, men racismen den består.

Gener har en mærkelig attraktion på folk. De påstås at forklare alt, hvad et menneske går og laver. Men man glemmer helt, at der også er noget som hedder opvækst, sociale kår, held, uheld, og ikke mindste fri vilje. Desuden er gen-centrismen gang på gang blevet dekonstrueret til at være et luftkastel af ønsketænkning og ekstrem forsimpling. Molekylærbiologer har mange gange forsøgt at forklare, at gener faktisk ikke er meget mere end et løst koncept for nogle komplicerede hændelsesforløb i cellerne. De er ikke »sagens kerne«. De er ønsket om, at man kan tale om en kerne. Og hvis man virkelig vil holde fast i ideen om, at al adfærd har en genetisk base, burde man så ikke i ægte positivistisk ånd sende skylden videre til vores atomer og elektroner i kroppen? Det er jo dem, generne er lavet af. Måske ligger »kernen« i vores adfærd endda i kvantemekanikken og i usikkerhedsprincippet. Det var vist også en tysker, der formulerede det først, var det ikke?

Er termodynamik vejen til rimelige cheflønninger?

Findes der ideale gager ligesom der findes ideale gasser? En kemiker foreslår at bruge termodynamik og informationsteori i beregningen af cheflønninger.

Læs hele artiklen som pdf

Den nyliberale kapitalisme er blandt andet kendetegnet ved enorme forskelle i indkomst. Forholdet mellem en gennemsnitsløn i en amerikansk virksomhed og direktørens gage inklusive bonus og optioner var i 1970'ernes USA ca. 1:32. I dag er det 1:344. I Europa ligger forholdet i omegnen af 1:30, mens det i Japan ligger på 1:12.

Mange synes, at det er uretfærdigt, især efter finanskrisen, og for at tage luften ud af de gyldne faldskærme, der kom med bankpakkerne, har Obama da også sat en øvre grænse for, hvad en CEO må tjene, når firmaet modtager statslig hjælp.

Nu foreslår en kemiingeniør fra Purdue universitetet i Indiana at bruge begrebet om maksimum entropi fra den statistiske mekanik til at fordele en virksomheds lønninger på den mest retfærdige måde. Ifølge sin metode mener professor Venkat Venkatasubramanian at kunne beregne den ideelle løn for en CEO til at ligge på mellem otte og 16 gange mindstelønnen i firmaet, alt efter virksomhedens størrelse.

»Som vi alle ved, er fairness et fundamentalt økonomisk princip for et frit og effektivt marked,« siger Venkatasubramanian i forbindelse med offentliggørelsen af artiklen i fagbladet Entropy.

»Fairness er så afgørende, at vi har installeret alskens regulative mekanismer for at undgå monopoler, hemmelige aftaler og insiderhandler. Det er derfor åbenlyst fornuftigt, ja, beroligende, at finde ud af, at maksimeringen af fairness, og dermed maksimeringen af entropi, er betingelsen for at opnå økonomisk ligevægt.«

Passer fint til data
I et frit marked vil man (ideelt set) nå en optimal distribution af lønninger gennem en fortsat udveksling af ansatte og job, indtil en slags ligevægt er opnået, hvor alle deltagere føler, at de har maksimeret deres egen værdi. Dette er i liberal forstand 'fair', og selvfølgelig umuligt at opnå i virkeligheden. Men ikke desto mindre er det interessant at vide, om man kan komme frem til denne ideelle fordeling ad teoretisk vej.

Og det er netop, hvad princippet om maksimal entropi kan svare på. Det siger, at hvis man står i en situa­tion med mangelfulde informationer om mange enheder i et system, så vil den mindst skæve fordeling af 'uvidenheden' svare til netop den konfiguration, som har den største entropi knyttet til sig. Oversat til økonomi, betyder det, at den mindst skæve fordeling af profitten må være den, hvor entropien er størst, og det betyder så ifølge matematikken, at fordelingen af profitten skal være tæt på log-normal (dvs. normalfordelt på den logaritmiske skala).

Den faktiske lønfordeling i de fleste lande viser sig at passe fint for de nederste 90-95 procent af løntrinnene, hvorimod de øverste 5-10 procent snarere følger en power-law-fordeling (dvs. hurtigere end eksponentielt). Det kan selvfølgelig fortolkes som enten, at modellen er forkert for top-ledelsen, eller at topledelsen skal ned i løn.

Venkatasubramanian foreslår det sidste og påpeger desuden, at dollarmultimilliardæren og erhvervsmanden Warren Buffet, som altid har været en udtalt kritiker af overdrevne lønninger, med en chefløn på otte gange mindstelønnen i sit firma Berk­shire Hathaway, er den eneste, der ligger tæt på idealen. Topcheferne i resten af Top 50 firmaerne har i gennemsnit en ratio på 1:1.057, dvs. 129 gange over den ideale værdi.

Naiv idé
Ikke alle er lige begejstrede over Venkatasubramanians idé. Lederen for Center for Eksperimentel Økonomi på Københavns Universitet, Jean-Robert Tyran, kalder forslaget langt ude.

»Det er ganske naivt at tage nogle ligninger fra termodynamikken, klaske betegnelsen 'fairness' på dem og så påstå, at det vil give mening for det virkelige livs økonomiske relationer,« siger han.

Ifølge Tyran kan fairness betyde mange ting. Hvis ideen er, at et fair vederlag for en medarbejder skal være proportionalt med det relative bidrag til virksomhedens succes, så skal chefen måske have mere.

»Tænk på, hvor meget profitten går op og ned i et multinationalt firma som Nestlé, hvis CEO’en gør et godt eller et skidt stykke arbejde, i forhold til fabriksarbejderen, der står ved samlebåndet og fylder kaffen på dåse,« siger Tyran. »At kende forskel på den enkeltes bidrag til fælles profit er derfor svært, hvis ikke umuligt, at finde ud af.«

Astronomiske CEO-lønninger kan også skyldes et marked, hvor vinderen tager det hele, ligesom i hasardspil eller i Champions League. »Hvis en CEO ikke vinder, så vil en fyring være det rette svar - ikke at regulere hans løn,« siger Tyran.

Ikke desto mindre er Venkatasubramanians forslag et friskt pust i et fagområde, der har stigende problemer med at forklare og forsvare sig selv. En tværvidenskabelig tilgang som denne kan i længden måske hjælpe os med at finde ud af, hvad vi i fællesskab accepterer som retfærdigt, og hvad ikke.

Computernes sidste grænse

Ifølge Moores Lov bliver computerchips dobbelt så kraftige cirka hvert andet år. Ny forskning viser imidlertid, at denne lov vil møde sin teoretiske grænse om 65 år - senest.

Læs hele artiklen som pdf
Læs artiklen med kommentarer på ing.dk

I løbet af de sidste 60 år er antallet af transistorer på en chip, og dermed computernes effektivitet, fordoblet cirka hvert andet år, Det kaldes Moores Lov efter Intels medgrundlægger, Gordon Moore, der forudsagde fænomenet i 1964. En lang række nye ideer og smarte teknologier har bekræftet spådommen, men der er ikke nogen grund til at antage, at 'loven' holder evigt: Den er, når alt kommer til alt, en funktion af menneskers opfindsomhed, og ikke en naturlov.

Moore selv sagde i 2005 at væksten nok vil stoppe om 10-20 år, fordi transistorerne begynder at komme ned på atomar skala, hvor kvanteeffekter ødelægger informationen. Andre, som f.eks. Pat Gelsinger fra Intel, mener dog, at menneskers opfindsomhed er større end det: Man kunne bygge chipsene i lag, bruge andre molekyler eller bygge kvantecomputere, og dermed fortsætte den eksponentielle vækst mange årtier endnu.

Men hvad er den teoretiske grænse for, hvor hurtigt fremtidens computere kan regne? Det har de to fysikere Lev Levitin og Tom Toffoli fra Boston Universitet i Massachusetts undersøgt, og deres analyser viser, at den eksponentielle vækst i teorien må stoppe senest om 65 år, og at det skyldes to fænomener: Det ene er, at der findes en maksimal regnehastighed for en given mængde investeret energi og tid, og det andet fortæller, at det tager et minimum af tid for en bit eller en qubit at skifte fra en tilstand til den anden. Begge sætter fundamentale grænser for hvor hurtigt en computer kan operere.

Bremermanns grænse
Allerede i 1965 lavede den tyske matematiker Hans-Joachim Bremermann et estimat af beregnelighedens grænser. Han antog, at den er teoretisk givet ved at omdanne al masse til energi via Einsteins E=mc2, og så dividere med Heisenbergs usikkerhedsrelation, som angiver en nedre grænse for produk­tionen af en stabil bit per tidsenhed. Den universelle grænse for informationsraten per masseenhed beregnede han således til at være c2/h, hvor c er lysets hastighed og h er Plancks konstant. Det betyder, at man kan regne med maksimalt ca. 1047 bits per gram per sekund.

Men ifølge Levitin glemte Bremermann, at kvantemekanikken tillader degenererede energi­niveauer, hvorved et system kan være i flere tilstande med samme energi.

»I sin analyse overså Bremermann, at informationssignaler kan identificeres via andet end deres energi, f.eks. deres spin, deres ladning eller deres momentum,« siger Levitin.

»Derfor eksisterer der ikke nogen fundamental grænse for mængden af information, som kan overføres af et fysisk system med en given energi per tidsenhed. Til gengæld findes der en fundamental grænse for antallet af operationer, som et sådant fysisk system kan udføre per tidsenhed.«

Den grænse er givet ved det såkaldte Margolus-Levitin teorem, som blev formuleret i 1998. Det siger, at hvis man tilføjer en ekstra Joule af energi til en computer, vil den aldrig kunne øge hastigheden med mere end 6 · 1033 operationer per sekund. Sammenholdt med den kvantemekaniske hastighedsbegrænsning på grund af usikkerheden af kvantetilstande, er der nu klarhed om de teorier, som sætter fundamentale grænser for beregneligheden. Og i deres nye artikel i Physical Review Letters viser Levitin og Toffoli at der i princippet intet er i vejen for, at grænserne kan nås.

I en kommentar til Ingeniøren siger professor Seth Lloyd fra MIT, at artiklen er et elegant stykke arbejde. »Der findes to grænser for, hvor hurtigt kvantetilstande kan udvikle sig. Den ene udtrykkes i form af energispredning via Heisenbergs usikkerhedsprincip, og den anden kan udtrykkes i form af den totale energi.«

Levitin og Toffoli viser nu, at det er muligt at komme vilkårlig tæt på begge af dem.

Evighedsmaskiner
Det er i teorien. Men ifølge medforfatter Tom Toffoli er der masser af problemer i praksis. Langt det meste af al den energi, som i dag anvendes i en beregning, forvandles til varme. Den er med andre ord spildt. I fremtiden kan den måske genbruges, ligesom bremseenergien i en bil kan genbruges til at oplade batteriet i bilen med.

»Forestil dig, at jeg vil sende en besked til dig ved at skrive den på en mursten,« forklarer Toffoli. »Og så kaster jeg murstenen til dig. Hvis jeg vil sende beskeden hurtigere, så kaster jeg den bare hurtigere. Det koster altså kinetisk energi at være hurtig. Men i teorien behøver du ikke at stoppe murstenen og spilde energien. Hvis du var smart, kunne du læse beskeden mens den fløj forbi, og så opsætte fjedre, som sendte den tilbage til mig. Det er genbrug. Og ingen naturlov forbyder genbrug.«

For 20 år siden var det uinteressant at opfinde reversible teknikker til computerne, men i dag ser tingene anderledes ud. »Allerede nu kan vi med Pen­tium-processoren se, at friktionen begynder at betyde noget, og om ti år kan vi ikke ignorere det,« siger Toffoli.

I approximationen af et ubegrænset genbrug, ville man have en evighedsmaskine. Men det er der ikke noget principielt problem i, mener Toffoli:

»På et tidspunkt samlede vi alle de store kanoner som Feynman og Wheeler for at bekræfte, at det er muligt at lave reversible beregninger, fordi mange folk kom hen til os og sagde at evighedsmaskiner ikke findes. Men atomer har eksisteret i milliarder af år, og de er perfekte evighedsmaskiner. Problemet er bare, at de ikke er maskiner, som kan give dig endeløs energi. De kører i sig selv, energien er bevaret, og elektronernes bevægelse er uendelig.«

I praksis er der altså stadig masser af rum til at udnytte energien bedre. Men det kræver nye opfindelser og helt nye ideer.

Moores lov slut om 65 år
Den maksimale processorhastighed for en beregning er givet ved det såkaldte Margolus-Levitin teorem, som siger at man kan få maksimalt 4/h ~ 1034 elementære operationer per sekund ud af en enkel Joule. Det er alt, hvad man under ideelle omstændigheder og uden varmetab ville kunne få ud af et fysisk system.

I nutidens computere investeres cirka 10 femtojoule (10-15J) ved en rate på 10 GHz, hvilket svarer til cirka 1024 elementære operationer per sekund per Joule. Forholdet mellem disse to tal, altså mellem den faktiske effektivitet og den teoretisk øvre grænse er cirka 1010. Vi er med andre ord stadig ti milliarder gange dårligere, end teorien tillader.

Hvis man anvender Moores Lov (beregningseffektiviteten stiger med det dobbelte hvert andet år), vil det altså vare cirka 65 år, før vi når den teoretiske grænse. Men man skal huske på, at man her går ud fra, at al den investerede energi bruges på en beregning, hvorimod der i praksis er et stort spild. For at kunne bibeholde den eksponentielle vækst må smarte ingeniører derfor opfinde nye teknikker og/eller genbruge energien langt bedre.
There was an error in this gadget