How The Primordial Soup Became Haute Cuisine

(This article was originally published in Ingeniøren, 25 March 2011. Online link (in Danish). Translated by the author.)


In the beginning, a primordial soup covered the Earth. In fact, the primordial soup was Earth – a pile of cosmic waste, erupting in spasms caused by meteor crashes and spouting flames of molten sulfur and iron, slowly condensing into a solid planet. All life derives from this primordial soup, science says. But nobody knows exactly how.

We know that the first cyanobacteria appeared in the oceans some 700 million years after the formation of the Earth, which makes it approximately 3.8 billion years ago. But how could a bacterium, an organism so immensely complex, so sophisticated and well adapted, emerge all by itself?

This is one of the big questions, and no one knows the answer. Or rather, perhaps we know in theory, we just haven’t conducted the right experiments to confirm the theory yet. At least some veterans in the field of theoretical biology think so, and they have recently triggered a new round of speculations about the origin of life by publishing a paper on the subject in the Open-Access journal Biology Direct.

Autocatalytic Networks
Stuart Kauffman, an american theoretical biologist and complex systems researcher from the Santa Fe Institute in New Mexico, was one of the authors of the paper. In 1993, Kauffman proposed that the transition from chemistry to biology may have taken place through a network of molecules which mutually catalyzed the production of each other. In this way, every single molecule could be formed by at least one chemical reaction in the network, and each of these reactions would be catalyzed by at least one other molecule in the network. At any given time, the whole network would thus be able to show a primitive form of metabolism, and slowly learn to copy itself.

Physicists Doyne Farmer from Santa Fe Institute, New Mexico, and Steen Rasmussen from the University of Southern Denmark have previously been able to partially create such `autocatalytic networks ́ in the lab. However, it has been quite difficult to demonstrate that the networks are able to learn in a Darwinian sense, that is, to proliferate, create variation and adapt to their surroundings.

In 2010, another co-author of the paper, the Hungarian biologist Erös Szathmáry, published a paper in collaboration with Mauros Santos from the Autonomous University of Barcelona in which they claimed that the larger the autocatalytic network, the more inaccurate the actual copying will become, thus preventing natural selection from working properly. This was a huge disappointment for those who thought that life on Earth could begin with a primitive autocatalytic network with some sort of metabolism, but without a membrane or autonomous reproduction mechanism.

The Chicken or the Egg
The scientific thinking behind the origin of life is nowadays split into two camps. One is the `metabolism first ́ camp, the other `genes first ́, and their interrelation is hardly distinguishable from the chicken or the egg dilemma.

Those who think that metabolism came first, do not believe that RNA-like molecules (which we know are able to copy themselves) could arise out of nowhere, that is, without natural selection having paved the way through a long evolutionary process. Indeed, experiments have shown that it is impossible to synthesize RNA, PNA, TNA or similar replication templates without highly advanced enzymes that facilitate the process.

On the other hand, those who think that genes came first, find it impossible to imagine that a metabolism process could be sufficiently stable over the course of generations without a central genetic control to produce the proper molecules.

Stuart Kauffman's autocatalytic network theory united these opposing positions, because the center of operations in an autocatalytic network is the network itself. But without actual experiments to show that a basic autocatalytic network can be stable long enough for RNA-like templates to develop, it has been difficult to convince biologists that the mystery of the origin of life in the primordial soup has been solved.

According to Kauffman, Santos and Szathmáry, there is yet hope for their model. Prebiotic evolution in a scrap heap of simple molecules is possible. It just isn’t sufficient with one single autocatalytic network; it requires multiple autocatalytic networks, separated from each other by independent vessels or cavities (for instance, clay crystals, liposomes, micelles, nanotubes etc.), which interact with one another in a certain way.

Genotype and Phenotype
More specifically, the multiple chemical networks have to consist of an autocatalytic nucleus and a non-autocatalytic periphery made up by products that are continuously produced by the nucleus. In a setup like this, the nucleus is analogous to a genotype (hereditary information), and the periphery is analogous to a phenotype (the appearance of the organism). By the use of simulations, the authors have managed to demonstrate that a system like this is able to show not only true Darwinian selection, but also neutral drift by means of mutations, variations and selection on the basis of interactions with the surroundings.

One important new insight brought by this approach is that there must exist an entire zoological garden of different species of autocatalysts. In its simplest form, a chemical reaction is autocatalytic if the reaction product catalyzes its own formation. But there are many other options. Two reaction products can catalyze a third product, or they can cross catalyze each other. Some chemical products can inhibit others, while other products promote another product, but only if an additional product is formed, and so on. The multiple autocatalytic networks thus create a diversity of reaction times and products that make it possible for the networks to compete for food.

With their new theory, Kauffman, Santos and Szathmáry argue that the `genes first ́ camp is wrong: The autocatalytic network is responsible for the copying, which subsequently leads to a question of how stable such a system has to be for heredity to work. But, as the researchers replied to one of their peer- reviewers, “An understanding of the kinds of chemical organization that could sustain heredity is logically anterior to the problem of the stability of such organizations”. In other words: Only through a deep understanding of the first steps of life can we find a clue about the later stages, such as replication through a genetic code.

Mud and Prebiotic Pizzas
Literature on the subject has brought many theories about how protocells, lacking membrane and  replication mechanisms, could have evolved. Graham Cairns-Smith from the University of Glasgow imagines that early life developed in simple lumps of clay. Since clay crystals grow and break up continuously, they can carry information (initially only as impurities) through time and space.

Proto-life hidden within the clay crystal cavities would thus be able to survive, and eventually reproduce. According to this theory, the genetic machinery would only be able to take over the functions of the clay crystals, and liberate itself from life in the mud at a far later stage.

Another proposal, put forth by chemist Günther Wächtershäuser, is to place the hotbed of the origin  of life in an aquatic environment on the surface of pyrite crystals. Wächtershäuser suggests that a combination of iron, carbon dioxide and hydrogen sulfide, bound to the surface of pyrite (Fe2S) deep in the ocean, could eventually develop organic molecules such as sugar. On the surface of this so called `pre-biotic pizza ́, where the pyrite releases useful energy, independent semi-cellular organisms could possibly develop their own chemoautotrophic metabolism and enzymes, due to an abundant flow of minerals and other compounds from the hot springs that formed the pyrite in the first place.

Only much later, when the mechanisms of the processes have gradually grown more complex - by a primitive citric acid cycle, a protective, but selective, lipid membrane and possibly also some sort of cellular division - the organisms would slowly be able to liberate themselves from the pyrite, and take off and colonize the oceans.

In the Elevator
An elevator pitch version of the origin of life would thus sound like this: In the beginning, random chemical compounds bump into each other and form new chemical compounds with new properties. Some of the new compounds are able to catalyze their own production, which creates an exponential growth that will stop only when the food source is depleted. In places where food sources are abundant, in nutrient rich primordial soups or near hydrothermal vents, these autocatalytic reactions persist, and slowly create compounds with other autocatalytic reactions, and after some hundreds of thousands of years create a population of autocatalytic networks, competing for food sources by having different characteristics and special talents.

Some of the autocatalytic networks learn to avoid the constant collapses by linking up with inhibiting reactions and hiding the autocatalytic nucleus in clay crystals or some other form of container in close contact with the food sources. As the eons pass by, these protocells specialize to more specific tasks, for instance by using sunlight to metabolize sulfur, or by producing lipids to create a semipermeable membrane. 

Eventually, after many millions of years and billions of random attempts at improvement, these protocells developed a molecular template able to copy itself and its container in a much more reliable way than previously possible. This invention marks a crucial transition in the history of evolution, i.e. the transition to an RNA-based, and later a DNA-based, life form. The invention turns out to be so efficient that all other catalytic networks are eradicated and replaced by genetically programmed - and genetically programming - organisms.

Evolution has also led to other things, for instance cell nuclei, organelles, chemotaxis, photosynthesis, sexual reproduction, multicellular organisms etc. Scientific theses about each one of these inventions would require many more biologists than ever lived. But the very beginning, where chemistry turns into biology by means of autocatalytic networks, can, in principle, be considered demystified. The most important thing missing now are experiments to confirm the theory.


References:
  • Vera Vasas, Chrisantha Fernando, Mauro Santos, Stuart Kauffman, Eors Szathmary (2012), Evolution before genes, Biology Direct 2012, 7:1, http://www.biologydirect.com/content/7/1/1
  • Vasas V, Szathmáry E, Santos M: Lack of evolvability in self-sustaining autocatalytic networks constraints metabolism-first scenarios for the origin of life, Proceedings of the National Academy of Sciences 2010, 107:1470, http://www.pnas.org/content/107/4/1470.
  • Stuart A. Kauffman, The Origins of Order: Self-Organization and Selection in Evolution, Oxford University Press, 1993.
  • Bagley RJ, Farmer JD: Spontaneous Emergence of a Metabolism, Artificial Life I, Santa Fe Institute Studies in the Sciences of Complexity - Proceedings Volumes 1992, 10:93-140.
  • Steen Rasmussen, Liaohai Chen, Bärbel M. R. Stadler, Peter F. Stadler, Proto-Organism Kinetics: Evolutionary Dynamics of Lipid Aggregates with Genes and Metabolism, Origins of life and evolution of the biosphere, February 2004, Volume 34, Issue 1-2, pp. 171-180.






Evolutionary Biologists In Fierce Battle Over Selection Theory

(This article was originally published in Ingeniøren, 25 March 2011. Online link (in Danish). Translated by the author.)



Six months ago, readers of Ingeniøren witnessed a Copernican revolution in evolutionary biology when we wrote about a new paper, ‘The evolution of eusociality’, published in Nature by the three leading evolutionary biologists from Harvard, Martin A. Novak, Corina E. Tarina and Edward O. Wilson. The paper challenged kin selection theory, and claimed that Darwin’s natural selection and a bit of proper math was sufficient to explain the origin of cooperation and altruism in nature.

Measuring genetic kinship and individual fitness was simply not necessary, the authors claimed. Since then, howls of protests have been heard from universities worldwide, including Denmark, where scientists Trine Bilde from Aarhus University and Jacobus Boomsma from University of Copenhagen have lead the choir. When Ingeniøren asked him about the paper in question, the latter commented that it “will not lead to a single new discovery”, and it is unbelievable that Nowak, Tarnita and Wilson would “ignore fifty years of research just to stir up some controversy”. 

In this week’s edition of Nature, Bilde, Boomsma and 135 other biologists defend their position. They accuse Nowak, Tarnita and Wilson (NTW) of disguising banalities as revolutions, and of wanting to erase fifty years of research. Standing on the outside, looking in, this looks very much like a turf war where the target is the person and not the issue at hand.

Epicycles out
So, what is the controversy about? NTW claim that a 47 years old and well-established theory of altruism, which explains cooperation, compassion and self-sacrifice among related individuals, is as dead as the epicycles in celestial mechanics. Granted, this is quite an attack on all the biologists who have come to believe that kin selection theory is the only genuine theoretical improvement since Darwin.

Kin selection theory was developed in a series of papers, published by the British biologist William Donald Hamilton in 1964, in which he introduced the term ‘inclusive fitness’ to keep track of the sum of favorable genes that are passed down through the generations by an individual and its family. Legend tells of the British biologist J.S.B. Haldane telling his friends at the pub that he would risk his life and jump in a river to save two brothers from drowning. But not if it was one brother only. He would also jump the river to save eight cousins, but not seven. The coefficient of relatedness Hamilton would later call ‘r’, and develop the equation rB > C which simply put says that if a gene for altruism has emerged, it will only survive, if the cost (C) is less than the benefit (B) times the likelihood that a brother or some other family member is carrying this gene.

Since Hamilton’s paper, kin selection has been used to explain the origin and structure of complex animal communities such as bees and ants with sterile casts, and kin selection has also been used to explain loose family structures within groups of primates and humans. However, according to NTW’s paper in Nature, Hamilton’s linear summation of the fitness of kinship genes is a mere approximation of the complex dynamics of real populations. Kin selection does not account for habitat structures, synergy and other secondary effects, and is thus a small approximated subset of all the altruistic possibilities that exist within a natural selection model. In other words, kin selection has nothing new to offer compared to the more general and classic Darwinian model.

An Army of Resistance
In the latest issue of Nature, critics have made an angry retort. Jacobus Boomsma and colleagues say that the Harvard scientists have overlooked the fact that eusocial behavior (see BOX) only emerged in those clades where mothers are associated with their full-sibling offspring. In other words, high genetic relatedness is a necessary prerequisite for eusociality, and not just one among numerous possible routes to eusociality, as NTW claims.

Box: Kin selection and inclusive fitness
The controversy concerns how social cooperation can arise and evolve in a population of egoistic individuals. In some species, cooperation can become so encompassing that some individuals abandon their ability to reproduce and help others with their offspring instead. This is called 'eusocial' behavior and can be found in ants, bees and termites. 
In 1964 the British biologist William Hamilton tried to explain eusociality as a result of kin selection: Since my genes are present in the members of my family, it might be beneficial to sacrifice myself for their survival. The term 'inclusive fitness' is the formalized version of this reasoning, and it has played a huge role for the scientific understanding of cooperation in nature. 
Nowak, Tarnita and Wilson believe, however, that all this kinship and fitness accounting is completely unnecessary, as cooperation and other kinds of altruism arise all by themselves from the mathematical equations that determine the evolutionary dynamics within a population. The only things needed are mutations and natural selections – as Darwin’s recipe prescribes. 
Other scientists, like Patrick Abbot, Joan Strassmann, Régis Ferriére and Richard Michod, believe that inclusive fitness is very useful and in no way contradictory to standard models of natural selection. And all the opposing biologists agree that kin selection theory certainly provided new scientific insights, for instance about kin recognition, internal control over parasites, mother-fetus conflicts and the dispersion of males and females within a population.
It seems a bit strange, however, that a whole army of biologists is needed for the defense of kin selection. It looks as if their arguments maybe aren’t enough. It is also strange that no one bothers to discuss the mathematics presented, and none of the critics admit that a rigorous mathematical analysis of the necessary conditions for the use of inclusive fitness is called for. Nowak and Tamita have analyzed this particular problem in the supplementary material of their paper, and show that inclusive fitness can only be used in quite limited circumstances, for instance, when two different strategies are approximately equal in size, or when interactions are pairwise.

A Labyrinth
Any new model must be evaluated according to its power to predict new things. NTW have therefore tried to formulate an alternative mechanistic model to explore the probability space of social and eusocial behavior. They only use mutation and selection as parameters to examine the interactions.

NTW start by looking at a single isolated ant that lives in close proximity to a food source. The ant develops a mutation that makes it feed its offspring instead of itself. Another mutation makes the offspring stay in the nest, instead of leaving it. Eventually, these ant families develop instincts for division of labor. One ant digs a hole, and the other ant lays an egg in it. One ant tends an egg, and another brings food etc. The model shows that eusocial behavior can develop in such a fashion, but only rarely. Once it has been developed through numerous mutations, the population be hyper-specialized and stable against invasion of piggybacking strategies. Reproduction will be left to a single queen and the existence of numerous worker ants will be as natural as the existence of white blood cells in a human body. 

NTW calls the model a labyrinth, as it turns out to be very difficult to obtain true eusocial behavior. This is certainly true for the history of evolution, as true eusocial behavior has been relatively rare in the last millions of years. Their model explains everything that kin selection explains, NTW claim, including all the things that kin selection cannot explain. There is no need to measure genetic kinship and individual fitness. These are superfluous epicycles resulting in incorrect calculations, or, at best, in calculations made more cumbersome.

The challenge now is to figure out what parts of the evolution of eusocial behavior can be explained by the NTW-model, and whether or not this can be explained by standard kin selection theory. This may prove difficult, as eusociality is such a rare and complex phenomenon. But the authors say that measurements of the sizes of bee- and wasp colonies, the lifespan of queens, and the number of eggs may all be an indicator of whether kinship or demographic-environmental factors are more important for the stability of the colony.

Statistical Evolutionary Dynamics
To put the ongoing conflict about kin selection into perspective, we can apply yet another analogy than epicycles: The difference between thermodynamics and statistical mechanics.

When Lord Kelvin and Benoît Paul Émile Clapeyron formulated the laws of thermodynamics some 160 years ago, they started from a phenomenological standpoint. That is: they looked at matter and its transformations from the outside, measuring pressures, volumes and temperatures, which enabled them to calculate various heat capacities of gases and fluids. This led to the formulation of the ideal gas law, which soon was regarded as a fundamental law of nature, because experiments had shown it safe to expect gaseous molecules to behave ‘normal’ – that is, ‘ideal’.

The theory of kin selection is like an ideal gas law. It expresses the dependencies of the measurable macroscopic state variables in a population of individuals (such as relatedness and fitness). Kin selection theory can be used to formulate Hamilton's rule rB > C and related formulas, which have been shown to be extremely useful in their practical applications. And this is good.

There are two problems, though. First of all, thermodynamics was not particularly good at ‘explaining’ phenomena like pressure and temperature. This only happened after Maxwell and Boltzmann developed statistical mechanics, where they showed that temperature is a function of a bombardment of atoms and molecules on a barrier. The thermodynamic variables were thus fundamentally described as a result of classical and quantum mechanical particle movements. This was easier to understand than the numerous empirical formulas that seemed to fall from the sky.

The other problem is that biological systems are much more complex than ideal gases. There are numerous ad hoc rules of thumb and phenomenological equations on multiple levels of selection, which makes the theoretical foundations of selection seem more like botany rather than mathematics. The consequence is an endless argument about which aspect is ‘more important’. For instance, biologists have long quarreled about the ‘unit of selection’, that is, whether natural selection takes place on a genetic, cellular, individual or group level. And the arguments often get personal.

But according to Nowak, Tarnita and Wilson, these kinds of discussions are not necessary any more. There can be only one level of selection, and that level is the whole social population. Among eusocial ants, the colony supports the genes of the queen. All you need is a suitable number of differential equations, based on Darwin’s principle of mutation and natural selection. In the end, Nowak, Tarnita and Wilson hope that a mechanic-dynamical explanation will put natural selection theory on solid mathematical ground - just like the theory of statistical mechanics did with thermodynamics. Many biologists will probably continue to doubt this – or maybe they just don’t get the math.

References:
  • Martin A. Nowak, Corina E. Tarnita & Edward O. Wilson, The evolution of eusociality, Nature 466, 1057–1062 (26 August 2010) doi:10.1038/nature09205, 
  • Patrick Abbot, et al., Inclusive fitness theory and eusociality, Nature 471, E1–E4 (24 March 2011) doi:10.1038/nature09831, 
  • Jacobus J. Boomsma, et al., Only full-sibling families evolved eusociality, Nature 471, E4– E5 (24 March 2011) doi:10.1038/nature09832, 
  • Martin A. Nowak, Corina E. Tarnita & Edward O. Wilson, Nowak et al. reply, Nature 471, E9–E10 (24 March 2011) doi:10.1038/nature09836, 

It Can Be Smart To Be Crazy

In a complex world where everybody wants something out of life, it is not always an
advantage to be selfish. It can be good to be nice and altruistic. It might be smart to be crazy and stupid. And sometimes it even pays to be your own worst enemy.

(Published in Ingeniøren, 13 February 2009. Online link (in Danish): http://ing.dk/artikel/det-kan-vaere-klogt-vaere-dum-95698Translated by the author.)

Poker star Gus Hansen has a reputation for being lucky. Often, just when his opponent decides to punish Gus for his reckless bets with mediocre cards, the Dane holds the highest hand and wins the pot. But that has nothing to do with luck. His aggressive style is a cleverly developed `table image ́. And to be able to use your table image for your own advantage is one of the most important weapons in professional poker.

Mathematical game theory is still not close to describing the complexity of advanced strategy games like real life poker. But it has begun to explain why crazy ideas, bad bets and ill-advised decisions might have a place in an otherwise logical and rule-based game universe.

One of such explanations was recently developed by professor David Wolpert from the Santa Fe Institute in New Mexico in a paper published together with Julian Jamison, David Newth, and Michael Harre in the Proceedings of the National Academy of Sciences. They use Gus Hansen's method: develop a suitable table image, which convinces the other players to change their strategy. If you succeed, you might look `stupid ́ but you will increase your chip stack in the long run.

Abnormal Game Theory
Since modern game theory was introduced by John von Neumann and Oskar Morgenstern in the 1944 book Theory of Games and Economic Behavior, a vast number of applications have been developed in such diverse fields as economy, evolutionary psychology, ecology, anthropology and political science. Most of the time the scientists investigated equilibrium strategies, the so-called Nash-equilibria, due to an expectation that actors will be rational and selfish in order to maximize their payoff. But this is not always an optimal strategy.

Let's take an example: Game theory assesses what strategy I should use in a competition with another actor so that I can get the best result for myself. Graphically this is normally illustrated by a payoff-matrix:


In the table rows I can see how much I will win by either cooperating or defecting. If we both would act perfectly rational, I should cooperate (and get 6 points) and my opponent should defect (and get 1 point), because any departure from this equilibrium strategy would reduce our payoff (if I suddenly decide to defect, my payoff would go down from 6 to 4, and if my opponent suddenly would cooperate, his payoff would go down from 1 to 0). Strategy (6;1) is called a Nash-equilibrium, and if a player deviates from this state, he or she is defined as being 'not rational'.

However, it is obvious from the matrix above that my opponent would like me to defect, no matter what. A Gus Hansen strategy could be useful here: act irrationally and shuffle randomly between cooperation and defection. This would give me 0 points half the time and 6 point the other half, since I still cooperate all the time. On average this gives me 3 points per turn and our imaginary Gus would get 0.5 points per turn. In this situation it will be better for me to shift strategy and defect all the time, because I would get an average payoff of 4.5, no matter what my opponent does.


This is exactly what `The Great Dane ́ has been waiting for! Now his average return increases to 5.5 points, which is even more than I get. If Gus had been `rational ́ he would have stayed with 1 point and I would have continued to get 6 points. But now, because his table image made me change my strategy, I get less, and he gets a lot more.

How to Repair the Theory?
Examples like these (see also BOX 1: The Traveler's Dilemma) have made game theory a limited success in real-life applications. Time after time experiments have shown that people do not act rationally. They cooperate voluntarily, act irrationally or against their better judgment. The greatest and most important results in game theory have therefore revolved around the reasons for why people are not rational actors. Eight Nobel Prizes have already been awarded to researchers in this field, and scientists continue to find fruitful paradoxes between the perceived beauty of the theory and the mess of reality.

BOX 1: The Traveler's Dilemma
Just emerged from the subterranean catacombs of the airport, your suitcase lies on the baggage conveyor belt crumpled like a tin can. You anxiously opening it, and find that the antique vase that you had packed so carefully in foam, cardboard, and wrapped in a thick blouse, has tuned into a jigsaw puzzle in thirteen pieces. 
The airline representative says that you will be reimbursed with an amount between 20 and 1000 dollar. The only thing you need to do is to fill out a form and write down the true value of the vase. The representative also informs you that the airline has received a request from another passenger from the same plane who had the same type of vase and which also had been smashed. 
If you both write down the same value, the airline company will believe you both and pay this value. But if one of you write down a lower number than the other, the airline company with pay out the lower value to both and then give a 20 dollar bonus to the person who wrote the lower and probably more truthful number, while punishing the higher bidder with a `fine ́ of 20 dollar. 
So what to do? Your first impulse might be to write down a greedy 1000 dollars. But your well-honed mathematical skills quickly tell you to go lower. You might get more if you write 990 dollars instead, because if the other passenger writes 1000 dollars, then you'll get 1010 (990 + 20) and he or she will only get 970 dollars (990 – 20), and even if she writes 990, you will both end up with 990 dollars, which is still more than the 980 you would have gotten by writing 1000. And if she bids less than that it wouldn't matter anyway whether your form says 1000 or 990 dollars. 
Before you finish the first 9.. a chill runs down your spine. The other passenger can't be anyone else than the cunning stockbroker lady next to you. She is relentless and extremely intelligent. She will definitely have thought this through and your reputation as a rational genius is on the line. It is therefore wise to write 980 for the same reasons as it was wise to write 990. But wait... she will know that too! Let's write 970, or better 960... no, 950... no, 940... 
This is the crux of the matter: if both passengers were perfectly rational and selfish they should write down 20 dollars. This is as logical as it is crazy. Game theoreticians conducted real life experiments of the dilemma in order to see if people really behave as the theory predicts. Of course they don't. The average is somewhere between 990 and 1000 dollars, far away from the Nash equilibrium, and even trained game theoreticians would never offer a meager 20 dollars. So the question is: What's wrong with game theory and how can it be fixed so that it can explain real-life phenomena?
So, how to repair game theory? The example with The Traveler's Dilemma shows that arguments about people being nice and altruistic cannot be the whole story. A large part of the problem seems to be a rather rigid definition of rationality. Gambling, for instance, is not about rationality. It is about maximizing profit.

The idea to adopt different images for different situations (Wolpert calls them 'personae') might contain an important insight by which to solve many of the existing game theoretical paradoxes. The researchers show how such a flexible adoption of strategies can account for some of the discrepancies between experimental and theoretical data - for instance the The Traveler's Dilemma: If you would take into account that your opponent won't be 'rational' in a strict sense (by only requesting 20 dollars from the company) the game theoretical predictions would end up with an average of 970-980 dollars – more or less the same as result as in real-life experiments.

Wolpert's and Jamison's model is of course still quite crude and would never be able to compete with professional poker players. It contains only two 'personae' or images: the perfectly rational superhuman and the completely randomized maniac. But by expanding the idea to a continuum of possible images, one could imagine the approach to be much more useful in real-life situations. Phenomena like anti-rationality, meaning people who consciously act as their own worst enemies, would make sense in terms of payoffs. The model even contains examples of games where all players can act as their own worst enemies and still get a better result than if they had acted rationally.
BOX 2: The Prisoner's Dilemma
My partner Kurt and I are suspects in a murder case. Placed in two adjacent interrogation rooms, we are unable to synchronize our stories. The police don't have sufficient evidence to convince a judge of our guilt, and so they offer us a bargain: If I talk, but Kurt doesn't, I will go free and Kurt will get 10 years behind bars. The same goes for Kurt. If he talks and I keep my mouth shut, he will go free and I will be incarcerated for 10 years. If none of us talks we both get one year and if we both talk, we get five years each.

I know Kurt and I know he is a sly psychopath. No matter what I choose to do, he knows that he always will get a milder sentence by snitching. Either he gets five years instead of ten (if I talk) or he will walk free instead of getting one year in prison (if I say nothing). The obvious strategy for Kurt is to talk to the police. 
If I analyze the situation the same way as Kurt does, we should both defect and get five years each, even though we could have settled with only one year each by keeping quiet. Thus, rational thinking leads to a bad result for both of us. That's the dilemma. Examples from real life situations, for instance in burglary cases (but also in bicycle races, where two lone riders have a substantial lead, which is a similar situation) show that people usually cooperate. They seldom defect, even if it's a one time game only, where you cannot expect to gain anything later on. 
In the repeated prisoner's dilemma things are different. Now you can develop strategies depending on what the other guy did in the previous round. I this situation it has been shown that cooperation can develop from a tit-for-tat rule. You start by cooperating, and then you do what the other player has done before. In 1978, the famous game theoretician Robert Axelrod invited researchers to send him all kinds of strategies which he let compete against each other in a computer simulation. The simple tit-for-tat rule won several times.

Even the classical prisoner's dilemma can now be seen in a different light (see BOX 2: Prisoner's Dilemma). Experiments have repeatedly shown that prisoners seldomly choose the rational Nash-equilibrium. They almost always choose cooperation. Wolpert and colleges can explain this via their personae-theory without involving repeated trials. The results in the so-called Ultimatum Game can also be explained by using this idea.

But if you think that you can beat Gus Hansen by reading up on Wolpert and colleagues, you will be disappointed. Mathematical game theory is still far too simple to account for the cunning of poker players, who have developed a much larger bag of tricks and techniques than just a manipulation of a table image.


References:
• Wolpert, D. H. and Jamison, J. The Strategic Choice of Preferences: the Persona Model, Berkeley Electronic Journal of Theoretical Economics, 2011,
http://www.bos.frb.org/economic/wp/wp2010/wp1010.pdf
• Wolpert, D. H. and Jamison, J. “Schelling Formalized: Strategic Choices of Non-Rational Behavior”, Evolution and Rationality: Decisions, Cooperation, and Strategic Behavior, K.Binmore and S. Okasha (eds.), Cambridge University Press, in press.

Bakteriespisende virus kan lære os nyt trick mod infektioner

Visse viras evne til at bryde igennem bakteriers cellevægge har ført til opdagelsen af en kur mod miltbrand. Og til nyt håb i kampen mod multiresistens.


Overforbrug af antibiotika, utilstrækkelig hygiejne og manglende interesse fra medicinalindustrien er tre væsentlige grunde til, at hospitaler kæmper med stadigt flere multiresistente bakterier.

Læger og mikrobiologer er derfor på udkig efter alternativer til de snart virkningsløse antibiotika, og i den forbindelse er en gammel teknik, der udnytter såkaldte bakteriofager til at bekæmpe infektioner, nu blevet taget ned fra hylden og støvet grundigt af.

En bakteriofag er et virus og evolutionært set det eneste, bakterier har respekt for. Det ligner en blanding af en bordlampe og en edderkop. Med edderkoppedelen sætter det sig fast på bestemte receptorer på overfladen af en bakterie, hvorefter det skyder en syl igennem cellevæggen og tømmer sit DNA eller RNA ind i bakterien. Efter få minutter begynder bakterien at oversætte virussets RNA til proteiner, som hurtigt overtager maskineriet. Millioner af nye bakteriofager produceres, og når der ikke er plads til flere i cellen, har de et problem: Hvordan kommer de ud?


Her bliver det interessant for medicinalforskningen. Ligesom det er tilfældet med penicillin-præparaterne, bruger bakteriofager nogle enzymer kaldet lysiner, som kan åbne for bakteriernes cellevægge via en proces, man kalder lysis. Når bakteriofagen frigiver sit lysin, sætter det sig på en receptor i bakterien, som lukker cellevæggen op, så cellen ødelægges og de nye bakteriofager frigives.

Den receptor, som bakteriofagen her udnytter, er under normale forhold livsvigtig for bakterien, og gennem mere end syv års analyser af processen i miltbrandbakterien har professor Vincent A. Fischetti sammen med kolleger fra Rockefeller University i New York nu udviklet et stof, der kan forhindre bakterier i at danne denne receptor – hvilket altså vil slå bakterien ihjel. Og hvad vigtigere er: Når bakterier aldrig har udviklet resistens mod bakteriofagernes angrebsform, er der stor sandsynlighed for, at de heller ikke vil udvikle det mod medicin, der benytter sig af samme angrebsvej.

Forskerne kalder deres stof epimerox, og forsøg har vist, at stoffet forhindrer en dødelig miltbrandinfektion, i hvert fald blandt mus. Endnu mere betydningsfuldt viser det sig, at epimerox også virker mod andre bakterier, inklusive de multiresistente stafylokokker. Dermed kan opdagelsen af epimerox meget vel gå hen at blive en milepæl i vores evne til at kontrollere bakterieinfektioner.

læs resten af teksten med kommentarer på ing.dk

Hør Alexander Graham Bells stemme fra en voksdisk fra 1885

For første gang er det lykkedes fysikere at ekstrahere lyd fra gamle eksperimentelle optagelser på Bell Labs, fra før telefonen og grammofonen blev opfundet.


I mere end 130 år har nogle af Alexander Graham Bells laboratoriematerialer ligget som ‘stumme objekter’ i kælderen på Smithsonian Institution i Washington DC.

Disketter, cylindre og rør, som han eksperimenterede med for at optage og afspille lyd på en pålidelig måde, har været utilgængelige, fordi man ikke anede, hvordan de var lavet eller tænkt, og fordi man ikke længere havde teknikkerne til at afspille dem.

Men nu har fysikeren Carl Haber fra Lawrence Berkeley National Laboratory i Berkeley lavet et optisk scan af nogle af de mærkelige voks- og papdisketter i samlingen og oversat dem til en digital lydfil, skriver theatlantic.com.

En optagelse fra den 15. april 1885 viser sig at indeholde Bells egen stemme, hvor han siger ’Hear my voice – Alexander Graham Bell’.

 


Læs resten af historien med kommentarer på ing.dk


Mysteriet om de namibiske fe-cirkler


Gudernes fodspor, underjordiske drager eller pruttende termitter? Et iøjnefaldende fænomen i Namibia har nu – måske – fået sin forklaring.


I den namibiske ørken i det sydvestlige Afrika findes der et naturfænomen, som har været omgærdet af mystik siden tidernes morgen. Rødbrune cirkler af porøst sand, omkranset af små græstotter, breder sig over kilometerstore områder i et ellers ubeboeligt og knastørt ørkenlandskab.

Cirklerne kaldes ‘fairy circles’, eller fe-cirkler på dansk, og findes kun i et smalt bånd 150 kilometer fra den atlantiske kyst. Som et fintprikket brunt udslæt ser man dem tydeligt fra fly og på Google Maps, og vidste man ikke bedre, kunne man tro, at der var tale om et kunstværk fra en ukendt kultur.

Namibias indfødte hedder himba, og de kalder cirklerne for ‘gudernes fodspor’. Når deres gud Mukuru en gang imellem skænker livgivende regn, efterlader han sine fodspor i sandet. Og de forsvinder aldrig, siger Himba. Andre folk på egnen tror, at det er underjordiske drager, der spyr giftig gas op fra små sprækker i undergrunden, og i nyere tid er man også begyndt at tale om aliens og ufoer.

Men ved vi bedre? Videnskabsfolk har undersøgt fe-cirklerne siden 1971, og selvom deres hypoteser ikke indeholder overtro, har de været mindst lige så talrige. Nogle har ment, at det var himbafolkets stammedans, der efterlod mærkerne. Andre har spekuleret over, om pletterne var rullesteder for zebraer, gemsbok og gnuer. Andre igen har ment, at de skyldes meteoritter eller radioaktivitet. Det kunne også være en ukendt art af muldvarpegnavere? Eller altædende, rundtossede myrer? En forsker har brugt mere end 20 år på at vise, at cirklerne skyldes døende grene fra planten ‘levende pind’ – en hyppig kaktus-sukkulent med blad- og torneløse stængler. Problemet er bare, at man har prøvet at lade grene fra den levende pind ligge i græsset i 22 år, uden at der nogensinde blev dannet en fe-cirkel.


Læs hele artiklen med kommentarer på ing.dk

Det bærbare fængsel


En fængslende ny rapport kaldet ’Beyond the Bars’ fra managementfirmaet Deloitte foreslår, at USA udvikler et ’virtuelt fængselsvæsen’, der går langt ud over, hvad de eksisterende elektroniske fodlænker kan tilbyde. Årsagen er ifølge Deloitte alt for proppede amerikanske fængsler, og at man derfor må tænke ud af tremmerne, så at sige. Vi må implementere ‘avanceret risikomodellering, geospatiale analyser, smartphoneteknologi og principper fra studiet af menneskelig adfærd for at opnå overlegne resultater’, skriver de, og foreslår at de dømte overvåges af smartphones og ’gamificeringsteknologier’ – dvs. et pointsystem, hvor man bliver belønnet med et par ekstra friheder, hvis man overholder mødetider og zonegrænser.

I en kommentar i The New York Times skriver Evgenij Morozov, at den slags tekniske fix til at løse et socialt problem kun kan udtænkes af snæversynede og ressourcefikserede management-hjerner. Hvad med i stedet at ’smide færre mennesker i fængsel?’, spørger han i sit lands største avis – et land, i øvrigt, der proportionelt set har cirka ti gange flere indsatte, end vi har i Danmark. Morozov revser derudad og påpeger desuden, at smarte teknologier ofte bruges som gidsel til at opretholde en status quo: Selvom ideen med et virtuelt fængselsvæsen lyder revolutionerende og ’disruptiv’, er den i virkeligheden et forsvar for en reaktionær praksis.

Javel. Han har selvfølgelig ret. Men det er nu alligevel lidt kedeligt at læse sådan en omgang sur kulturkritik. Her i Meta Science-klummen kan vi lide at svælge i de mest outrerede tekniske fix og overlade forargelsen til de andre aviser. Jeg synes f.eks., at et bærbart fængsel er en interessant idé. Det vil aflaste fængslerne og give mennesker mulighed for at føre et mindre stigmatiseret og mere meningsfyldt liv. Vi er jo i forvejen i gang med at implementere overvågningssoftware i alle typer af digitale apparater, så hvad er forskellen? Vi siger, at vi er bange for Big Brother, men dybt nede elsker vi Big Mother.

Lad os se på det: Mobilfængslet skal selvfølgelig kunne måle og sende GPS-positioner og fysiologiske data (især sved, tårer og andre intime afsondringer er interessante). Ikke-invasive hjernescanningsteknikker vil snart kunne måle følelsestilstande, og allerhelst skal de kunne læse tanker. Det er optimalt, for som man siger: Den skjuler intet, som intet har at skjule! Man kunne også kombinere de bærbare teknologier med droneovervågning og/eller social monitorering. Vi har jo efterhånden stolte traditioner for at anmelde vores naboer til Skat. Det er kun et naturligt skridt at udvide den praksis til de kriminelle. I DDR blev man afpresset til at blive stasiagent. I Danmark gør vi det helt sikkert gratis.

Udviklingen behøver ikke at stoppe her. For nylig udgav en herre ved navn John St. Waft en pamflet med titlen ’Endnu et beskedent forslag’ med interessante ideer til at integrere asylansøgere i det danske forsvarscurriculum. Disse forslag er værd at bygge på, tænker jeg. F.eks. kunne vi ikke blot overvåge fangerne, men også straffe dem via fjernbetjening, f.eks. med elektriske pulser. Man kunne desuden bruge dem til nyttigt arbejde. Trædemøller og arbejdslejre var jo en skøn opfindelse, og den digitale tidsalder vil med fordel kunne bygge på disse landvindinger. Vi kunne kalde det ’crimesourcing’ ... I USA og andre lande, hvor man har dødsstraf, vil man kunne uddelegere bødlens arbejde til et online community, hvor man i fællesskab trykker på knappen. Eller endnu bedre: Dødsstraffen kunne ‘gamificeres’, så spillerne fik point for antallet af dræbte?! Åh, tekniske fix – her kommer jeg.

Gældsranking: En indikator for farlige banker

Med en øget transparens i finanssektoren vil man kunne måle – og dermed undgå – risikoen for massekrak i sektoren, viser finansfysikken.


Ved at undersøge, hvor meget banker og globale finansinstitutioner er afhængige af hinanden, har en gruppe økonomer med baggrund i komplekse systemer udviklet et værktøj, der kan kvantificere risikoen for et systemisk sammenbrud i finanssektoren.

En analyse af netværket af ejerskab og gensidige gældsforpligtelser kan definere en slags gældsrating, som forskerne kalder DebtRank: Den beregner, hvor store konsekvenser et eventuelt krak ville have, ikke kun for banken selv, men for hele netværket. Og jo flere andre banker, en bank vil tage med i faldet, desto større DebtRank har den.

Resultatet viser, at problemet ikke nødvendigvis er de banker, der er ‘too big to fail’. Det er snarere de banker, der er ‘too central to fail’. Citigroup og Deutsche Bank er for eksempel to af de allerstørste banker i verden, men hvis en af dem var gået nedenom og hjem i starten af 2008, havde det haft færre systemiske konsekvenser for finanssektoren, end hvis f.eks. J.P. Morgan eller Bank of Scotland var krakket.

Et andet eksempel er Wells Fargo & Co.: Firmaet bar på lige så meget systemisk risiko som Citigroup, selvom dets aktiver kun er en fjerdedel af Citigroups aktiver.

DebtRank blev udviklet sidste sommer og bygger på den samme indsigt, som har gjort Googles søgealgoritme PageRank så effektiv: Vigtigheden af et punkt – i Googles tilfælde en internetadresse – i et stort og sammenfiltret netværk bestemmes af punktets popularitet, det vil sige af antallet af punkter, der linker til det. Hvis en bank altså har indgået rigtig mange handler med andre banker i form af derivater, lån, forsikring af lån, væddemål osv., vil den blive central alene som funktion af sine forbindelser.

Alverdens centralbanker er lige nu ved at undersøge metoden. Et problem er dog, at de informationer, det kræver at beregne DebtRank, ikke altid er offentligt tilgængelige. De data, som er blevet brugt i forskernes undersøgelse, er da også meget ufuldstændige. Det er derfor vigtigt, siger forskerne, at implementere en lovgivning, der øger transparensen i finanssektoren, således at i det mindste myndighederne kan gribe ind, når situationen spidser til.

En gældsranking alene kan selvfølgelig ikke redde os fra finanskriser, men det er overraskende at se, hvordan et relativt nyt værktøj fra kompleksitetsforskningen kan opdage hidtil skjulte sammenhænge og tilmed være de eksisterende økonomiske stress-test og disses ‘defaultcascade algoritmer’ overlegent.


Systemiske fejlkaskader
Man kender problemet med systemfejl fra andre teknologier. Uheldet på atomkraftværket på Three Mile Island onsdag 28. marts 1979 er et skoleeksempel på en systemisk fejlkaskade. Et mindre problem i den sekundære kølekreds i reaktor 2 startede en lavine af funktionsfejl med det resultat, at der begyndte at slippe radioaktivt materiale ud. Ifølge en undersøgelseskommission var reaktoren under 30 minutter fra en irreversibel kernenedsmeltning.

Også finanskrisen fra 2007-2008 kan ses som en systemisk fejlkaskade. Lidt for lette kreditter og billige lån fik huspriserne til at stige, og da renterne pludselig steg 9. august 2007, kunne mange familier ikke betale deres afdrag. I løbet af et enkelt år kom 10 pct. af alle belånte amerikanske boliger på tvangsauktion, og mange finansinstitutioner blev insolvente. Krisen bredte sig hurtigt til realøkonomien, idet virksomheder gik konkurs og produktionen faldt. Kun ved at øge gældsloftet og printe billioner af friske dollars kunne USA undgå en officiel falliterklæring. En lignende proces med baggrund i boligbobler og dårlige statsfinanser udspiller sig lige nu i den igangværende gældskrise i EU.

Logikken bag kritiske systemfejl blev først for alvor undersøgt af Charles Perrow i bogen ‘Normal Accidents’ fra 1984, hvori han ud over atomkraftteknologierne også analyserede kemifabrikker, elektricitetsnetværk, dæmninger, fly og rumraketter. Dengang var den globale økonomi langt mindre udviklet end i dag og internettet kun i sin vorden, og Perrows konklusioner er derfor først nu ved at blive til almenviden: Komplekse tekniske systemer, hvor delelementerne er tæt koblet til hinanden, er i fare for at komme ud af kontrol gennem en serie af årsag-virkningskæder, der hver for sig måske virker harmløse, men i deres helhed kan blive til en katastrofe.

Verdensøkonomiens kerne
Datagrundlaget for DebtRank-indikatoren stammer fra en efterhånden berømt undersøgelse, som Ingeniøren skrev om i efteråret 2011. Her blev det vist, at en central kerne af 147 multinationale banker og virksomheder kontrollerer store dele af verdensøkonomien. En af forfatterne var Stefano Battiston fra det teknologiske institut ETH Zürich i Schweiz, og han har sammen med en række kolleger analyseret videre på ejerskabsforholdene i disse banker og korreleret informationerne med data på fordelingen af de op til 1,2 billioner dollars dyre redningspakker, der blev udstedt af USA’s centralbank Federal Reserve i årene 2008-2010.

Det viser sig, at de 22 banker, der fik flest penge, udgjorde et kritisk forbundet netværk, hvor hver enkelt aktør bogstaveligt talt havde en kniv på struben på alle andre. Kortvarigt havde de en så høj DebtRank, at en mindre insolvens kunne have udraderet dem alle i én lang kaskade af krak, som figurerne her på siden viser. En DebtRank på 1 betyder, at man er i stand til at udslette den økonomiske værdi af hele netværket, hvorimod en DebtRank på 0 betyder, at man er komplet afkoblet fra netværket.

I begyndelsen af krisen, dvs. i slutningen af 2007 og i starten af 2008, havde disse 22 banker en relativt lav DebtRank på under 0,3, og ville have kunnet modstå flere nabo-bankers krak uden selv at blive destabiliseret. Men allerede i november 2008 var situationen en helt anden. Flertallet af dem havde en DebtRank på over 0,5, og kombineret med deres øgede skrøbelighed (defineret som gælden divideret med egenkapitalen) ville de, hvis de var gået fallit, have kunnet udradere over halvdelen af netværkets økonomi.

Bemærkelsesværdigt er det også, at selvom USA’s centralbank på det tidspunkt havde hældt 900 milliarder dollars i systemet, var disse bankers gæld stadig seks gange større end deres samlede markedsværdi.

Åbenhed – ingen interesse
Med hundreder af millioner af arbejdspladser, valutakrige og statsbankerotter på spil, er det en gåde, at algoritmen ikke for længst er implementeret i centralbankernes overvågningssystemer. Endnu bedre ville det være, hvis de nødvendige data til at beregne DebtRank var offentligt tilgængelige, for så kunne man som bank vælge at handle med mindre risikable modparter og gøre sig selv mere modstandsdygtig – uden ekstra omkostninger.

I sidste ende er de store globaliserede finansinstitutioner dog ikke interesserede i åbenhed, for hvis de skulle fortælle, hvilke aktiver de holder, og hvilke de sælger, ville de jo vise deres pokerhånd og dermed give konkurrenter mulighed for at vædde imod dem.

I et nyt paper på arxiv.org fra januar 2013 foreslår Stefan Thurner fra Santa Fe Institute og Sebastian Poledna fra Wiens universitet et kompromis: Gør bankernes og finanshusenes DebtRank synlig for enhver uden at afsløre de underliggende positioner, som ligger til grund for beregningen. På den måde vil man kunne vurdere risikoen – uden at se deres pokerhånd. Det ville få den samlede systemiske risiko til at falde drastisk, og markedet ville ikke miste sin effektivitet af den grund, fordi pengene altid også vil kunne findes andre steder i netværket.

Under alle omstændigheder burde det som minimum være muligt for centralbankerne at overvåge flowet i realtid, og sikre, at systemiske fejl undgås. En kaskade af krak på det globale finansmarked er nemlig mindst lige så alvorlig som en atomkraftulykke.


Læs hele artiklen med kommentarer på ing.dk

Nu stiller forskerne skarpt på hjernen igen

1990’erne blev kaldt ‘hjernens årti’, men de helt store gennembrud udeblev. Nye teknologier, som ikke blot kan spore, men også ændre aktiviteten af enkelte neuroner, giver forskerne nyt håb.


Det kan ikke have undgået den videnskabeligt interesserede læsers opmærksomhed, at hjernen er et meget omtalt organ, der har nemt ved at finde overskrifter og forskningsbevillinger. I 1990’erne talte man sågar om ‘hjernens årti’, men ud over en række bedre diagnoseværktøjer og farverige fMRI-, PET-, og CT-hjernescanningsbilleder blev det aldrig til de helt store åbenbaringer.


I stedet blev den genetiske kode udvalgt som budbringer for en dybere forståelse af den menneskelige tilværelse. Men nu da arbejdet er færdigt, og genomet har afsløret en forbavsende og ganske uigennemtrængelig kompleksitet, er turen igen kommet til neuronerne.

Alene inden for de seneste tre måneder har hjerneforskere taget to store stik hjem med henholdsvis en bevilling på en halv milliard euro fra EU-Kommissionen til det såkaldte ‘Human Brain Project’, der vil lave en computersimulation af hjernen, samt en bevilling på tre milliarder dollars fra Barack Obamas regering til det såkaldte ‘Brain Activity Map Project’, som i løbet af de næste ti år skal kortlægge aktiviteten af hver eneste neuron i hjernen, hvoraf der er cirka 85 milliarder.

På trods af megen snak i blogger-krogene om, at disse megaprojekter er mere politisk fjerpragt end videnskabelig fornuft, er der en vis grund til at være optimistisk. Årsagen er den, at der i de seneste 5-10 år er sket væsentlige fremskridt i teknologier, der ikke blot kan scanne, men også aktivere og hæmme hjerneceller.

Det giver mulighed for at interagere med de enkelte neuroner og kortlægge aktivitetsmønstrene i hidtil usete detaljer. Dette vil helt sikkert føre til bedre behandlingsmuligheder i det lange løb, men om det vil bidrage til en mere fundamental forståelse af os selv, står selvfølgelig stadig hen i det uvisse.

Læs hele artiklen med kommentarer på ing.dk

Teknologisk udvikling – det kan man regne sig frem til


Udviklingen inden for forskellige teknologier følger lovmæssigheder, der kan og bør bruges som grundlag for politiske beslutninger, mener fire fysikere.


At det er svært at spå, især om fremtiden, hører fortiden til. Det mener fire fysikere fra Santa Fe Instituttet i New Mexico. De har kigget på de historiske data for prisen på og produktionen af 62 teknologier siden Anden Verdenskrig og prøvet at finde regelmæssigheder i udviklingen.

Deres analyse, som er blevet publiceret i fagbladet PloS One, viser, at der især er to lovmæssigheder, som holder stik: Den ene er den velkendte Moores lov, opkaldt efter medstifteren af Intel, Gordon Moore, der i 1965 sagde, at prisen på en transistor ville falde eksponentielt med tiden. Det har vist sig at passe nogenlunde, med det resultat, at antallet af transistorer på en computerchip til en given pris har kunnet fordobles cirka hvert andet år.

Men der findes faktisk en lovmæssighed, der er endnu bedre end Moores lov: Wrights lov, opkaldt efter flyingeniøren Theodore Wright, der i 1936 sagde, at prisen på flyvemaskiner ville falde, jo flere der blev produceret.

Sociologisk formuleret sagde Wright sådan set bare, at vi lærer gennem erfaring. Til at starte med bærer vi os måske klodset ad og tager unødvendige omveje i produktionen, men efterhånden som vi gentager arbejdet, vil vi optimere processen og lære at økonomisere med ressourcerne og vores arbejdsindsats. Wrights lov kunne man derfor også kalde loven om den fortsatte automatisering.

Umiddelbart kan det lyde, som om Moores og Wrights love er ens: Moores lov taler om en eksponentielt faldende transistorpris og Wrights lov om en faldende (men produktions afhængig) pris på flyvemaskiner. Oversat til matematiske formler betyder det, at de to love kun er ens, hvis man forudsætter, at produktionen af en teknologi vokser eksponentielt. Og det er slet ikke givet. Hvorfor skulle produktionen af en teknologi vokse eksponentielt i betragtning af alle mulige kapacitets- og råstofbegrænsninger og af det faktum, at der ikke findes et uendeligt antal af købere?

Hvis man begrænser sig til opstartsfasen for en ny teknologi eller til udvalgte tidsrum – i dette tilfælde til perioder på mellem 10 og 39 år – er dette, hvad fysikerne fra Santa Fe har fundet: Alle de teknologier, som de har kunnet finde tilpas ordentlige produktionsdata på, lige fra flyvemaskiner over laserdioder til akrylfibre, følger en eksponentiel produktionskurve – en kurve, som man før har troet kun gjaldt for computeren.

Bill Gates sagde engang: ‘Eksponentiel forbedring er sjældent – vi er alle blevet forkælede og dybt forvirrede af it-modellen.’ Men analysen viser altså, at informationsteknologi ikke er undtagelsen. Den er reglen. Om det er gasledninger, geotermisk energi, solceller, magnesium, polyester, gummi, tv-apparater, vindenergi eller ølproduktion: Alle områder følger Moores og Wrights love, dog som regel med en lidt langsommere fordoblingstid end for computeren.

Læs hele artiklen med kommentarer på ing.dk


Stenaldermennesket gik over klippen efter sten


Stenalderens mennesker var ekstremt mobile og bevægede sig over kæmpestore områder. Det viser nye målinger af håndkilesten og knogler.


Vi ved ikke meget om stenaldermennesker, ud over at de gik i pels og var dygtige flinthuggere. Men to artikler i fagbladet Journal of Human Evolution viser nu, at de også må have løbet eller gået enormt store afstande.

Et af beviserne kommer fra skinne- og lårbensknogler. Man har fundet ud af, at styrken og stivheden i skinnebenet og lårbenstrekanten giver et godt billede af, hvor meget en person må havde løbet eller gået i sin livstid.

Antropologerne Colin Shaw og Jay Stock fra University of Cambridge i England sammenlignede derfor et dusin 120.000-36.000 år gamle neandertaler- og anatomisk moderne Homo sapiens-knogler fra forskellige præhistoriske sites i Afrika og Den Arabiske Halvø med knogler fra henholdsvis nyere jæger-samler- samfund i det sydlige Afrika og med benknogler fra moderne elite-cross-country-løbere.

Det viser sig, at mennesker fra stenalderen (som groft regnet startede for 2-3 millioner år siden og sluttede for cirka 5.000 år siden) havde langt mere robuste ben end både eliteløbere og det mobile savannefolk, der for kun to tusinde år siden fouragerede i Afrika på jagtmarker på størrelse med Sjælland. Eliteløbere kommer faktisk sidst i rækken af benarbejdende mennesker, selvom de typisk løber mellem 130 og 160 kilometer om ugen. Det peger på, at hominiderne i den palæolitiske stenalder må have været på farten konstant (og man skal lige huske på, at de hverken havde opfundet hjul eller gjorde brug af trækdyr).

Læs resten af artiklen med kommentarer på ing.dk

På sporet af det tabte mikrokontinent Mauritia

Indtil for 60-80 millioner år siden lå der et helt kontinent mellem Madagaskar og Indien, viser ny forskning


Havet mellem Madagaskar og Indien gemmer på et tabt kontinentalt fragment, der forsvandt for cirka 60-80 millioner år siden, hævder en gruppe forskere fra Universitetet i Oslo i en artikel i fagbladet Nature Geoscience.

Resterne af dette mikrokontinent, som forskerne har døbt ‘Mauritia’, er nu nedsunket som spredte forhøjninger og kontinentale skorper mellem Madagaskar og Indien, heriblandt i form af det 2.000 kilometer lange Mascarene-plateau, der ligger på 8-150 meters dybde mellem øerne Réunion og Seychellerne, samt som vulkanske rester på den kun ni millioner år gamle ø Mauritius.

Opdagelsen viser, hvor komplekse og dynamiske de pladetektoniske bevægelser har været, siden klodens kontinenter begyndte at splitte op fra den samlede plade Pangea og langsomt danne nye kontinenter som f.eks. Asien, Afrika og Australien.

Da subkontinentet Indien for 20-50 millioner år siden var på vej mod den eurasiske plade for at danne klodens højeste bjergkæde, Himalaya, opslugte det sydvestlige indiske ocean altså på samme tid dette cirka 25.000 kvadratkilometer store mauritianske fragment, der ligesom Indien selv oprindeligt var en del af det sydlige superkontinent Gondwana.

Vildfarne zirkoner
Beviserne på, at Mauritia vitterlig eksisterede, mener de norske forskere at have fundet i form af millioner af år gamle zirkon-silikater på Mauritius’ strande. Disse krystaller er meget ældre end øen selv og kan kun være kommet dertil via vulkanudbrud.

Zirkonerne blev krystalliseret i granit og andre former af vulkansk sten for mindst 600 millioner år siden, skriver medforfatter Bjørn Jamtveit i artiklen, og en af de 20 fundne krystaller var mindst 1,97 milliarder år gammel, siger han.

Geologerne foreslår derfor, at disse vildfarne zirkoner stammer fra gamle fragmenter af kontinentalskorper under Mauritius. Nye vulkanudbrud må have bragt dem op, hvorefter de er blevet blandet med resten af sandet. Andre forskere tvivler dog på den forklaring og siger, at zirkonerne måske kan være kommet dertil for nylig med f.eks. skibe.

Artiklen foreslår desuden, at der ikke kun findes ét, men mange skorpefragmenter på bunden af det Indiske Ocean. Analyser af tyngdefeltet afslørede varierende riller og rifter af kontinentale skorper, helt op til 30 kilometers tykkelse, hvilket peger på, at de er rester af en gammel landmasse, der blev flået op, mens Madagaskar og det indiske subkontinent langsomt drev fra hinanden. Jamtveit og kolleger estimerer, at Mauritia havde et areal på 20-30.000 kvadratkilometer, svarende til cirka tre gange Kretas størrelse

Læs hele artiklen med kommentarer på ing.dk

Facebook-likes afslører din personlighed

Køn, personlighed og social status kan afsløres ved at analysere ’likes’ på Facebook.


Det er måske ikke helt overraskende at opdage, hvor lille afstanden er mellem, hvad man siger og peger på, og hvilken person man er. Alligevel er det tankevækkende at se, hvor let den slags ofte sensitive informationer kan trækkes ud af internettet og gøres til genstand for en forretning.

Ganske få ’likes’ på Facebook er nok til med 75-95 procents sandsynlighed at finde ud af, om du er mand eller kvinde, sort eller hvid, homo eller hetero, demokrat eller republikaner, kristen eller muslim. Det viser et studie af 58.466 frivillige amerikanske Facebookbrugere, som er blevet publiceret i fagbladet PNAS.


Personlighedstyper opdeles normalt via femfaktormodellen: åbenhed (konventionel-original), samvittighedsfuldhed (upålidelig-trofast), ekstraversion (indadvendt-udadvendt), venlighed (irritabel-godmodig) og neuroticisme (bekymret-rolig). Som eksempel var de brugere, der ofte likede 'The Colbert Report' i reglen originale, men ret indadvendte, hvorimod rapperen Nicki Minaj var mere populær hos de udadvendte og konventionelle personlighedstyper.
Undersøgelsen blev foretaget af de to psykometrikere Michal Kosinski og David Stillwell fra University of Cambridge i samarbejde med datalogen Thore Graepel fra Microsoft. Den viser, hvordan man ganske akkurat kan beregne parametre som intelligens, personlighedstype, stofmisbrug (alkohol, cigaretter, hash, etc.), graden af lykke og forældrenes ægteskabelige status, bare ved at kigge på de likes en person uddeler, mens han eller hun sidder og læser venners updates på Facebook og i det hele taget surfer på nettet.

Analysen foretages automatisk af en computeralgoritme, der har lært, hvilke likes der passer bedst til hvilke personlighedstræk.

Mange af de likes, der var bedst til at bestemme en person, var overraskende:


  • Bøsser afsløres af likes for ‘Mac Cosmetics’ og ‘Human Rights Campaign’.
  • Heteroer foretrækker at like ‘Wu-Tan Clan’ og ‘Foot Locker’.
  • Likes for ‘Hello Kitty’ fortæller, at man har en åben personlighedstype, er sort, stemmer på demokraterne og måske ikke er helt så emotionel stabil som gennemsnittet.
  • Likes for ‘curly fries’ og ‘thunderstorms’ fortæller, at du sandsynligvis har en høj intelligens.
  • Likes for ‘Harley Davidson’, ‘Lady Antebellum’ og ‘I love being a Mom’ placerer dig i den mindre intelligente ende.
  • Har man mange venner på Facebook, liker man gerne ‘Mojo-Jojo’ og ‘Dollar General’.
  • Har man få Facebook-venner, foretrækker man ‘Minecraft’ og ‘The Dark Knight’.
  • Er man til stoffer, liker man gerne ‘Austin Texas’ og ‘Big Momma Movies’, hvorimod de cleane foretrækker ‘Swimming’ og ‘Milkshakes’.



Læs resten af artiklen med kommentarer her.

Rumtidsfinanser


Tid er penge. Og det er afstande også, da rum og tid som bekendt er relative. For at spare seks millisekunder (ms) spenderer banker i New York og London 300 millioner dollars på et 6.021 km langt fiberkabel under Atlanten. Børserne i Singapore og Tokyo kunne for nylig fejre åbningen af et 430 millioner dollars dyrt og 7.800 km langt kabel, der sparer dem for 3 ms. Og nu er man gået i gang med et trans-arktisk kabel under Nordvestpassagen (pris 1,5 milliarder dollars), der vil mindske latenstiden mellem Europa og Asien med 60 millisekunder. Prisen for alt dette er selvfølgelig peanuts i forhold til bankernes gevinster. Disse er hemmelige, men uafhængige kilder estimerer en profit på 7-25 milliarder dollars om året.

Hvad der for et menneske er et blink med øjet, er for en handelscomputer uger og år. På et enkelt sekund kan en højfrekvensalgoritme lave millioner af handler. Den kan scanne nyheder, læse din blog, opdage nye trends og ændre sin strategi i løbet af millisekunder. Algoerne, som de hedder, er i et konstant kapløb, da konkurrerende algoer tættere på informationskilden har en rumtidsfordel. I USA er denne konkurrenceforvridende effekt bragt ned til et minimum. Det tager 3,93 ms for sollyset at rejse fra Chicago til New York. I dag tager det 5-6 ms at sende data på den rejse med fiberoptiske kabler. De smarteste nye mikrobølgenetværk vil komme ned på 4,03 ms, altså kun 0,1 ms fra den teoretiske grænse.

Selvfølgelig er dette ikke godt nok. Bankerne forsøger derfor at forudsige markedsbevægelserne, og ofte synes det vitterligt, som om algoerne er hurtigere end lyset. Finansmarkeder er dog ikke nemme at forudsige. Prisen på en Apple-aktie kan måske forudses et par mikrosekunder frem i tiden, men heller ikke mere. Til sammenligning kan vejret beregnes nogenlunde præcist en uge frem, og planeternes bane om Solen kan beregnes op til 100 millioner år frem i tiden. Det er unfair.

Rumtidsfinansforskningen er således meget interesseret i, hvad Einstein skrev om muligheder for tidsforlængelse. De, der ved noget om sagen, siger, at højere ordens relativistiske effekter snart vil påvirke GPS-systemets evne til at definere og bibeholde en tilpas nøjagtig globalt synkroniseret tid til at koordinere handler med. De foreslår derfor mere eksotiske løsninger, som f.eks. neutrinoer, WIMP’s eller tyngdebølger, som kan sende finansdata direkte igennem Jorden. Det burde øge profitten en lille smule.

Jeg har dog en bedre idé: Vi kunne genoplive de gamle space shuttles og sende alle storbanker og hedge-fonde i kredsløb om Jorden. Hvis de f.eks. bevæger sig med plausible 7,727 meter pr. sekund, vil de efter et år have sparet 11 sekunder i forhold til urene nede på Jorden. For hver milliard dollars, de har lånt os til en rente på 10 pct., vil de modtage 4 cents ekstra – alene fordi de er i kredsløb!

Det lyder måske ikke af så meget, men det er jo bare et spørgsmål om at investere i rumrejser. Finanseksperten Espen Gaarder Haug har regnet på det. I en rumstation, der bevæger sig tæt på lysets hastighed, vil alting gå meget langsommere end på Jorden. De mange bankfolk og hedge-fond-managere, der er taget med for at score de årlige bonusser lidt oftere, vil tale meget langsomt og ligefrem begynde at virke menneskelige.

Hvis de virkelig vil score kassen, kan de gå i kredsløb om et sort hul med en masse på 10 gange Solens. Her, i Schwarzschild-afstand til intetheden, vil de have et årligt afkast på deres udlån på 10.000 pct. Desværre svarer ét år hos dem til 50 år os hos, og man ved jo aldrig, hvad inflationen har spist, når de kommer tilbage.

Sprogets oprindelse findes i sangen


Ifølge en ny hypotese er menneskets sprog opstået som en kombination af mekanismer, der kendes fra fuglenes sang og primaters skrig.


Talesproget er en unik menneskelig egenskab. Ingen andre dyr på denne klode er i stand til at formulere komplekse meningsgivende sætninger som for eksempel: ‘Hoppede hesten over hegnet?’

Længe har lingvister og evolutionsbiologer spekuleret over, hvad det var, der gjorde, at vi for kun 50.000-80.000 år siden udviklede denne fantastiske symboljonglerende egenskab, der om noget har bidraget til moderne kulturers og civilisationers opståen.

Til forskel fra andre moderne menneskelige træk, som f.eks. vores relativt lille kæbeparti eller store kranium, efterlader talesproget ikke mange fossile spor, og Darwin kom i sin afhandling om menneskets afstamning, ‘The Descent of Man’, heller ikke nærmere dette mysterium, andet end at foreslå, at sproget som en analogi til fuglenes kvidren kunne have fundet sin oprindelse i sangen, som efterfølgende ‘måske har været årsag til sproglige udtryk af diverse komplekse emotioner’.

En gruppe forskere fra Massachusetts Institute of Technology (MIT) i USA og Tokyo universitet har nu foreslået en ny hypotese om sprogets oprindelse, der tager Darwin på ordet, så at sige. I en artikel, udgivet i fagbladet Frontiers in Psychology, skriver Shigeru Miyagawa, Robert C. Berwick og Kazuo Okanoya, at det menneskelige sprog er en unik kombination af to allerede eksisterende protosproglige mekanismer, der findes i henholdsvis fuglenes sang og i primaters skrig og lyde. Hver især er disse mekanismer meget simple, men en kombination af dem kan resultere i uendeligt komplicerede sætninger.

»Disse to allerede eksisterende systemer var ligesom æbler og pærer, men så blev de kombineret af mennesket,« siger MIT’s Shigeru Miyagawa.

Sang og betydning
Ideen er med andre ord, at talesproget stammer fra vores evne til på den ene side at synge og på den anden side at ytre enkeltvise betydningsbærende ord. Evolutionært set var det måske ikke alt for stort et spring at udvikle et stadigt mere komplekst sangmønster med ord, der langsomt blev til det, vi nu kalder et talesprog.

Den ene præeksisterende mekanisme findes hos fugle i form af deres repetitive og ekspressive sang. På trods af utallige studier har man ikke fundet nogen evidens for, at fuglesang indeholder referencer til ting eller hændelser. Tværtimod viser det sig, at man må forstå fuglenes sang som en samling af motiver, der formidler fuglens intentioner om f.eks. at være rede til parring eller til at forsvare sit territorium.

Antallet af disse motiver er generelt meget lille. Nattergalen kan godt lave loops frem og tilbage i sit repertoire, og på den måde få en stor variation i sin sang, men antallet af mulige mønstre, og dermed budskaber, er alligevel begrænset til omkring 100-200 melodier.

Den anden mekanisme er indholdslyde, leksikale enheder, der bruges af en række primater og andre dyr. F.eks. har man fundet ud af, at chimpanser har specifikke lyde for ‘slange’ og ‘ørn’, som de bruger til at advare hinanden med. Også biernes dansesprog har vist sig at være indholdsmættet. Cirka 5 pct. af bierne er scouts, og når de har fundet en fødekilde, vender de hjem og danser informationerne foran de andre. Dansen har en meget specifik struktur, der angiver retning, afstand og typen af føde.

Menneskets sprog er ifølge de tre lingvister kendetegnet ved at kombinere disse to lag af mening. Det leksikale lag består af de basale indholdsord, og det ekspressive lag gør brug af diverse motiver, der giver indholdsordene en funktionel beklædning.

Sætningen ‘Hoppede hesten over hegnet?’ bruger f.eks. de tre leksikale ord, ‘hest’, ‘hegn’ og ‘hoppe’, samt en række ekspressive elementer i form af grammatiske og semantiske tegn: spørgeformen, forholdsordet ‘over’, og bøjningen -ede, der angiver datid. Det er disse ting, der arrangerer indholdsordene til en unik betydning, og ved at veksle mellem leksikale og ekspressive lag kan man etablere en dyb hierarkisk struktur, der i princippet gør det muligt at lave uendeligt lange sætninger.

For at forstå, hvad kombinationen af de to systemer er i stand til, kan man kigge på de mange mulige variationer af sætningen. Leksikale substitutioner som f.eks. ‘Sprang krikken over afspærringen?’ benytter sig af synonymer og deres betydningsforskydelser. Ekspressive variationer kan til gengæld give en helt anden fokus, f.eks. ved at placere hændelsen i fremtiden, fjerne spørgeformen eller tilføje modaliteter: ‘Så ville hesten hoppe (over hegnet)’. Tilsammen bliver antallet af variationer over temaet ‘hest hopper hegn’ til et enormt mulighedsrum, hvor man kan lege med kreative ord og sætningskonstruktioner – og ikke sjældent med dårlig poesi til følge (f.eks. ‘Den iltre hingst forcerede forhindringen med et kraftspring!’).


Læs hele artiklen med kommentarer på ing.dk



Eventyr spreder sig ti gange langsommere end gener

Stamtavlen for eventyret Mor Hulda viser, at folkeeventyr spredes ligesom gener, bare ikke lige så let. Konklusionen må være, at vi har nemmere ved at acceptere fælles børn end fælles historier.


Den statistiske analyse af menneskets gener har i løbet af de seneste årtier ført til mange interessante opdagelser.

Man har f.eks. fundet ud af, at vores gener kun adskiller sig fra chimpansernes med mellem en og fire procent, alt efter hvordan man tæller. Den gennemsnitlige genetiske forskel mellem to tilfældige mennesker på kloden er cirka 0,1 til 0,4 procent, igen alt efter hvordan man tæller.

På trods af 5-7 millioner års seksuel adskillelse er den genetiske forskel mellem os og chimpanserne altså kun ti gange større end mellem to tilfældige mennesker. Og endnu nyere forskning viser, at denne sidste forskel kun er cirka ti gange større end den genetiske forskel mellem to tilfældige danskere.

Da vi som regel kan kende forskel på chimpanser og mennesker, og også på hinanden, tilsiger tallene en klar lektion: Gener er ikke alt i denne her verden. Der findes mange andre ting, som også er vigtige i evolutionen.

Geografien, klimaet, parasitter, teknologien, sproget, samfundsstrukturen og sociale normer spiller alle vigtige roller for menneskers faktiske udvikling.

Traditionelt har de positive videnskaber klumpet alle disse ting sammen under kategorien 'kultur' og tildelt dem en birolle i forhold til hovedrolleindehaveren 'natur', underforstået biologien. Men i virkeligheden er de to ting slet ikke så adskilte endda.

Og hvis man endelig vil tælle op, så viser det sig nu, at kulturen kan danne så store barrierer mellem folk, at den har en meget større indflydelse på vores udvikling end genernes naturlige udvælgelse.

Ved at analysere 700 forskellige versioner af folkeeventyret Mor Hulda har tre biologer fra Australien og New Zealand vist, hvordan et af de mest stabile kulturelle 'memer', nemlig eventyr, har spredt sig og udviklet sig på tværs af 31 europæiske lande i løbet af de sidste mange hundrede år.

Det viser sig som forventet, at ligheden mellem din og min version af eventyret ikke kun afhænger af, hvor langt vi bor fra hinanden, men også, hvor forskellige vores sprog og etniske tilhørsforhold er.

Hvad der er mere overraskende er, at disse sproglige og etniske barrierer er større end barriererne for vores genetiske udveksling. Groft sagt betyder det, at vi hellere vil dele vores seng end vores fortællinger.

Læs hele artiklen med kommentarer på ing.dk

Sværmeadfærd fungerer som en kollektiv hjerne

Nye eksperimenter viser, hvordan fiskestimer og fugleflokke trækker informationer ud af deres omverden.


Fænomenet 'wisdom of the crowds' har været debatteret en del i de seneste år, og der synes stadig at være facetter, som forskerne ikke helt forstår. Den primære indsigt bag begrebet går kort fortalt ud på, at man kan trække nyttig information ud af omverdenen via en masse skud i tågen. Det ældste eksempel, man kender til, stammer fra Charles Darwins fætter, sir Francis Galton, der i 1906 overværede et dyrskue, hvor tilskuerne blev inviteret til at gætte vægten på en slagteklar okse.

787 hemmelige gæt blev det til, men ingen ramte plet: 1.198 pund vejede den. Gennemsnittet af alle gæt viste sig kun at være et enkelt pund fra sandheden, og Galton mente dermed at have vist, at kollektivet i visse situationer kan have en højere intelligens end selv det klogeste individ.

Effekten er blevet eftervist mange gange siden da, selvom man har fundet ud af, at det kun gælder med visse forbehold. F.eks. kan social påvirkning føre flertallet på vildspor, og metodens succes afhænger også af den opgave, der skal løses. Ville man anvende en så simpel flertalsprocedure til at bygge broer, ville de nok ikke holde særlig længe.

Men bortset fra disse teknikaliteter er et andet spørgsmål begyndt at trænge sig på: Virker fænomenet kun, når mange individer laver mentalt krævende estimater, eller benytter evolutionen sig af aspekter af mekanismen allerede, f.eks. via ubevidste handlinger eller ved at samle og bundte helt primitive former for kollektive sanseprocesser?

Meget tyder på, at dette er tilfældet. I en ny artikel i tidsskriftet Science viser evolutionsbiologerne Andrew Berdahl, Colin J. Torney og Iain Couzin fra Princeton University i USA, at simpel navigation blandt fiskestimer og fugleflokke baserer sig på en wisdom of the crowds-mekanisme. Om man drejer til højre eller til venstre er ikke en beslutning, der skal forhandles eller estimeres, men et resultat af en meget simpel tælling af naboer: Hvis der er flere naboer på min højre side end på min venstre side, så drejer jeg til højre.

Læs hele artiklen med kommentarer på ing.dk

Logik er svært


Det er en fornøjelse at følge kloge videnskabsbloggere på nettet. En af dem er professor i matematik Jordan Ellenberg, der skriver på bloggen Quomodocumque. Forleden tog han en artikel fra fagbladet Science under kærlig behandling og viste, hvordan den hverken logisk eller matematisk hænger sammen. Artiklen er skrevet af tre psykologer, og den hedder 'The End of History Illusion'. Den påstår, at vi mennesker lider under den illusion, at vi ikke ændrer vores personlighed i løbet af vores liv. Vi underestimerer konstant, hvor meget vi vil ændre os i fremtiden.

Psykologerne rekrutterede 7.519 voksne i alderen mellem 18 og 68 år og fik dem til at udfylde en velkendt personlighedstest, der placerer dem på en skala i fem dimensioner: Samvittighedsfuldhed, venlighed, følelsesmæssig stabilitet, åbenhed over for nye ideer og ekstroversion. Derefter blev de opdelt i to tilfældige grupper. Den ene gruppe blev bedt om at udfylde samme spørgeskema som de ville have gjort det for ti år siden. Den anden gruppe blev også bedt om at udfylde samme skema igen, men ud fra, hvordan de troede de var som personer ti år frem i tiden. Ved at beregne forskellen mellem de to vurderinger kunne psykologerne konkludere, at vi mennesker generelt tror at vi ændrer os mindre, end vi egenlig gør.

Historien fik stor opmærksomhed i medierne. Wikipedia har allerede fået sin egen side om denne 'End of History Illusion'. En artikel i New York Times konkluderede at 'du ikke vil være den person, som du tror du vil være', og Time Magazine mente, at 'selvom vi godt ved, at vi ændrer os, er vi utilpas ved tanken om at ændre os endnu mere'. Sagen er blot: det er forkert. Man kan ikke sætte lighedstegn mellem de to typer af spørgsmål. Hvis man vil rapportere om sin fortid, er der ingen uvidenhed involveret. Men hvis man vil forudside om sin fremtid, er der masser af uvidenhed. Man kan derfor sagtens vide, at man vil ændre sig, men hvis man ikke kender retningen af denne ændring, er den rationelt bedste forudsigelse at sige, at man ikke ændrer sig.

Teknisk formuleret betyder det, at forskellen i forudsigelser ikke er det samme som den forudsagte forskel. Bedst formuleret blev denne maksime af logikeren og filosoffen Willard Van Orman Quine: 'Jeg tror altid at have ret, men jeg tror ikke, at jeg altid har ret!' Tag et eksempel: Alle fornuftige mennesker ved godt, at der må være nogle ting i deres overbevisning, som er forkerte. Men samtidig er det logisk set helt korrekt for dem at antage, at de har den rette overbevisning om hver enkel ting. Der er ingen illusioner involveret. Kun logik og betingede sandsynligheder. Som Ellenberg skriver: Der er ingen bias og ingen selvmodsigelse involveret i den måde at tænke på. Kun ordentlig matematik. Hvad forskerne kalder en illusion i deres artikel er i virkeligheden et udtryk for menneskers mest subtile form for rationalitet.

en måde er det utroligt, at Science accepterede artiklen. Hvis problemstillingen havde været formuleret i form af et terningspil, ville fejlen være blevet opdaget med det samme. Retfærdigvis skal det siges, at artiklens forfattere havde en mistanke om, at noget var galt, og spurgte derfor også forsøgspersonerne direkte om, hvor meget de troede deres personlighed 1) 'ville ændre sig hen over de næste ti år?' samt 2) 'har ændret sig de sidste til år.' Igen fandt de, dog i langt mindre grad, at fremtiden synes mindre variabel end fortiden. Men også her er der så mange metodiske problemer med eksperimentet, at resultatet skal tages med et stort gran salt. Konklusion: Jeg tror at Ellenberg har ret i at psykologerne har uret i deres konklusioner. Bemærk dog, at det ikke nødvendigvis betyder at 'End of History' illusionen ikke findes.

Matematikere til forskere: Nu starter vi vores egne Open Access-tidsskrifter

En gruppe matematikere samle forskere til en række frit tilgængelige videnskabelige fagblade, som skal udfordre den traditionelle publikationsproces.


Mellem 19 og 61 dollar for en enkelt artikel. Det er, hvad studerende, journalister og andre uden en institutionel adgangskode typisk skal betale for at downloade en forskningsartikel fra akademiske forlag som Wiley, Springer og Elsevir.

Alene det digitale bibliotek JSTOR, som for nylig har været sat i forbindelse med aktivisten Aaron Swartz' selvmord, bliver hvert år besøgt af 150 millioner potentielle brugere, som sendes væk igen, fordi de rammer en ubetalelig paywall.

I lyset af den situation har en gruppe matematikere nu planer om at starte en serie af frit tilgængelige, såkaldte Open Access-tidsskrifter i et samarbejde med preprintserverne arXiv og HAL. Initiativet hedder 'episcience project', og håbet er, at alle fagområder er med på ideen og på den måde vil udfordre den eksisterende akademiske publikationsproces.

Projektet blev lanceret i sidste uge af den kendte blogger og Fields Medal-modtager Tim Gowers fra University of Cambridge, England.

Ideen er, at forskere selv organiserer formaterings-, peer review-, redigerings- og publikationsprocessen. De gør i forvejen det meste af dette arbejde, og tilmed gratis, i de private forlags regi, så det eneste, der i princippet mangler for at etablere en kommercielt uafhængig publikation, er en velfungerende infrastruktur i form af online journals, der består af links til de peer-reviewede artikler på servere som for eksempel arXiv.org.

De ekstraomkostninger, der måtte komme til at vedligeholde hjemmesider og computerudstyr, skal bæres af institutionerne selv.

»Det er en vigtig og god diskussion, som nogle internationalt førende matematikere har taget op om, hvordan forskere i stort omfang kan 'frigøre' publikationerne fra de kommercielle forlag,« siger professor emeritus Vagn Lundsgaard Hansen fra DTU Compute i en kommentar til Ingeniøren:

»For det er en kendsgerning, at det i stadigt stigende omfang er forskerne selv, der udfører hele arbejdet, på nær 'indbinding', i papirtidsskrifter. Og dette burde helt naturligt afspejles bedre i forlagenes prispolitik.«

Læs hele artiklen med kommentarer på ing.dk
There was an error in this gadget