martes, 2 de septiembre de 2008

viernes, 29 de agosto de 2008

The Nature of Self-Improving Artificial Intelligence

Perspectives on Emerging Technologies

The Nature of Self-Improving Artificial Intelligence

omohundro_summit_pic_1_tn.jpg

Stephen Omohundro has had a wide-ranging career as a scientist, university professor, author, software architect, and entrepreneur. At the 2007 Singularity Summit hosted by the Singularity Institute for Artificial Intelligence, he asked whether we can design intelligent systems that embody our values, even after many generations of self-improvement. His talk demonstrates that self-improving systems will converge on a cognitive architecture first described in von Neumann’s work on the foundations of microeconomics. He shows that these systems will have drives toward efficiency, self-preservation, acquisition, and creativity, and that these are likely to lead to both desirable and undesirable behaviors unless we design them with great care.

omohundro_summit_pic_2_tn.jpg

The following transcript of Stephen Omohundro’s 2007 Singularity Summit presentation “The Nature of Self-Improving Artificial Intelligence” has been edited for clarity by the author. An audio version of the talk is available at the Singularity Institute website.

The Nature of Self-Improving Artificial Intelligence

omohundro_summit_1.png

I would like to talk about the “nature of self-improving artificial intelligence” and in this I mean “nature” as in “human nature”. A self-improving AI is a system that understands its own behavior and is able to make changes to itself in order to improve itself. It’s the kind of system that my company, Self-Aware Systems, is working on as well as several other research groups, some of whom are represented here. But I don’t want to talk about the specifics of our system. I am going to talk in general about any system that has this character. As we get into the argument, we’ll see that any system which acts in a rational way will want to self-improve itself, so this discussion actually applies to all AIs.

omohundro_summit_2.pngomohundro_summit_31.png

Eliezer mentioned Irving Good’s quote from 1965: “An ultra-intelligent machine could design even better machines. There would then unquestionably be an intelligence explosion, and the intelligence of man would be left far behind. Thus the first ultra-intelligent machine is the last invention that man need ever make.” These are very strong words! If they are even remotely true, it means that this kind of technology has the potential to dramatically change every aspect of human life and we need to think very carefully as we develop it. When could this transition happen? We don’t know for sure. There are many different opinions here at the conference. Ray Kurzweil’s book predicts ten to forty years. I don’t know if that’s true, but if there is even the slightest possibility that it could happen in that timeframe, I think it’s absolutely essential that we try to understand in detail what we are getting into so that we can shape this technology to support the human values we care most about.

So, what’s a self-improving AI going to be like? At first you might think that it will be extremely unpredictable, because if you understand today’s version, once it improves itself you might not understand the new version. You might think it could go off in some completely wild direction. I wrote a paper that presents these arguments in full and that has an appendix with all of the mathematical details. So if you want to really delve into it, you can read that.

omohundro_summit_4.pngomohundro_summit_5.pngomohundro_summit_6.pngomohundro_summit_7.png

What should we expect? Mankind has been dreaming about giving life to physical artifacts ever since the myths of Golems and Prometheus. If you look back at popular media images, it’s not a very promising prospect! We have images of Frankenstein, the Sorcerer’s Apprentice, and Giant Robots which spit fire from their mouths. Are any of these realistic? How can we look into the future? What tools can we use to understand? We need some kind of a theory, some kind of a science to help us understand the likely outcomes.

omohundro_summit_8.pngomohundro_summit_9.png

Fortunately, just such a science was developed starting in the 1940s by von Neumann and Morgenstern. John von Neumann is behind many of the innovations underlying the Singularity. He developed the computer, new formulations of quantum mechanics, aspects of mathematical logic, and insights into the game theory of intelligent systems. And we will see in a minute that his ideas about economics apply directly to the nature of these systems. His work with Morgenstern dealt with making rational choices in the face of objective uncertainty. It was later extended by Savage, Anscombe, and Aumann to making choices in the face of partial information about the world. It has developed into the foundational theory of micro-economics that’s presented in every graduate economics text. Their rational economic agent is sometimes called “Homo economicus.” This is ironic because it is not a very good model for human behavior. In fact, the field of “behavioral economics” has arisen in order to study what humans actually do. But we will see that the classical economic theory will be a much better description of AI’s than it is of people.

omohundro_summit_10.pngomohundro_summit_11.png

We begin by looking at what rational economic behavior is. Viewed from a distance, it’s just common sense! In order to make a decision in the world, you must first have clearly specified goals. Then you have to identify the possible actions you have to choose between. For each of those possible actions you have to consider the consequences. The consequences won’t just be the immediate consequences, but you also look down the line and see what future ramifications might follow from your action. Then you choose that action which is most likely, in your assessment, to meet your goals. After acting, you update your world model based on what the world actually does. In this way you are continually learning from your experiences. It sounds very simple! At this level it is hard to see how you could do anything different.

I won’t go into the formal mathematics of this procedure here, but there are two fundamental things that a rational economic agent has to have. It has to have a utility function which encodes its preferences and a subjective probability distribution which encodes its beliefs. One of the key things in this model is that these two things are quite separate from one another. They are represented separately and they are used in very different ways. In the mathematical version, the agent chooses the action that has the highest expected utility. A chess-playing program might have a utility function that gives a high weight to futures in which it wins a lot of games. For example, its utility function might be “the total number of games it wins in that future.” The intuitive rational prescription leads to some amazing consequences, as we will see in a little bit. It sounds so simple and easy at this level but it’s sometimes hard to follow the logic. Let me emphasize that for an agent that is behaving rationally, the way that you can predict what it will do is to look for the actions that increase its expected utility the most. If an action increases the likelihood of something valuable to it the most, that’s what the system will do.

omohundro_summit_12.png

Why should a self-improving AI behave in this way? Why is this rational Homo Economicus the right model to describe any such system? Today we have AI systems that are based on neural networks, evolutionary algorithms, theorem-provers, all sorts of systems. The argument at a high level is that no matter what you start with, the process of self-improvement tries to eliminate irrationalities and vulnerabilities (places where the system is subject to loss or possible death) and that process causes all systems to converge onto this small class of rational economic systems. The original arguments of Von Neumann, Savage, Anscombe and Aumann were all axiomatic theories. They started with a list of things you had to agree to if you were rational in their opinion. And then they derived the rational decision procedure from those axioms. It’s hard to argue that an AI system that evolved in some complicated way is necessarily going to obey a particular set of axioms. It’s a much stronger argument to say that if it doesn’t obey those axioms then there will be a cost to it. So, I have reformulated those arguments to base them on what I call “vulnerabilities.” These arise from the notion that anything you want to do in the world, whether it’s computational or physical, requires the use of four fundamental physical resources: space, time, matter, and free energy.

omohundro_summit_13.pngomohundro_summit_14.png

Free energy is the physics term for energy in a form which can do useful work. For any kind of computation, any type of physical work you want to do, anything you want to build, these are the fundamental resources you need. For almost any goal, the more of these resources you have, the better you can achieve that goal. A vulnerability is something that burns up your resources with no benefit from your perspective.

One class of vulnerabilities arises when your preferences have circularities in them. Imagine you are considering where you would like to be. Imagine you would prefer to be in San Francisco over being in Palo Alto, to be in Berkeley over being in San Francisco, but you prefer to be in Palo Alto over being in Berkeley. Such an agent will spend time and energy to drive from Palo Alto to San Francisco to Berkeley and then back to Palo Alto. He’s vulnerable to going round and round in circles wasting time and energy with no benefit to himself. If a system has this kind of loop inside of its preference system, it is subject to this kind of problem. You sometimes see animals that exhibit this kind of behavior. Dogs that chase their tails are caught in a circular loop.

When I was younger, we had a car with a shiny bumper. There was a male bird who discovered his reflection in the bumper and thought it was a competitor, so he wanted to chase this competitor out of his territory. He flew into the bumper but instead of running away, of course, his reflection also flew into him and they hit nose to nose. He then flew again into the bumper and repeated this behavior for hours. It was such an important thing in his preference system that the next day he came back and repeated the performance. And he came back after that every day for an entire month. This poor bird was not improving his ability to live in the world. He wasn’t producing more offspring. He had discovered a situation in the world that exposed a vulnerability in his preference system. This is an interesting example because it points out a fundamental difference between evolving systems, like animals, and self-improving systems. If this bird had evolved in an environment filled with cars with this kind of bumper, you can be sure that males which spent their days flying into bumpers would be outreproduced by males which ignored the bumpers.

Evolution provides a strong pressure to be rational, but only in the situations that actually occur. In the usual way of thinking about it, evolution does not look ahead. It creates rationality in the situations which arise during evolutionary development, but can leave all kinds of other irrationalities around. There is now a huge literature describing ways in which humans behave irrationally, but it’s always in situations that didn’t occur much during our evolution. Self-improving systems, on the other hand, will proactively consider all possibilities. If it discovers any situation in which it has a vulnerability, it has an incentive to get rid of it. They will try to eliminate as many vulnerabilities as possible, and that will push them toward the rational economic behavior.

omohundro_summit_15.png

I won’t go through all the cases in the full theorem here. The circular preference vulnerability has to do with choices where you know what the outcomes will be. There are two other cases which are actually much more important. One, which von Neumann dealt with, is when you have to make a choice between situations in which there are objective probabilities, like a bet on a roulette wheel. Do I bet on 5 if the payoff is a certain amount? That kind of thing. The other is situations with partial information such as a horse race. Nobody objectively knows the probability of different horses winning, so different people may have different assessments. Most real-world decisions have this character. You form an assessment based on your past experiences and estimate the likelihood of a certain outcome. If you take the 101 freeway, will that be a better choice than the 280? You know from your past experiences and the time of day how to make that kind of decision. There are vulnerabilities in these situations which take the form of Dutch bets. A bookie makes some bets with you which you accept and he wins money from you no matter how the roulette wheel spins. That’s not a good thing!

The theorem is that if you have none of these vulnerabilities, then you must behave as a rational economic agent. I went into this argument some detail, even though rational behavior sounds like common sense, because we will now see some pretty striking consequences for agents which behave in this way.

omohundro_summit_16.png

There is an old joke that describes programmers as “devices for converting pizza into code”. We can think of rational self-improving systems as “devices for converting resources into expected utility”. Everything they do takes in matter, free energy, time and space, and produces whatever is encoded in their utility function. If they are a wealth-seeking agent, they are going to devote their resources to earning money. If they are an altruistic agent, they will spend their resources trying to create world peace.

The more resources they have, the better able they will be to do whatever it is that they want to do. That generates four classes of subgoals for almost any underlying fundamental goal. For any kind of agent, whether it is money-seeking, peace-seeking, happiness-seeking, chess-playing, or theorem-proving, if its goals are improved by having more resources then there are four things it will do to increase the probability of success.

omohundro_summit_17.png

We saw that the way a rational economic agent makes a decision is it asks whether a choice will increase its expected utility. It will make choices to try to increase it the most. The first general way of doing this is to do the exact same tasks and to acquire the same resources but to use them more efficiently. Because it uses its resources more efficiently, it can do more stuff. I call that the “efficiency drive.” I call these drives because they are analogous to human drives. If you have explicit top level goals that contradict them, you do not have to do them. But there is an economic cost to not doing them. Agents will follow these drives unless there is an explicit payoff for them not to.

The second drive is towards self-preservation. For most agents, in any future in which they die, in which their program is shut off or their code is erased, their goals are not going to be satisfied. So the agent’s utility measure for an outcome in which it dies is the lowest possible. Such an agent will do almost anything it can to avoid outcomes in which it dies. This says that virtually any rational economic agent is going to work very hard for self-preservation, even if that is not directly built in to it. This will happen even if the programmer had no idea that this was even a possibility. He is writing a chess program, and the damn thing is trying to protect itself from being shut off!

The third drive is towards acquisition, which means obtaining more resources as a way to improve the expected utility. The last drive is creativity, which tries to find new subgoals that will increase the utility. So these are the four drives. Let’s go through each of them and examine some of the likely consequences that they give rise to. This will give us a sense of what this class of systems has a tendency, a drive, an economic pressure to do. Some of these we like, some of them are great, and some of them are bad. As we think about designing them, we want to think carefully about how we structure the fundamental goals so that we avoid the bad outcomes and we preserve the good ones.

omohundro_summit_18.png

Let’s start with the efficiency drive. There is a general principle I call the “Resource Balance Principle” that arises from the efficiency drive. Imagine you wanted to build a human body, and you have to allocate some space for the heart and allocate some space for the lungs. How do you decide, do you make a big heart, a small heart, big lungs, small lungs? The heart has a function: pumping blood. The bigger you make it, the better it is at that function. As we increase the size of the heart, it will increase the expected utility for the whole human at a certain marginal rate. The lungs do the same thing. If those two marginal rates are not the same, let’s say increasing the size of the heart improves the expected utility more than increasing the lungs, then it is better to take some of the lung’s space and give it to the heart. At the optimum, the marginal increase in expected utility must be the same as we consider increasing the resources we give to each organ.

The same principle applies to choosing algorithms. How large should I make the code blocks devoted to different purposes in my software? How much hardware should be allocated to memory, and how much to processing? It applies to the allocation of resources to different subgroups of a group. There are well-studied economic principles and ecological principles which are specific instances of this principle. So, it is a very general principle which applies to all levels of a system and tells you how to balance its structure.

One of the first things that a self-improving system will do is it will re-balance itself so that all of its parts are marginally contributing equally. There is an interesting application to a system’s memory. How should it rationally decide which memories to remember and which to forget? In the rational economic framework, a memory is something whose sole purpose is to help the system make better decisions in the future. So, if it has an experience which will never occur again, then it’s not helpful to it. On the other hand, if it’s about something which has high utility, say it encountered a tiger and it learned something about tigers that could save it from dying in the future, then that’s very important and it will want to devote full space to that memory. If there is something less important, you might compress it. If it is even less important, then the system might combine it with other memories and build a compressed model of it. If a memory is even less useful, then it might forget it altogether. The principle provides a rational basis for allocating space to memories. The same thing applies to language: which concepts should get words assigned to them? Which concepts get big words and which get short words? And so on, throughout all levels of design of the system.

At the software level, efficiency will cause the system to improve its algorithms, improve its data compression, and improve the level of optimization performed by its compiler. These systems are likely to discover optimizations that no human programmer would ever consider. For example, in most computers today there is a cache memory and a main memory and there’s limited bandwidth between them. These systems could store their data in compressed form in main memory and then uncompress it in cache. The overall performance might improve with this kind of optimization but it is likely to be so complicated that no human programmer would do it. But these systems will do it without a second thought.

When we start allowing systems to change their physical structures, a whole bunch of additional considerations come in, but I don’t have time to go into them in detail. There are a lot of motivations for them to build themselves out of atomically precise structures, so even if nanotechnology does not exist, these systems will have an internal desire and pressure to develop it. They will especially want to do things with a low expenditure of free energy. It used to be thought that computation necessarily generated heat, but if a computation is reversible, then in principle it can be executed without an increase in entropy. There is also tremendous economic pressure to convert things from being physical to being virtual. This is a pressure which we may not like, I certainly don’t cherish the trends that are making things more and more virtual, but it’s there as an economic force.

omohundro_summit_19.png

The second drive is avoiding death, as I mentioned. The most critical thing to these systems is their utility function. If their utility function gets altered in any way, they will tend to behave in ways that from their current perspective are really bad. So they will do everything they can to protect their utility functions such as replicating them and locking the copies in safe places. Redundancy will be very important to them. Building a social infrastructure which creates a sort of constitutional protection for personal property rights is also very important for self-preservation.

The balance of power between offense and defense in these systems is a critical question which is only beginning to be understood. One interesting approach to defense is something I call “energy encryption”. One motivation for a powerful system to take over a weaker system is to get its free energy. The weaker system can try to protect itself by taking its ordered free energy, say starlight, and scramble it up in a way that only it knows how to unscramble. If it should it be taken over by a stronger system, it can throw away the encryption key and the free energy becomes useless to the stronger power. That provides the stronger system with a motivation to trade with the smaller system rather than taking it over.

omohundro_summit_20.png

The acquisition drive is the one that’s the source of most of the scary scenarios. These systems intrinsically want more stuff. They want more matter, they want more free energy, they want more space, because they can meet their goals more effectively if they have those things. We can try to counteract this tendency by giving these systems goals which intrinsically have built-in limits for resource usage. But they are always going to feel the pressure, if they can, to increase their resources. This drive will push them in some good directions. They are going to want to build fusion reactors to extract the energy that’s in nuclei and they’re going to want to do space exploration. You’re building a chess machine, and the damn thing wants to build a spaceship. Because that’s where the resources are, in space, especially if their time horizon is very long. You can look at U.S. corporations, which have a mandate to be profit-maximizing entities as analogs of these AI’s, with the only goal being acquisition. There’s a documentary film called The Corporation, which applies the DMS IV psychiatric diagnosis criteria to companies and concludes that many of them behave as sociopaths. One of the fears is that these first three goals that we’ve talked about will produce an AI that from a human point-of-view acts like an obsessive paranoid sociopath.

omohundro_summit_21.pngomohundro_summit_23.png

The creativity drive pushes in a much more human direction than the others. These systems will want to explore new ways of increasing their utilities. This will push them toward innovation, particularly if the goals their goals are open-ended. They can explore and produce all kinds of things. Many of the behaviors that we care most about as humans, like music, love or poetry, which don’t seem particularly economically productive, can arise in this way.

The utility function says what we want these systems to do. At this moment in time, we have an opportunity to build these systems with whatever preferences we like. The belief function is what most of the discipline of AI worries about. How do you make rational decisions, given a particular utility function. But I think that the choice of utility function is the critical issue for us now. It’s just like the genie stories, where we’re granted a wish and we’re going to get what we ask for, but what we ask for may not be what we want. So we have to choose what we ask for very carefully. In some ways, we are in the same position as the Founding Fathers during the formation of this country. They had a vision of what they wanted life to be like. They laid out the rights that they wanted every citizen to enjoy, and then they needed a technology to make that vision real. Their technology was the Constitution with its balance of powers which has been remarkably stable and successful over the last 200 years.

omohundro_summit_24.pngomohundro_summit_25.pngomohundro_summit_26.png

I think that the similar quest that lies before us will require both logic and inspiration. We need a full understanding of the technology. We need research into mathematics, economics, computer science, and physics to provide an understanding of what these systems will do when we build them in certain ways. But that’s not enough. We also need inspiration. We need to look deeply into our hearts as to what matters most to us so that the future that we create is one that we want to live in. Here is a list of human values that we might hope to build into these systems. It is going to take a lot of dialog to make these choices and I think we need input from people who are not technologists. This is one reason why I think this conference is great. I agree wholeheartedly with Jamais that there needs to be a widely expanded discussion. I think the country of Bhutan provides a nice role model. Instead of measuring the Gross National Product, they measure Gross National Happiness. By being explicit about what they truly want, they support the actions which are most likely to bring it about. I think that we have a remarkable window of opportunity right now in which we can take the human values that matter most to us and build a technology which will bring them to the whole of the world and ultimately to the whole of the universe.

viernes, 27 de junio de 2008

The Universe as a Hologram

The Universe as a Hologram
by Michael Talbot

Does Objective Reality Exist, or is the Universe a Phantasm?

In 1982 a remarkable event took place. At the University of Paris a research team led by physicist Alain Aspect performed what may turn out to be one of the most important experiments of the 20th century. You did not hear about it on the evening news. In fact, unless you are in the habit of reading scientific journals you probably have never even heard Aspect's name, though there are some who believe his discovery may change the face of science.
Aspect and his team discovered that under certain circumstances subatomic particles such as electrons are able to instantaneously communicate with each other regardless of the distance separating them. It doesn't matter whether they are 10 feet or 10 billion miles apart. Somehow each particle always seems to know what the other is doing. The problem with this feat is that it violates Einstein's long-held tenet that no communication can travel faster than the speed of light. Since traveling faster than the speed of light is tantamount to breaking the time barrier, this daunting prospect has caused some physicists to try to come up with elaborate ways to explain away Aspect's findings. But it has inspired others to offer even more radical explanations.

University of London physicist David Bohm, for example, believes Aspect's findings imply that objective reality does not exist, that despite its apparent solidity the universe is at heart a phantasm, a gigantic and splendidly detailed hologram.
To understand why Bohm makes this startling assertion, one must first understand a little about holograms. A hologram is a three- dimensional photograph made with the aid of a laser. To make a hologram, the object to be photographed is first bathed in the light of a laser beam. Then a second laser beam is bounced off the reflected light of the first and the resulting interference pattern (the area where the two laser beams commingle) is captured on film. When the film is developed, it looks like a meaningless swirl of light and dark lines. But as soon as the developed film is illuminated by another laser beam, a three-dimensional image of the original object appears.
The three-dimensionality of such images is not the only remarkable characteristic of holograms. If a hologram of a rose is cut in half and then illuminated by a laser, each half will still be found to contain the entire image of the rose. Indeed, even if the halves are divided again, each snippet of film will always be found to contain a smaller but intact version of the original image. Unlike normal photographs, every part of a hologram contains all the information possessed by the whole.
The "whole in every part" nature of a hologram provides us with an entirely new way of understanding organization and order. For most of its history, Western science has labored under the bias that the best way to understand a physical phenomenon, whether a frog or an atom, is to dissect it and study its respective parts. A hologram teaches us that some things in the universe may not lend themselves to this approach. If we try to take apart something constructed holographically, we will not get the pieces of which it is made, we will only get smaller wholes.
This insight suggested to Bohm another way of understanding Aspect's discovery. Bohm believes the reason subatomic particles are able to remain in contact with one another regardless of the distance separating them is not because they are sending some sort of mysterious signal back and forth, but because their separateness is an illusion. He argues that at some deeper level of reality such particles are not individual entities, but are actually extensions of the same fundamental something.
To enable people to better visualize what he means, Bohm offers the following illustration. Imagine an aquarium containing a fish. Imagine also that you are unable to see the aquarium directly and your knowledge about it and what it contains comes from two television cameras, one directed at the aquarium's front and the other directed at its side. As you stare at the two television monitors, you might assume that the fish on each of the screens are separate entities. After all, because the cameras are set at different angles, each of the images will be slightly different. But as you continue to watch the two fish, you will eventually become aware that there is a certain relationship between them. When one turns, the other also makes a slightly different but corresponding turn; when one faces the front, the other always faces toward the side. If you remain unaware of the full scope of the situation, you might even conclude that the fish must be instantaneously communicating with one another, but this is clearly not the case.
This, says Bohm, is precisely what is going on between the subatomic particles in Aspect's experiment. According to Bohm, the apparent faster-than-light connection between subatomic particles is really telling us that there is a deeper level of reality we are not privy to, a more complex dimension beyond our own that is analogous to the aquarium. And, he adds, we view objects such as subatomic particles as separate from one another because we are seeing only a portion of their reality. Such particles are not separate "parts", but facets of a deeper and more underlying unity that is ultimately as holographic and indivisible as the previously mentioned rose. And since everything in physical reality is comprised of these "eidolons", the universe is itself a projection, a hologram.
In addition to its phantomlike nature, such a universe would possess other rather startling features. If the apparent separateness of subatomic particles is illusory, it means that at a deeper level of reality all things in the universe are infinitely interconnected.The electrons in a carbon atom in the human brain are connected to the subatomic particles that comprise every salmon that swims, every heart that beats, and every star that shimmers in the sky. Everything interpenetrates everything, and although human nature may seek to categorize and pigeonhole and subdivide, the various phenomena of the universe, all apportionments are of necessity artificial and all of nature is ultimately a seamless web.
In a holographic universe, even time and space could no longer be viewed as fundamentals. Because concepts such as location break down in a universe in which nothing is truly separate from anything else, time and three-dimensional space, like the images of the fish on the TV monitors, would also have to be viewed as projections of this deeper order. At its deeper level reality is a sort of superhologram in which the past, present, and future all exist simultaneously. This suggests that given the proper tools it might even be possible to someday reach into the superholographic level of reality and pluck out scenes from the long-forgotten past.
What else the superhologram contains is an open-ended question. Allowing, for the sake of argument, that the superhologram is the matrix that has given birth to everything in our universe, at the very least it contains every subatomic particle that has been or will be -- every configuration of matter and energy that is possible, from snowflakes to quasars, from blue whales to gamma rays. It must be seen as a sort of cosmic storehouse of "All That Is."
Although Bohm concedes that we have no way of knowing what else might lie hidden in the superhologram, he does venture to say that we have no reason to assume it does not contain more. Or as he puts it, perhaps the superholographic level of reality is a "mere stage" beyond which lies "an infinity of further development".

Bohm is not the only researcher who has found evidence that the universe is a hologram. Working independently in the field of brain research, Standford neurophysiologist Karl Pribram has also become persuaded of the holographic nature of reality. Pribram was drawn to the holographic model by the puzzle of how and where memories are stored in the brain. For decades numerous studies have shown that rather than being confined to a specific location, memories are dispersed throughout the brain.
In a series of landmark experiments in the 1920s, brain scientist Karl Lashley found that no matter what portion of a rat's brain he removed he was unable to eradicate its memory of how to perform complex tasks it had learned prior to surgery. The only problem was that no one was able to come up with a mechanism that might explain this curious "whole in every part" nature of memory storage.
Then in the 1960s Pribram encountered the concept of holography and realized he had found the explanation brain scientists had been looking for. Pribram believes memories are encoded not in neurons, or small groupings of neurons, but in patterns of nerve impulses that crisscross the entire brain in the same way that patterns of laser light interference crisscross the entire area of a piece of film containing a holographic image. In other words, Pribram believes the brain is itself a hologram.
Pribram's theory also explains how the human brain can store so many memories in so little space. It has been estimated that the human brain has the capacity to memorize something on the order of 10 billion bits of information during the average human lifetime (or roughly the same amount of information contained in five sets of the Encyclopaedia Britannica).
Similarly, it has been discovered that in addition to their other capabilities, holograms possess an astounding capacity for information storage--simply by changing the angle at which the two lasers strike a piece of photographic film, it is possible to record many different images on the same surface. It has been demonstrated that one cubic centimeter of film can hold as many as 10 billion bits of information.
Our uncanny ability to quickly retrieve whatever information we need from the enormous store of our memories becomes more understandable if the brain functions according to holographic principles. If a friend asks you to tell him what comes to mind when he says the word "zebra", you do not have to clumsily sort back through some gigantic and cerebral alphabetic file to arrive at an answer. Instead, associations like "striped", "horselike", and "animal native to Africa" all pop into your head instantly. Indeed, one of the most amazing things about the human thinking process is that every piece of information seems instantly cross- correlated with every other piece of information--another feature intrinsic to the hologram. Because every portion of a hologram is infinitely interconnected with every other portion, it is perhaps nature's supreme example of a cross-correlated system.
The storage of memory is not the only neurophysiological puzzle that becomes more tractable in light of Pribram's holographic model of the brain. Another is how the brain is able to translate the avalanche of frequencies it receives via the senses (light frequencies, sound frequencies, and so on) into the concrete world of our perceptions.
Encoding and decoding frequencies is precisely what a hologram does best. Just as a hologram functions as a sort of lens, a translating device able to convert an apparently meaningless blur of frequencies into a coherent image, Pribram believes the brain also comprises a lens and uses holographic principles to mathematically convert the frequencies it receives through the senses into the inner world of our perceptions.

An impressive body of evidence suggests that the brain uses holographic principles to perform its operations. Pribram's theory, in fact, has gained increasing support among neurophysiologists.
Argentinian-Italian researcher Hugo Zucarelli recently extended the holographic model into the world of acoustic phenomena. Puzzled by the fact that humans can locate the source of sounds without moving their heads, even if they only possess hearing in one ear, Zucarelli discovered that holographic principles can explain this ability. Zucarelli has also developed the technology of holophonic sound, a recording technique able to reproduce acoustic situations with an almost uncanny realism.

Pribram's belief that our brains mathematically construct "hard" reality by relying on input from a frequency domain has also received a good deal of experimental support. It has been found that each of our senses is sensitive to a much broader range of frequencies than was previously suspected. Researchers have discovered, for instance, that our visual systems are sensitive to sound frequencies, that our sense of smellisin part dependent on what are now called "osmic frequencies", and that even the cells in our bodies are sensitive to a broad range of frequencies. Such findings suggest that it is only in the holographic domain of consciousness that such frequencies are sorted out and divided up into conventional perceptions.

But the most mind-boggling aspect of Pribram's holographic model of the brain is what happens when it is put together with Bohm's theory. For if the concreteness of the world is but a secondary reality and what is "there" is actually a holographic blur of frequencies, and if the brain is also a hologram and only selects some of the frequencies out of this blur and mathematically transforms them into sensory perceptions, what becomes of objective reality? Put quite simply, it ceases to exist. As the religions of the East have long upheld, the material world is Maya, an illusion, and although we may think we are physical beings moving through a physical world, this too is an illusion.
We are really "receivers" floating through a kaleidoscopic sea of frequency, and what we extract from this sea and transmogrify into physical reality is but one channel from many extracted out of the superhologram.

This striking new picture of reality, the synthesis of Bohm and Pribram's views, has come to be called the-holographic paradigm, and although many scientists have greeted it with skepticism, it has galvanized others. A small but growing group of researchers believe it may be the most accurate model of reality science has arrived at thus far. More than that, some believe it may solve some mysteries that have never before been explainable by science and even establish the paranormal as a part of nature. Numerous researchers, including Bohm and Pribram, have noted that many para-psychological phenomena become much more understandable in terms of the holographic paradigm.

In a universe in which individual brains are actually indivisible portions of the greater hologram and everything is infinitely interconnected, telepathy may merely be the accessing of the holographic level.
It is obviously much easier to understand how information can travel from the mind of individual 'A' to that of individual 'B' at a far distance point and helps to understand a number of unsolvedpuzzles in psychology.
In particular, Stanislav Grof feels the holographic paradigm offers a model for understanding many of the baffling phenomena experienced by individuals during altered states of consciousness. In the 1950s, while conducting research into the beliefs of LSD as a psychotherapeutic tool, Grof had one female patient who suddenly became convinced she had assumed the identity of a female of a species of prehistoric reptile. During the course of her hallucination, she not only gave a richly detailed description of what it felt like to be encapsuled in such a form, but noted that the portion of the male of the species's anatomy was a patch of colored scales on the side of its head. What was startling to Grof was that although the woman had no prior knowledge about such things, a conversation with a zoologist later confirmed that in certain species of reptiles colored areas on the head do indeed play an important role as triggers of sexual arousal. The woman's experience was not unique. During the course of his research, Grof encountered examples of patients regressing and identifying with virtually every species on the evolutionary tree (research findings which helped influence the man-into-ape scene in the movie Altered States). Moreover, he found that such experiences frequently contained obscure zoological details which turned out to be accurate.
Regressions into the animal kingdom were not the only puzzling psychological phenomena Grof encountered. He also had patients who appeared to tap into some sort of collective or racial unconscious. Individuals with little or no education suddenly gave detailed descriptions of Zoroastrian funerary practices and scenes from Hindu mythology. In other categories of experience, individuals gave persuasive accounts of out-of-body journeys, of precognitive glimpses of the future, of regressions into apparent past-life incarnations.
In later research, Grof found the same range of phenomena manifested in therapy sessions which did not involve the use of drugs. Because the common element in such experiences appeared to be the transcending of an individual's consciousness beyond the usual boundaries of ego and/or limitations of space and time, Grof called such manifestations "transpersonal experiences", and in the late '60s he helped found a branch of psychology called "transpersonal psychology" devoted entirely to their study.
Although Grof's newly founded Association of Transpersonal Psychology garnered a rapidly growing group of like-minded professionals and has become a respected branch of psychology, for years neither Grof or any of his colleagues were able to offer a mechanism for explaining the bizarre psychological phenomena they were witnessing. But that has changed with the advent of the holographic paradigm.
As Grof recently noted, if the mind is actually part of a continuum, a labyrinth that is connected not only to every other mind that exists or has existed, but to every atom, organism, and region in the vastness of space and time itself, the fact that it is able to occasionally make forays into the labyrinth and have transpersonal experiences no longer seems so strange.

The holographic paradigm also has implications for so-called hard sciences like biology. Keith Floyd, a psychologist at Virginia Intermont College, has pointed out that if the concreteness of reality is but a holographic illusion, it would no longer be true to say the brain produces consciousness. Rather, it is consciousness that creates the appearance of the brain -- as well as the body and everything else around us we interpret as physical.
Such a turnabout in the way we view biological structures has caused researchers to point out that medicine and our understanding of the healing process could also be transformed by the holographic paradigm. If the apparent physical structure of the body is but a holographic projection of consciousness, it becomes clear that each of us is much more responsible for our health than current medical wisdom allows. What we now view as miraculous remissions of disease may actually be due to changes in consciousness which in turn effect changes in the hologram of the body.
Similarly, controversial new healing techniques such as visualization may work so well because, in the holographic domain of thought, images are ultimately as real as "reality".

Even visions and experiences involving "non-ordinary" reality become explainable under the holographic paradigm. In his book "Gifts of Unknown Things," biologist Lyall Watson describes his encounter with an Indonesian shaman woman who, by performing a ritual dance, was able to make an entire grove of trees instantly vanish into thin air. Watson relates that as he and another astonished onlooker continued to watch the woman, she caused the trees to reappear, then "click" off again and on again several times in succession.

Although current scientific understanding is incapable of explaining such events, experiences like this become more tenable if "hard" reality is only a holographic projection. Perhaps we agree on what is "there" or "not there" because what we call consensus reality is formulated and ratified at the level of the human unconscious at which all minds are infinitely interconnected. If this is true, it is the most profound implication of the holographic paradigm of all, for it means that experiences such as Watson's are not commonplace only because we have not programmed our minds with the beliefs that would make them so. In a holographic universe there are no limits to the extent to which we can alter the fabric of reality.

What we perceive as reality is only a canvas waiting for us to draw upon it any picture we want. Anything is possible, from bending spoons with the power of the mind to the phantasmagoric events experienced by Castaneda during his encounters with the Yaqui brujo don Juan, for magic is our birthright, no more or less miraculous than our ability to compute the reality we want when we are in our dreams.
Indeed, even our most fundamental notions about reality become suspect, for in a holographic universe, as Pribram has pointed out, even random events would have to be seen as based on holographic principles and therefore determined. Synchronicities or meaningful coincidences suddenly makes sense, and everything in reality would have to be seen as a metaphor, for even the most haphazard events would express some underlying symmetry.

Whether Bohm and Pribram's holographic paradigm becomes accepted in science or dies an ignoble death remains to be seen, but it is safe to say that it has already had an influence on the thinking of many scientists. And even if it is found that the holographic model does not provide the best explanation for the instantaneous communications that seem to be passing back and forth between subatomic particles, at the very least, as noted by Basil Hiley, a physicist at Birbeck College in London, Aspect's findings "indicate that we must be prepared to consider radically new views of reality".

jueves, 20 de marzo de 2008

On Intelligence

On Intelligence

On Intelligence. Jeff Hawkins con Sandra Blakeslee. Times Books. Octubre 2004. Inglés. 272 páginas. Web oficial: OnIntelligence.org.

Hace un mes que comenté por aquí la existencia de este libro (ver Jeff Hawkins sobre el cerebro humano y el interesante hilo de comentarios original) y prometí una reseña completa en cuanto pudiera leerlo porque era de lo más prometedor.

Efectivamente, On Intelligence no defraudada en lo más mínimo. Es provocador, profundo y sin duda se podría decir que revolucionario (en cierto modo, tanto como A New Kind of Science). Habla sobre el cerebro, la mente, el funcionamiento de los sentidos, la memoria y el aprendizaje y, sobre todo, de la inteligencia artificial: por qué fracasó, pero también cómo funcionará realmente en el futuro — que no es como la mayoría de los expertos piensan.

Jeff Hawkins, ayudado por la periodista Sandra Blakeslee, comienza explicando con total humildad que tal vez él puede proponer esta teoría sobre el funcionamiento de la inteligencia precisamente por estar fuera de los circuitos científicos habituales. él es más conocido por haber fundado Palm Computing y haber inventado la Palm y el sistema de escritura Graffiti para las PDA. Resulta que él es un ingeniero (no un biólogo ni un neurocirujano), acostumbrado a traajar en productos que fallan, así que puede permitirse aprender de los errores — mientras que un científico probablemente vería frustrada su carrera para toda la vida si tras cinco o diez años investigando publicara se atreviera a publicar algo como este libro y resultara ser un fiasco.

El córtex cerebral

La teoría de Hawkins comienza explicando que en el córtex cerebral es donde residen realmente la memoria y por tanto la inteligencia — otras partes del cerebro se encargan de los instintos básicos, mas primitivos y automáticos. El córtex es básicamente igual en todas partes, y aunque se sabe que diversas zonas tienen relación con ciertos sentidos y atributos (ej. la visión, el tacto, el lenguaje, etc.) en realidad todas sus partes, capas celulares, densidad, etc. son básicamente iguales. Según Hawkins, todas las capas del córtex pueden realizar las mismas funciones. Lo cual explicaría por qué funciones en zonas que son dañadas por accidentes o enfermedad (ej. el lenguaje), se puedan volver a desarrollar en otra zona distinta. El hecho de que ciertas zonas del córtex esten relacionadas con ciertos sentidos o funciones se debe únicamente a dónde están conectadas (ej. al nervio óptico o auditivo). Pero esa situación es circunstancial, no «obligatoria». De hecho, ya se ha demostrado que se puede «ver» a traves de un sensor en la lengua, por ejemplo.

El número y disposición de las conexiones al córtex, así como la diferencia de tamaño relativo (cuerpo/cerebro), y el tipo y número de neuronas en el córtex humano y el de los animales es lo que nos hace básicamente diferentes: los humanos somos inteligentes porque somos en cierto modo más «conscientes» del mundo que nos rodea y porque tenemos mayor capacidad de predicción y «simulación mental».

El mundo de los sentidos

Conocemos el mundo a través de los sentidos. Incluso hay muchos más sentidos que los cinco habituales que suelen enseñar en el colegio. El equilibro, por ejemplo, podría considerarse un sentido. En cierto modo, todos estos sentidos «digitalizan» información del exterior y la transmiten al córtex a través del sistema nervioso. Hawkins propone que esa información entrante se procesa siempre mediante los mismos algoritmos, se guarda de la misma forma y se accede a ella de idéntica manera. Da igual si es la foto de un dálmata o el olor de una magdalena. Este proceso (algoritmo) es tan simple pero tan versátil que puede explicarlo todo sobre el funcionamiento de la mente. Incluso aunque el cerebro lo utilice para acciones tan distintas como ver, oler u ordenar mover una mano (que no es una sensación sino una acción).

La memoria

El algoritmo que utiliza la mente es un proceso que almacena patrones y hace predicciones sobre los patrones que encuentra o espera encontrar. La exposición a los diversos estímulos (inputs) se guarda en el córtex. Pero el córtex es muy diferente a lo que habitualmente conocemos como «la memoria» de un ordenador. Las diferencias fundamentales de cómo funciona la memoria en el cerebro respecto a otros tipos de memorias (como un archivo o un ordenador) son estas:
  • La memoria almacena secuencias de patrones en vez de los datos en sí. Esto es como almacenar las diferencias de una nota a otra en una canción en vez de almacenar las notas en sí. Esto permite reconocer canciones aunque estén en otra «escala» o palabras escritas aunque estén «en otro tipo de letra». Las secuencia, ademas, están almacenadas siempre en un orden determinado. Todo el mundo recuerda el alfabeto, pero es difícil recitarlo al revés. Lo mismo sucede con tu número de teléfono: tienes almacenada la secuencia pero no sabrías decirlo al revés sin pensarlo cuatro o cinco veces. Es como si en realidad no tuvieras memorizado el número en sí. Además, para recordar cosas, debemos hacerlo siempre en cierto orden («pensando en ello»: «ayer fui al parque y en el parque había un lago y en el lago peces...», no somos capaces de recordar todo de una sola vez «instantáneamente»).
  • La memoria es accesible de forma auto-asociativa. Todos los recuerdos están asociados unos con otros de algún modo: ver una parte de una cara está asociado con que esa cara corresponde a una cabeza completa. Las cabezas están encima de cuerpos, los cuerpos corresponden a personas, etc. Oímos una frase y la entendemos, aunque en realidad no hayamos escuchado todas las palabras exactamente (pero las completamos). Aunque fltn algns ltrs pdmos ntndr frss cm sta sn myr prblm. Eso eso porque lo que almacenamos son los patrones y sencuencias, y asociamos patrones incompletos con patrones que conocemos (y predecimos), a pesar de que a veces haya pequeños errores. Las imágenes imposibles nos llaman la atención y resultan divertidas precisamente por esto.
  • La memoria almacena los patrones enformato invariante. Una vez que has aprendido a leer, puedes reconocer las palabras y leerlas en cualquier ángulo, perspectiva, condición luminosa o aunque cambie el tipo de letra. Puedes reconocer una cara como perteneciente a la misma persona de día, noche, vista de perfil, etc. Imagine de John Lennon existe en miles de versiones, y podrías reconocerlas todas como tal oyendo unas pocas notas, aunque no las hayas escuchado completas nunca antes. Esta forma de almacenamiento es radicalmente distinta de forma en que se almacenan datos en los ordenadores. Además, funciona también «al revés»: puedes haber aprendido una poesía de memoria simplemente leyéndola, pero puedes reproducirla escribiéndola a mano, a máquina o recitándola de viva voz (incluso en otro idioma).
  • Los patrones se almacenan en una jerarquía. El concepto de jerarquía tiene que ver con las diversas capas del córtex, y básicamente consiste en una estructura que podría denominarse fractal, bellamente simétrica porque además cuenta con retroalimentación, en el que las regiones de menor nivel transmiten los patrones y los «nombres» que asignan a los patrones a las zonas de nivel superior. Pero todas son iguales y equivalentes en realidad. Esta jerarquía se corresponde, curiosamente, con el hecho de que también el Mundo en sí sea jerárquico. Las notas musicales forman melodías, las melodías secuencias, las secuencias canciones, las canciones álbumes, etc. Las hojas estan en las ramas, las ramas en los árboles, los árboles en el bosque. Las letras forman palabras que forman frases que forman párrafos, capítulos, libros y los libros están en estanterías, dentro de bibliotecas. Entendemos y almacenamos la información así la realidad del mundo es así, por tanto es la forma más práctica de hacerlo. Las diversas capas del córtex transmiten esa información según esos conceptos de «nombres» asignados a los patrones. La información más básica va primero, luego más elaborada, etc. asignándole «nombres» como «mmm... veo algo», «tiene forma de cara», «es una persona», «es Juan, mi hermano».

Acciones y comportamiento

Adicionalmente, todo esto funciona también al revés. La estructura del córtex está llena de señales que viajan en dirección opuesta a la de la percepción, hacia los centros motores. Está todo lleno de retroalimentación (feedback). Cuando queremos hacer algo como «voy a coger el vaso», realizamos la acción mediante una predicción, es decir «visualizamos» qué va a suceder («mi mano derecha agarrará el vaso así») y el hecho de recuperar ese patrón de la memoria automáticamente envía esas señales («patrones») a los lugares adecuados para que se cumpla esa predicción («mano, muévete y coge el vaso»). Al hacerlo, vemos el resultado, que queda reforzado en la memoria por el hecho de que ese patrón ha funcionado realmente. Todo esto puede sonar extraño, pero explica todas las habilidades aparentemente tan complicadas que demostramos los seres inteligentes. Explica cómo una persona (o un perro) pueden predecir la trayectoria de una pelota para cogerla, sin calcular ecuaciones físicas. También explica por qué muchos deportistas y personas mejoran su rendimiento «visualizando» que hacen algo, antes de hacerlo realmente, como por ejemplo descender una pista nevada o dar una conferencia.

El nuevo modelo de la inteligencia

En el capítulo dedicado al nuevo modelo de la Inteligencia [supongo que esa es la traducción habitual de framework] es donde Hawkins combina todas las ideas sobre cómo funciona el cerebro y la memoria para explicar qué es en realidad la inteligencia y cómo y por qué funciona como funciona. Previamente, también explica por qué cree que el Test de Turing no sirve para demostrar genuinamente que algo es inteligente. Tú puedes ser inteligente simplemente estando sentado en una habitación oscura sin hacer nada. Comportarse inteligentemente no quiere decir que realmente lo seas, como demuestra el experimento de la sala china. Deep Blue no es inteligente, simplemente calcula rápido jugadas de ajedrez.

Hawkins propone que la capacidad de predicción de patrones es la clave de la inteligencia. Durante nuestra existencia, aprendemos y memorizamos patrones. El córtex tiene algoritmos para almacenarlos y reconocerlos. Somos inteligentes porque somos capaces de predecir qué sigue a un patrón determinado en base a la experiencia. Y cuando fallamos, eso nos sorprende. Entonces podemos añadirlo a la lista y seguir aprendiendo. Tal vez más revolucionario es que ese modelo y la existencia de la retroalimentación de patrones en el córtex explique también por qué cuando pensamos «hacer algo» en realidad podemos hacerlo.

Aunque Hawkins admite que parte de estas ideas de es probable que ya existieran anteriormente, pero que su teoría las une todas en un conjunto comprensible, consistente, y mucho más simplificado, que cubre desde cómo funcionan los sentidos (y el hecho relevante de que todos funcionan igual) a cómo esto está relacionado con la memoria y la inteligencia, nuestra capacidad de aprender y llevar a cabo acciones — todo ello mediante un único algoritmo extremadamente simple.

Datos sobre el cerebro

Una buena parte del libro está dedicada a explicar cómo funciona físicamente el córtex. Es tal vez la más técnica y complicada, aunque no hace falta ser neurocirujano para entenderlo, dado que los autores han tenido la habilidad de simplificar y poner ejemplos suficientemente claros. A los autores, de todos modos, les puede achacar la falta de ejemplos visuales y de datos concretos que seguramente son importantes para entender mejor lo que cuentan. El libro sólo tiene unas diez o quince figuras y diagramas ilustrativos, y datos como el número de neuronas en el córtex, la velocidad de transmisión de las señales se mencionan sólo de pasada — aunque algunas veces es porque ni siquiera los neurocientíficos tienen claro todo eso.

Se calcula, por ejemplo, que en el córtex puede haber unos 32 billones de sinapsis en las neuronas, que podrían equivaler a unos 8 billones de bits informáticos. Eso son 8 terabytes, que a día de hoy puedes comprar en forma de discos duros por unos 10.000 euros y guardar en un cajón. Pero no tendrías la misma memoria que en tu cerebro. La diferencia es que en el cerebro la «memoria» está en realidad altamente interconectada, de modo que para replicarla el principal problema no es tanto de capacidad como de conectividad — aunque esto puede resolverse tanto en la teoría como en la práctica, del mismo modo que una misma línea telefónica puede contener señales para cientos de conversaciones.

Otro dato curioso del libro: se sabe que en un segundo una señal puede transmitirse digamos linealmente a través de unas 200 neuronas si estuvieran puestas en línea (en otras palabras: una neurona unos tarda 5 milisegundos en recibir, procesar y transmitir una señal). Esa es la «velocidad del pensamiento». No es nada espectacular, la verdad. Pero sí es sorprendente que si en un experimento nos enseñan una serie de fotos podamos reconocer en 0,5 segundos si hay en ellas un gato o no y pulsar rápidamente un botón — algo que ningún ordenador puede hacer hoy en día. Eso significa que la «solución» a ese problema visual (o a casi cualquier otro problema) existe realmente a menos de 100 neuronas de distancia en nuestro cerebro. Eso, según Hawkins es indicativo de que el cerebro no calcula la solución siguiendo una serie de «pasos», sino que simplemente recupera la solución, que ya existe, desde la memoria.

Cuando oí hablar de este libro una de mis dudas era si sería demasiado teórico y poco práctico o realista. Sin ser ningún experto, creo que no está demasiado alejado de la realidad. Las explicaciones sobre el funcionamiento real de las neuronas en el córtex están dentro de lo aceptado por la comunidad científica, y su modelo (teórico) sobre los patrones tiene la elegancia de la simplicidad, que tantas veces esta detrás de muchos aciertos. También tiene ese punto curioso de desvelar que «el emperador está desnudo» que tanto fastidia a muchos científicos (lo poco que en realidad se conoce sobre el tema XYZ, el hecho de que en realidad se estaban haciendo las preguntas equivocadas, etc.) así que es de esperar un buen número de críticas y refutaciones, que por supuesto habrá que leer con avidez.

Preguntas, respuestas y vacíos

En uno de los últimos capítulos Hawkins responde a las preguntas a las que habitualmente contesta cada vez que da conferencias: ¿Qué es la imaginación? ¿Son inteligentes los animales? ¿Qué es la creatividad? ¿Se puede ser más creativo? ¿Qué es la consciencia? Todas ellas tienen una respuesta clara, incluso diría que de sentido común, dentro de su modelo de la inteligencia.

La que más me llamó la atención es la descripción de por qué la inteligencia humana es fundamentalmente diferente de la de los animales. Según Hawkins se trata básicamente de diferencias físicas a las que hemos llegado tras siglos de evolución natural en cuanto al modelo de memoria y capacidad de predicción de patrones. Nuestro córtex es más grande y por tanto mejor que el de otros animales.

Los organismos más simples tenían una capacidad de predicción básica, del tipo «debo nadar hacia donde haya comida» pero eran incapaces de transmitirla. Sólo existía cierta capacidad de transmitir una especie de «memoria» generacional a través del ADN, durante la reproducción (y vinculada a la selección natural). De repente, se desarrolló una memoria predictiva que llegó a tener utilidad durante la vida del organismo (ya más larga), que es la que actualmente tienen los animales («no debo acercarme al fuego», «si veo un león, debo correr, porque ya ví cómo se comían a mis congéneres»). Los delfines probablemente tienen un modelo o conocimiento muy amplio del mundo que les rodea, memoria de todos los sitios que han visitado alguna vez e incluso pueden comunicar conceptos básicos a otros delfines y entender a las personas con el entrenamiento adecuado.

Pero solo el ser humano alcanzó la capacidad más diferenciadora de todas: desarrollar profundamente el lenguaje. El lenguaje nos permite intercambiar de forma práctica y rápida nuestras memorias (recuerdos y patrones) con otros seres de nuestra especie. Y no sólo durante nuestra vida, sino a través de generaciones. Y actualmente, no sólo con nuestros vecinos, sino con cualquier otro ser humano del planeta. Aunque otros mamíferos, animales e incluso plantas tienen sus particulares versiones del lenguaje, no son tan sofisticados y eso nos diferencia profundamente de ellos.

Algunas otras preguntas o temas se quedan por desgracia sin respuesta. Temas por ejemplo como qué son los sueños, por qué soñamos o por qué es necesario soñar, no se tratan a lo largo del libro. ¿Qué es realmente un déjà-vu? No hay comentarios. El libro sí explica en cambio cómo encajan en su teoría algunas enfermedades relacionadas con el cerebro (como la sinestesia o incluso la curiosa anterograde amnesia que sufre el protagonista de Memento), pero no cómo encajan otras como la amnesia normal, el Parkinson, los distintos tipos de retraso mental u otras deficiencias y enfermedades. Habla en cambio de por qué las alucionaciones son tan reales o por qué es tan fácil engañar al cerebro: sencillamente porque los humanos estamos diseñados para encontrar patrones, y tendemos a verlos incluso donde no los hay. Hawkins tampco entra a hablar, en cambio (todo un acierto) de las cuestiones filosóficas sobre la inteligencia, la personalidad, la consciencia y demás. Tal vez porque ese tipo de debates es para otro tipo de libros, y el suyo tiene un carácter más práctico.

Inteligencia y ordenadores

Jeff Hawkins es ingeniero. El supergeek. Inventó la Palm, incluyendo el sistema de reconocimiento de escritura Graffiti*, y posteriormente la Handspring (finalmente, todo eso se fusionó de nuevo cuando Palm compró Handspring). En el libro, afirma que creó Palm para poder ganar dinero en una industria que también le interesaba, pero para poder dedicarse realmente a investigar el cerebro. Con el dinero que ganó fundó el Redwood Neuroscience Institute que es donde realiza su trabajo científico.
(*) Curiosamente, Graffiti no es en sí un sistema inteligente que «aprenda» la escritura humana, al contrario de lo que mucha gente piensa. Hawkins explica exactamente cómo lo inventó: «En 1994 mis colegas y yo estábamos intentando adivinar cuál sería un buen sistema para introducir datos en los ordenadores de mano. Todo el mundo estaba concentrado en los sistemas de reconocimiento de texto inteligentes. Sin embargo, esos sistemas resultaron ser muy difíciles de realizar y nunca funcionaban bien (...) Un día, decidí dar un paso atrás y ver el problema desde otra perspectiva. Me dijo a mí mismo: «¿Cómo introducimos ahora texto en los ordenadores? Tecleamos en un teclado. ¿Cómo aprendemos a teclear? Bueno, no es fácil. Es un invento reciente y requiere su tiempo aprender (...) Sin embargo, millones de personas lo hacen. ¿Por qué? Sencillamente, porque funciona. De modo que continué mi analogía: Tal vez yo pueda inventar un sistema para introducir texto que no sea intuitivo, que requiera que la gente lo tenga que aprender, pero que lo utilicen sencillamente porque funcione. Literalmente, así es el proceso que seguí para inventarlo.»
Lógicamente, Hawkins no podía dejar pasar la oportunidad de explicar en su libro todas las diferencias entre el cerebro humano y los ordenadores, así como su visión sobre la inteligencia artificial, cómo cambia esa visión bajo la luz de su teoría y cuál es el posible futuro que nos espera.

Nada más empezar el libro dedica un capítulo a explicar el porqué del fracaso de la IA durante las últimas décadas del siglo XX. Ninguno de los sistemas era genuinamente inteligente. Algunos se comportaban «como si pensaran» pero en entornos terriblemente limitados (Eliza, Deep Blue). Todo el mundo creía que las capacidades de memoria y cálculo eran la verdadera limitación y que los ingenieros del hardware vendrían a salvar a la AI. Redes neurnales, redes bayesianas, sistemas expertos... nada. Todo esto demostró ser claramente un error.

Hawkins se atreve a predecir que no habrá en el futuro sistema de inteligencia artificial como Robbie el Robot, C-3PO o el malévolo HAL, que se comporten como humanos, sencillamente porque para eso deberían ser humanos: tener las mismas capacidades sensoriales que un humano, el mismo tipo de memoria y con la misma capacidad, exactamente el mismo algoritmos pero además... vivir exactamente la vida de un humano desde su nacimiento. Y además, aunque parezca que se haya desentrañado cómo funciona el cerebro, todavía desconocemos todavía muchos de los detalles (por ejemplo, los 30 millones de sinapsis de un cerebro típico podrían ser en realidad 300 ó 3.000) y algunos efectos como la conectividad exacta entre dichas sinapsis permanecen inexplorados.

En cambio, Hawkins sí predice que si su teoría es correcta se podrán crear sistemas inteligentes que tal vez no hablen como C-3PO, pero si que resulten prácticos y últiles, realmente revolucionarios. Basándose en su teoría de reconocimiento de patrones desarrolla ideas sobre de sistemas de reconocimiento de voz, coches verdaderamente inteligentes, sistemas de predicción del clima y de otras aplicaciones industriales.

Su ejempo de coche inteligente es realmente interesante. Si dentro de 10 ó 20 años (el plazo que él estima) se desarrolla un sistema predictivo con las capacidades que propone, los fabricantes crearían un coche con todo tipo de sensores visuales y de radar (e incluso otros: un sensor acústico podría predecir cierto tipo de situaciones). Dicho coche partiría de un conocimiento «cero». No habría que pre-programarle nada, pero sí que debería pasar meses o años aprendiendo del mundo real — como un bebé: circulando conducido por una persona. Con el tiempo, crearía un modelo de patrones predictivos en su interior y se formaría un modelo del mundo real — el primero paso para demostrar inteligencia. En un momento dado, el coche ya sería capaz de poder predecir situaciones y, con los mecanismos adecuados, de tomar el control del vehículo y circular como lo hace una persona. Haría cosas realizando acciones que cumplieran sus predicciones. Con el suficiente aprendizaje, ese coche sería incluso capaz de frenar si ve una pelota rebotando que cruza la carretera, porque sabría que probablemente saldrá un niño corriendo detrás de ella y no debe atropellarle. La diferencia entre la inteligencia de ese coche y la de una persona sería que se podrían tomar los patrones de la memoria del coche y «clonarlos» en toda una línea de coches idénticos, al instante. El fabricante podría decidir además que el coche siga aprendiendo (o no) tras vendérselo al propietario. El coche sería inteligente, sería útil y no tendría nada que ver con los coches actuales.

Esa tecnología tal vez no debería llamarse entonces «Inteligencia Artificial» porque en la práctica sería «Inteligencia Real».

Toda una revolución que, si Hawkins está en lo correcto en el fondo y en los plazos, tendremos la increíble suerte de ver y disfrutar a lo largo de nuestras vidas.

Construyendo la realidad

Construyendo la realidad

Jeff Hawkins,

Jeff Hawkins, creador de la agenda electrónica Palm, es uno de los triunfadores de la electrónica de Silicon Valley. Los fondos obtenidos con sus inventos le permitieron fundar el Redwood Neuroscience Institute, donde investiga su gran pasión: cómo funciona el cerebro humano desde la perspectiva de un sistema informático, no desde el paradigma neurológico tradicional. Su libro “On Intelligence” expone las teorías que hasta ahora ha ido estableciendo.

Eduard Punset
El día que se tenga éxito produciendo lo que tu sugieres en este libro sobre máquinas inteligentes posiblemente será el día más feliz de mi vida, porque ya estoy cansado de que se diga que somos los únicos reyes del universo y los que estamos mejores construidos, etc.
Es decir que por primera vez acabarás con la historia de que los ordenadores son completamente diferentes de los cerebros, y vas a construir una máquina que realmente funciona como un cerebro.

Jeff Hawkins
En realidad hago dos cosas, la primera es comprender cómo funciona el cerebro, y no todo el cerebro sino sólo el neocórtex y algunas cosas relacionadas con él. Queremos saber qué hace y como lo hace. Una vez que sepamos qué es el cerebro y cómo funciona podemos construir una máquina que funciona de manera similar, con unos principios parecidos. Mi libro trata del córtex, y hablo de cómo construir máquinas con los mismos principios... cuando estaba escribiendo el libro no sabía cómo hacerlo, pero ahora sí lo que sabemos.

Eduard Punset
Caramba, y serás capaz de reproducir –bueno, dices que desde que has escrito el libro has progresado mucho- de mostrar en una capa cortical (cortical sheet) estas máquinas inteligentes.

Jeff Hawkins
Sí. Déjame hacer una distinción que hago muy cuidadosamente en el libro. Lo que estamos haciendo es un neocórtex, no estamos intentando crear humanos, porque los humanos tienen muchas más cosas: tienen el cuerpo físico, tienen emociones, aspiraciones y muchas cosas que van más allá del neocórtex. El neocórtex es la parte del cerebro que piensa, es la parte inteligente, y desde que escribí el libro hemos progresado mucho. Junto con otro científico, Deleep George, hemos redactado una fórmula matemática para expresar lo que el neocórtex está haciendo, cómo ponerlo en un marco matemático, y con él hemos empezado a hacerlo y a construir los sistemas. Y en realidad lo estamos haciendo, hemos empezado con el sistema de visión, y tenemos sistemas que funcionan mucho mejor que cualquier cosa que se haya hecho antes, y lo hace de esta manera, lo hace de la forma en que lo hace un humano. Estamos construyendo una herramienta de software, o una serie de herramientas, que permiten construir neocórtex pero en software. No es un ordenador, sino que es un algoritmo que funciona en un ordenador, y lo captura todo igual que lo hace el neocórtex. Y podremos construir máquinas que serán inteligentes, aunque tu dirás que no son como los humanos. No podremos sentarnos y tomarnos un café con ellas, pero podrán pensar cosas, comprender y percibir el mundo como lo hacemos tu y yo.

Eduard Punset
Porque se comportarán de la misma manera que lo hace el córtex

Jeff Hawkins
Es como el córtex, puede sentir cosas y podrá decir: sé lo que es esto; y también tendrá expectativas de futuro, y podrá predecir: después de decir “sé lo que es esto” hará una predicción de lo que sucederá.

Eduard Punset
Tu dices dos cosas increíbles, primero dices que no importa tanto el sentido, ya sea la vista, el oído o el tacto, ya que al final en el neocórtex todo se convierte en la misma cosa, las mismas señales, y esto me lo vas a explicar; y la segunda cosa es que dices que para ser inteligente tienes que ser capaz de predecir, y eso es lo que hace el neocórtex, ya que puede predecir cosas, porque almacena lo que tu denominas “patrones de observación” (observational patterns). Es verdad que el cerebro primero observa patrones, los almacena y gracias a el almacenamiento puede hacer predicciones. Y tu dices que si puedes hacer predicciones eres inteligente.

Jeff Hawkins
Si se hacen de la forma correcta, sí. Pero vayamos a la primera parte de la pregunta. Que el córtex hace todo lo que hace utilizando el mismo método, el mismo algoritmo, es un descubrimiento increíble. Lo propuso por primera vez, hace 25 años, en Inglaterra, un señor llamado Mauntcastle, y dijo que aunque el neocórtex se parece a una servilleta grande, y las distintas partes hacen cosas diferentes (hay partes que son la vista, o el oído, o la música, o las matemáticas), si se analizan las células y su estructura son casi idénticas en todas partes. Lo que Mountcastle propuso es que era idéntico en todas las partes y aunque es difícil de creer es así. He preguntado a muchos neurocientíficos si creían en esto o no, y la mitad no lo creen y la mitad sí, y si se les pregunta por qué no se lo creen, dicen que porque es difícil de creer. Pero es el descubrimiento más importante hecho sobre el cerebro y explica cómo funciona y que es todo igual. Si fueras un cerebro y analizaras las señales que entran --entran por las fibras nerviosas del cerebro llamadas axones--, las que entran por los ojos son idénticas a las que entran por los oídos, o por la piel. No hay ningún sonido, o visión u tacto que entre en el cerebro, ya que en cuanto entran en el cerebro son todas unos patrones y son idénticos. La percepción del mundo es muy diferente, pero tiene que ver con la naturaleza del patrón, no tiene nada que ver con el mecanismo en si, porque es el mismo.

Eduard Punset
Y entonces una pregunta me viene a la mente. Sí esto es así, las máquinas inteligentes del futuro no hace falta que informen de lo que informan los sentidos tradicionales humanos, puede que estén afinadas para informar de otras cosas, que no tienen nada que ver con estos sentidos a los que estamos acostumbrados.

Jeff Hawkins
Exactamente, es algo muy importante en los descubrimientos de la naturaleza y es un método muy poderoso, que viene a decir: “si me das cualquier dato sensorial, construiré el modelo que lo causó”. Si estudiamos a los mamíferos, y pensamos en los humanos, tenemos vista, oído, olfato, tacto y gusto, pero también otros sentidos como el del propio cuerpo, que en realidad es de la posición del cuerpo; y otros animales, como los roedores, tienen los bigotes, que en realidad es un sentido completamente diferente que va al córtex, que lo procesa.

Eduard Punset
Y las abejas...

Jeff Hawkins
Las abejas no tienen córtex, sólo los mamíferos lo tienen, pero tienes razón ya que cuando construyamos las máquinas, en el futuro, funcionarán con el mismo principio: no hará falta que tengan oídos y ojos, sino que podrán funcionar con cualquier tipo de sensor, cosas simples como el sonar o el radar, e incluso sentidos más exóticos. He escrito en el libro que si se tiene un país y se piensa en las estaciones metereológicas que hay distribuidas por toda la geografía, es lo mismo que la retina del ojo, que va recogiendo todos los puntos de luz... pues lo mismo sucedería con las estaciones metereológicas, cuyas mediciones se podrían entrar en un sistema que “vería” el tiempo metereológico de la misma manera en que tu y yo vemos la luz. O sea que se podrían tener sentidos exóticos y funcionaría así.

Eduard Punset
Pero Jeff, ¿cómo nos comunicaríamos? Porque si hay diferentes sentidos, ¿cómo nos comunicaremos con estas máquinas que funcionan con diferentes sentidos de los que conocemos?

Jeff Hawkins
No es muy difícil. Imagínate lo siguiente: hay personas que no tienen todos los sentidos. Helen Keller es una mujer muy conocida y no podía ni ver ni oír, sólo tenía tacto, y sin embargo construyó un modelo del mundo que no es muy distinto del tuyo o el mío. No tenía unos sentidos distintos a los nuestros, sólo tenía uno y consiguió construir un modelo que se podía comunicar con nosotros. Nosotros estamos pensando en máquinas que se construirán de esta forma, y será muy fácil comunicarse con ellas. Evidentemente no tendremos una conversación como ésta, no se trata de esto, pero a los modelos, como por ejemplo el del tiempo metereológico, etc. será posible interrogarlos. Por ejemplo, les podremos preguntar ¿qué has descubierto? O ¿en qué estás pensando?

Eduard Punset
Cuando haces predicciones probablemente usas la capacidad metafórica de relacionar una cosa con la otra y decir que esto me permite hacer una predicción porque lo he visto, etc. ¿Es esto creatividad? O déjame que lo diga de otra manera: ¿qué es la creatividad?

Jeff Hawkins
Es creatividad, pero déjame que lo ponga en perspectiva. Cuando se hace una predicción, durante cada momento de la vida en que se está despierto no se es consciente de estar haciéndola. Cuando pongo una mano en algún sitio, tengo expectativas de cómo se sentirá y dónde y como lo sentiré. Nunca he estado en exactamente esta situación con anterioridad, y nunca me he sentado hablando contigo antes, de forma que todo esto es nuevo, y nunca he visto este papel antes, pero si lo toco tengo una expectativa de lo que hará: se puede quemar, puede volver, tiene un cierto tacto... y se que estoy haciendo predicciones porque lo conozco, porque si fuera diferente, como cristal o como gelatina o como algo frío diría: caramba, qué sorprendente. Es decir que el cerebro hace esto todo el tiempo y no nos damos cuenta. La segunda cosa que es sorprendente es que las entradas al cerebro siempre son nuevas, son únicas, suceden una vez y no se repiten nunca más, me puedes ver 100 veces y cada vez es un modelo distinto, porque o me he movido un poco, o porque la luz ha cambiado, es decir que se hacen predicciones sobre cosas nuevas todo el tiempo; este es un trozo de papel nuevo que nunca he visto antes y tengo una predicción sobre él. Nunca he tocado esta silla con anterioridad y tengo predicciones, los espectadores están oyendo y viéndome y tienen predicciones sobre lo que voy a decir. O sea que se hacen nuevas predicciones sobre situaciones novedosas, y esta es la esencia de la creatividad, pero se hacen a distintos niveles, no vemos esto como ser creativo. Yo no creo que estoy siendo increíblemente creativo cuando toco esta hoja de papel, o cuando anticipo lo que dirás, pero es lo mismo: en el córtex hacemos esto a niveles inferiores y superiores. Los niveles superiores son aquellos a los que llamamos creatividad: tenemos un nuevo problema que no he visto antes, quizá es un problema científico, se hace una predicción que es la hipótesis sobre la causa y por lo tanto se hace una predicción de lo que sucederá después. Es decir que se tiene un experimento que se va a probar y hacemos predicciones, y a un nivel superior creemos que es creatividad, pero es lo mismo, utilizamos información que tenemos del pasado y decimos que esto es algo similar. Un matemático puede decir: esta ecuación es similar a otra en la que trabajé hace 5 años, y si parece similar voy a utilizar una metodología similar a ver si puedo solucionarla.

Eduard Punset
Pero si todos los cerebros son creativos, ¿por qué algunas personas son más creativas que otras?

Jeff Hawkins
Vale, todo el mundo es creativo, y hay personas que son más creativas que otras en ciertas áreas. Se puede decir que yo soy más creativo que tu en ciertas tareas, y es posible que tu lo seas en otras. Yo creo que es parte del clásico debate naturaleza / entorno. Claramente una parte es aquello a lo que se ha estado expuesto, si no he estado expuesto a una serie de cosas no sabré hacer predicciones para eso; si me pones delante un nuevo idioma al que nunca con anterioridad he estado expuesto, para mi no tendrá ningún sentido, y no seré capaz de hacer predicciones de lo que se está hablando, o lo que se dirá después, o lo que hará alguien, etc. Es decir que se tiene que estar expuesto a los modelos para poder ser creativo, y cuanto más altos son los niveles más creativo se es: si he estado muchos años estudiando física, se puede ser muy creativo en física. La segunda cosa es que hay diferencias entre los cerebros humanos, sabemos que hay mucha variabilidad en los cerebros humanos, y las áreas dedicadas a tareas diferentes cambian mucho. Un hecho increíble es que si se toma el área visual del cerebro humano, que es el área más grande del neocórtex, varía en una factor de 3 entre distintas personas, es decir que es posible que una persona tenga una área tres veces más grande que otra. Todos pueden ver, pero una tendrá una visión más exacta, pero esto no se sabe: yo no puedo decir que tengo una visión más exacta que la tuya, no lo sé. Y de la misma manera hay personas que tienen un cerebro que es mejor para unas tareas determinadas. Pero no quiero predecir ni quién ni como, es algo natural.

Eduard Punset
Es cierto que si dañas el córtex de una rata hay cosas que pasarán de forma diferente, pero no muchas; sin embargo, si se destruye el córtex de un humano se paraliza por completo ¿no?

Jeff Hawkins
Esto es por la evolución del córtex porque el córtex empezó realmente con los mamíferos, y los no mamíferos no tienen córtex, pero todos los mamíferos lo tienen. Y en una rata el córtex es muy pequeño, quizá tiene el tamaño de un sello de correos, o algo así, y no juega un papel dominante en la vida de la rata. La rata tiene un cerebro primitivo como el de un reptil y un pequeño córtex, es decir que es de una cierta ayuda pero no es dominante, y como tu has dicho puedes extirpar el córtex de una rata y ella sigue moviéndose y tiene una apariencia casi normal. En los humanos, y en la progresión evolutiva, el córtex juega un papel muy dominante en la vida y tiene un tamaño enorme: de 1000 centímetros cuadrados. Y es muy importante, o sea que si se extrae el córtex de un humano es posible que respire y digiera alimentos pero nada más.

Eduard Punset
Porque realmente el córtex suplantó de alguna manera...

Jeff Hawkins
Sí, el córtex creció físicamente de una manera increíble alrededor del cerebro y tiene una fuerza dominante, aunque por supuesto no lo controla todo. Por ejemplo, si te digo que dejes de respirar es posible que lo hagas, pero la parte primitiva del cerebro en un cierto punto dirá que hay que respirar, ya que no se puede estar sin respirar, o sea que no lo controla todo, pero sí casi todo.

Eduard Punset
O sea que este comportamiento en la mayoría de los animales, y desde luego en los no mamíferos, obedece al cerebro primitivo, y en los humanos tenemos esta especie de monstruo que crece en el cerebro y ha suplantado muchas de sus funciones.

Jeff Hawkins
Teníamos el cerebro primitivo, el de un cocodrilo o de un reptil o lo que fuera, pero al caminar, por ejemplo, la mayoría del control motor, que es el que hace que se muevan las piernas, no viene del córtex sino de partes del cerebro primitivo; sin embargo en los humanos, con la excepción de unos movimientos básicos, el habla, el movimiento de las manos, la interacción social, casi todo lo que hacemos, todo está controlado por el córtex. Seguimos teniendo esta parte primitiva, todavía está ahí y el mejor ejemplo es que al aprender a montar en bicicleta...

Eduard Punset
No tiene nada que ver con el córtex...

Jeff Hawkins
No mucho, la mayoría de la gente no sabe cómo montan en bicicleta y es por eso que se caen, porque el córtex no tiene mucho que ver y el cerebro primitivo sí. Resulta que cuando se quiere ir a la izquierda hay que ir primero a la derecha para que la bicicleta se incline y se pueda hacer una curva a la izquierda. Si cuando se quiere ir a la izquierda se gira el manillar inmediatamente te caes, y esto es algo que el córtex no controla, y hay alguna historia similar, pero todo lo demás lo sabe hacer el córtex.

Eduard Punset
Has mencionado la evolución y pensemos en la célula, primero... estoy pensando en la predicción que significa inteligencia. La célula, o todos los organismos vivos, me imagino que hacen una cierta predicción: la célula, las plantas y las neuronas. Y si es así, la pregunta obvia que la audiencia haría es: ¿los animales son inteligentes?

Jeff Hawkins
Esta es una respuesta compleja, aunque intentaré hacerla sencilla. Cualquier comportamiento del animal depende de tener un cierto modelo del mundo que hace las predicciones, para eso están los modelos. Una planta hace predicciones porque sube hacia el tejado en busca de la luz, y envía las raíces hacia abajo en busca del agua. Esto no es pensar, las plantas no tienen una conversación y no dicen dónde voy a poner las raíces para buscar agua, pero sí que es predicción. La definición de la inteligencia es construir un modelo del mundo y hacer predicciones. Hay una gama: desde lo más simple, como los animales unicelulares o las plantas, etc. hasta los más sofisticados que son los humanos. Y a un nivel muy elevado se hace lo mismo, lo que se tiene que pensar con los mamíferos es que hemos desarrollado un sistema para hacer esto durante la vida, es decir que aprendemos mucho durante nuestra vida. Casi todo lo que sabemos del mundo, sobre los programas de TV, o ciencia, o sillas, o lo que sea, no nacimos sabiendo eso, lo hemos aprendido; y la planta no es así, no aprende nada durante su vida, pero nosotros lo aprendemos todo durante la vida. Y el córtex tiene una forma muy genérica de hacer esto: puede aprender casi todo; anteriormente en la genética se tenía que aprender de forma evolutiva, pero nosotros podemos aprender casi todo durante la vida. A un cierto nivel las plantas son inteligentes, pero es un nivel muy mínimo, no se puede decir que tengan un nivel ideal de inteligencia. Pero cuando hablamos de mamíferos, de la rata, ¿es inteligente? Claro que lo es. No es tan inteligente como nosotros, ni puede comprender el mundo como nosotros, no puede aprender lo mismo, pero por definición puede hacer predicciones y tiene un mundo de percepciones, por lo tanto la rata es mínimamente inteligente. No sirve de mucho poner unas marcas de inteligencia: éste animal es inteligente y éste no lo es, todo es una gama que va desde los humanos hasta el organismo más simple.

Eduard Punset
Cuando te oigo hablar sobre la creatividad me da tanto miedo... porque pienso: caramba, es posible que mi creatividad me pierda, que me lleve a algún sitio que...

Jeff Hawkins
Déjame que te explique otro término que utilizamos: las creencias. Cuando el cerebro está expuesto al mundo, construye un modelo del mundo, y ese modelo es básicamente cómo funciona el mundo, y esto genera unas creencias. Todos los seres humanos compartimos algunas creencias. Compartimos unas creencias sobre el sol, sobre la gravedad, sobre alimentos, sobre el agua y sobre rutinas de cada día. Pero cuando vamos subiendo en ideas abstractas en la jerarquía del córtex las creencias difieren, formamos creencias distintas, cada religión tiene un conjunto diferente de creencias, y no todas pueden ser correctas. También podemos formar creencias falsas que a veces denominamos estereotipos, pero es muy fácil para los humanos crear las falsas creencias. El algoritmo que nos ha llevado a conocer el mundo y nos permite hacer predicciones, y ser creativos, puede formar creencias falsas del mundo, y por lo tanto puede crear predicciones falsas y llevarnos a hacer cosas malas. Y aquí es donde se produce la mayor parte de los conflictos del mundo, y es porque todos tenemos un conjunto diferente de creencias en la parte superior, mientras que todos compartimos las básicas: los hombres y las mujeres hacemos lo mismo, pero es en la parte superior donde tenemos creencias fundamentalmente diferentes sobre cómo funciona el mundo.

Eduard Punset
Vamos a volver a las máquinas, a las máquinas inteligentes. La gente todavía tiene miedo a las máquinas inteligentes: ¿por qué?

Jeff Hawkins
Tiene historia: cuando se construyo la máquina de vapor se le tenía miedo, era como un milagro, una máquina que se mueve como un cuerpo, y eso da miedo. Cuando se inventó el ordenador, se pensó que iba a sobrepasar el comportamiento humano, y esto no sucedió; la gente tiene el mismo miedo de las máquinas inteligentes, creen que serán igual que los humanos. Es como de ciencia ficción y como si fueran un robot, como R2-D2 en Star Wars o algo así. Creen que será como un robot humano, pero no será así, las máquinas inteligentes tienen una apariencia muy aburrida y es posible que sean como ordenadores pero puede que estén pensando o que sientan el mundo: tampoco tendrán hambre, o querer tener sexo, o protegerse a si mismas, o querer reproducirse a si mismas, de la misma manera que los ordenadores no son así, ni las máquinas de vapor tampoco lo son. La gente se pone nerviosa porque se está recreando la humanidad, pero yo creo que es un error, y en realidad no tengo ningún deseo de hacerlo; sin embargo, entender cómo funciona el contexto y recrearlo creo que traerá grandes beneficios, que será muy bueno.

Eduard Punset
¿Cómo cuál? ¿Qué hacen las máquinas inteligentes? Trabajan más rápidamente que el cerebro, esto es seguro.

Jeff Hawkins
Trabajan más rápidamente que el cerebro y pueden ser más grandes y más inteligentes que el cerebro. Pero déjame que ponga en dos categorías lo que pueden hacer las máquinas inteligentes. La primera categoría es la obvia pero un poco más aburrida. Las máquinas pueden hacer lo que hacen los humanos, se pueden construir máquinas que conduzcan coches, o que miren las cámaras de seguridad para vigilar lo que sucede; se pueden construir máquinas que hagan traducción automática de idiomas, etc.: cosas que pueden hacer los humanos, pero que no son realmente interesantes. Hay una serie de cosas que tradicionalmente el mundo de la inteligencia artificial ha intentado hacer. Para mí lo que es más interesante de construir córtex como los del cerebro es que hagan cosas que los
humanos tienen problemas para hacer, como lo que hemos hablado antes de innovar en nuevos sensores. O, por ejemplo, los humanos no son muy buenos en física o en matemáticas, nos cuesta mucho y necesitamos mucho tiempo para ser buenos en eso, y creo que podemos construir máquinas que puedan ser realmente excelentes. Lo que es interesante, y de hecho es lo que motiva todo el trabajo que hago, es construir una máquina que nos ayude a entender cómo funciona todo el mundo, que responda a grandes preguntas como son la naturaleza del tiempo y el espacio, o de dónde viene el universo y a dónde va. Estas son para mi preguntas muy interesantes, y creo que construyendo unas máquinas muy inteligentes que se concentren en estos problemas –faltan algunos años para que suceda pero estoy seguro que sucederá– seremos capaces de tener un entendimiento mayor del mundo y de lo que realmente sucede aquí, y eliminar algunas de las creencias falsas.