text
stringlengths 313
1.33M
|
---|
# Black Holes and Curved Spacetime
## Tests of General Relativity
### Learning Objectives
By the end of this section, you will be able to:
1. Describe unusual motion of Mercury around the Sun and explain how general relativity explains the observed behavior
2. Provide examples of evidence for light rays being bent by massive objects, as predicted by general relativity’s theory about the warping of spacetime
What Einstein proposed was nothing less than a major revolution in our understanding of space and time. It was a new theory of gravity, in which mass determines the curvature of spacetime and that curvature, in turn, controls how objects move. Like all new ideas in science, no matter who advances them, Einstein’s theory had to be tested by comparing its predictions against the experimental evidence. This was quite a challenge because the effects of the new theory were apparent only when the mass was quite large. (For smaller masses, it required measuring techniques that would not become available until decades later.)
When the distorting mass is small, the predictions of general relativity must agree with those resulting from Newton’s law of universal gravitation, which, after all, has served us admirably in our technology and in guiding space probes to the other planets. In familiar territory, therefore, the differences between the predictions of the two models are subtle and difficult to detect. Nevertheless, Einstein was able to demonstrate one proof of his theory that could be found in existing data and to suggest another one that would be tested just a few years later.
### The Motion of Mercury
Of the planets in our solar system, Mercury orbits closest to the Sun and is thus most affected by the distortion of spacetime produced by the Sun’s mass. Einstein wondered if the distortion might produce a noticeable difference in the motion of Mercury that was not predicted by Newton’s law. It turned out that the difference was subtle, but it was definitely there. Most importantly, it had already been measured.
Mercury has a highly elliptical orbit, so that it is only about two-thirds as far from the Sun at perihelion as it is at aphelion. (These terms were defined in the chapter on Orbits and Gravity.) The gravitational effects (perturbations) of the other planets on Mercury produce a calculable advance of Mercury’s perihelion. What this means is that each successive perihelion occurs in a slightly different direction as seen from the Sun ().
According to Newtonian gravitation, the gravitational forces exerted by the planets will cause Mercury’s perihelion to advance by about 531 seconds of arc (arcsec) per century. In the nineteenth century, however, it was observed that the actual advance is 574 arcsec per century. The discrepancy was first pointed out in 1859 by Urbain Le Verrier, the codiscoverer of Neptune. Just as discrepancies in the motion of Uranus allowed astronomers to discover the presence of Neptune, so it was thought that the discrepancy in the motion of Mercury could mean the presence of an undiscovered inner planet. Astronomers searched for this planet near the Sun, even giving it a name: Vulcan, after the Roman god of fire. (The name would later be used for the home planet of a famous character on a popular television show about future space travel.)
But no planet has ever been found nearer to the Sun than Mercury, and the discrepancy was still bothering astronomers when Einstein was doing his calculations. General relativity, however, predicts that due to the curvature of spacetime around the Sun, the perihelion of Mercury should advance slightly more than is predicted by Newtonian gravity. The result is to make the major axis of Mercury’s orbit rotate slowly in space because of the Sun’s gravity alone. The prediction of general relativity is that the direction of perihelion should change by an additional 43 arcsec per century. This is remarkably close to the observed discrepancy, and it gave Einstein a lot of confidence as he advanced his theory. The relativistic advance of perihelion was later also observed in the orbits of several asteroids that come close to the Sun.
### Deflection of Starlight
Einstein’s second test was something that had not been observed before and would thus provide an excellent confirmation of his theory. Since spacetime is more curved in regions where the gravitational field is strong, we would expect light passing very near the Sun to appear to follow a curved path (), just like that of the ant in our analogy. Einstein calculated from general relativity theory that starlight just grazing the Sun’s surface should be deflected by an angle of 1.75 arcsec. Could such a deflection be observed?
We encounter a small “technical problem” when we try to photograph starlight coming very close to the Sun: the Sun is an outrageously bright source of starlight itself. But during a total solar eclipse, much of the Sun’s light is blocked out, allowing the stars near the Sun to be photographed. In a paper published during World War I, Einstein (writing in a German journal) suggested that photographic observations during an eclipse could reveal the deflection of light passing near the Sun.
The technique involves taking a photograph of the stars six months prior to the eclipse and measuring the position of all the stars accurately. Then the same stars are photographed during the eclipse. This is when the starlight has to travel to us by skirting the Sun and moving through measurably warped spacetime. As seen from Earth, the stars closest to the Sun will seem to be “out of place”—slightly away from their regular positions as measured when the Sun is not nearby.
A single copy of that paper, passed through neutral Holland, reached the British astronomer Arthur S. Eddington, who noted that the next suitable eclipse was on May 29, 1919. The British organized two expeditions to observe it: one on the island of Príncipe, off the coast of West Africa, and the other in Sobral, in northern Brazil. Despite some problems with the weather, both expeditions obtained successful photographs. The stars seen near the Sun were indeed displaced, and to the accuracy of the measurements, which was about 20%, the shifts were consistent with the predictions of general relativity. More modern experiments with radio waves traveling close to the Sun have confirmed that the actual displacements are within 1% of what general relativity predicts.
The confirmation of the theory by the eclipse expeditions in 1919 was a triumph that made Einstein a world celebrity.
### Key Concepts and Summary
In weak gravitational fields, the predictions of general relativity agree with the predictions of Newton’s law of gravity. However, in the stronger gravity of the Sun, general relativity makes predictions that differ from Newtonian physics and can be tested. For example, general relativity predicts that light or radio waves will be deflected when they pass near the Sun, and that the position where Mercury is at perihelion would change by 43 arcsec per century even if there were no other planets in the solar system to perturb its orbit. These predictions have been verified by observation. |
# Black Holes and Curved Spacetime
## Time in General Relativity
### Learning Objectives
By the end of this section, you will be able to:
1. Describe how Einsteinian gravity slows clocks and can decrease a light wave’s frequency of oscillation
2. Recognize that the gravitational decrease in a light wave’s frequency is compensated by an increase in the light wave’s wavelength—the so-called gravitational redshift—so that the light continues to travel at constant speed
General relativity theory makes various predictions about the behavior of space and time. One of these predictions, put in everyday terms, is that the stronger the gravity, the slower the pace of time. Such a statement goes very much counter to our intuitive sense of time as a flow that we all share. Time has always seemed the most democratic of concepts: all of us, regardless of wealth or status, appear to move together from the cradle to the grave in the great current of time.
But Einstein argued that it only seems this way to us because all humans so far have lived and died in the gravitational environment of Earth. We have had no chance to test the idea that the pace of time might depend on the strength of gravity, because we have not experienced radically different gravities. Moreover, the differences in the flow of time are extremely small until truly large masses are involved. Nevertheless, Einstein’s prediction has now been tested, both on Earth and in space.
### The Tests of Time
An ingenious experiment in 1959 used the most accurate atomic clock known to compare time measurements on the ground floor and the top floor of the physics building at Harvard University. For a clock, the experimenters used the frequency (the number of cycles per second) of gamma rays emitted by radioactive cobalt. Einstein’s theory predicts that such a cobalt clock on the ground floor, being a bit closer to Earth’s center of gravity, should run very slightly slower than the same clock on the top floor. This is precisely what the experiments observed. Later, atomic clocks were taken up in high-flying aircraft and even on one of the Gemini space flights. In each case, the clocks farther from Earth ran a bit faster. While in 1959 it didn’t matter much if the clock at the top of the building ran faster than the clock in the basement, today that effect is highly relevant. Every smartphone or device that synchronizes with a GPS must correct for this (as we will see in the next section) since the clocks on satellites will run faster than clocks on Earth.
The effect is more pronounced if the gravity involved is the Sun’s and not Earth’s. If stronger gravity slows the pace of time, then it will take longer for a light or radio wave that passes very near the edge of the Sun to reach Earth than we would expect on the basis of Newton’s law of gravity. (It takes longer because spacetime is curved in the vicinity of the Sun.) The smaller the distance between the ray of light and the edge of the Sun at closest approach, the longer will be the delay in the arrival time.
In November 1976, when the two Viking spacecraft were operating on the surface of Mars, the planet went behind the Sun as seen from Earth (). Scientists had preprogrammed Viking to send a radio wave toward Earth that would go extremely close to the outer regions of the Sun. According to general relativity, there would be a delay because the radio wave would be passing through a region where time ran more slowly. The experiment was able to confirm Einstein’s theory to within 0.1%.
### Gravitational Redshift
What does it mean to say that time runs more slowly? When light emerges from a region of strong gravity where time slows down, the light experiences a change in its frequency and wavelength. To understand what happens, let’s recall that a wave of light is a repeating phenomenon—crest follows crest with great regularity. In this sense, each light wave is a little clock, keeping time with its wave cycle. If stronger gravity slows down the pace of time (relative to an outside observer), then the rate at which crest follows crest must be correspondingly slower—that is, the waves become less frequent.
To maintain constant light speed (the key postulate in Einstein’s theories of special and general relativity), the lower frequency must be compensated by a longer wavelength. This kind of increase in wavelength (when caused by the motion of the source) is what we called a redshift in Radiation and Spectra. Here, because it is gravity and not motion that produces the longer wavelengths, we call the effect a gravitational redshift.
The advent of space-age technology made it possible to measure gravitational redshift with very high accuracy. In the mid-1970s, a hydrogen maser, a device akin to a laser that produces a microwave radio signal at a particular wavelength, was carried by a rocket to an altitude of 10,000 kilometers. Instruments on the ground were used to compare the frequency of the signal emitted by the rocket-borne maser with that from a similar maser on Earth. The experiment showed that the stronger gravitational field at Earth’s surface really did slow the flow of time relative to that measured by the maser in the rocket. The observed effect matched the predictions of general relativity to within a few parts in 100,000.
These are only a few examples of tests that have confirmed the predictions of general relativity. Today, general relativity is accepted as our best description of gravity and is used by astronomers and physicists to understand the behavior of the centers of galaxies, the beginning of the universe, and the subject with which we began this chapter—the death of truly massive stars.
### Relativity: A Practical Application
By now you may be asking: why should I be bothered with relativity? Can’t I live my life perfectly well without it? The answer is you can’t. Every time a pilot lands an airplane or you use a GPS to determine where you are on a drive or hike in the back country, you (or at least your GPS-enabled device) must take the effects of both general and special relativity into account.
GPS relies on an array of 24 satellites orbiting the Earth, and at least 4 of them are visible from any spot on Earth. Each satellite carries a precise atomic clock. Your GPS receiver detects the signals from those satellites that are overhead and calculates your position based on the time that it has taken those signals to reach you. Suppose you want to know where you are within 50 feet (GPS devices can actually do much better than this). Since it takes only 50 billionths of a second for light to travel 50 feet, the clocks on the satellites must be synchronized to at least this accuracy—and relativistic effects must therefore be taken into account.
The clocks on the satellites are orbiting Earth at a speed of 14,000 kilometers per hour and are moving much faster than clocks on the surface of Earth. According to Einstein’s theory of relativity, the clocks on the satellites are ticking more slowly than Earth-based clocks by about 7 millionths of a second per day. (We have not discussed the special theory of relativity, which deals with changes when objects move very fast, so you’ll have to take our word for this part.)
The orbits of the satellites are 20,000 kilometers above Earth, where gravity is about four times weaker than at Earth’s surface. General relativity says that the orbiting clocks should tick about 45 millionths of a second faster than they would on Earth. The net effect is that the time on a satellite clock advances by about 38 microseconds per day. If these relativistic effects were not taken into account, navigational errors would start to add up and positions would be off by about 7 miles in only a single day.
### Key Concepts and Summary
General relativity predicts that the stronger the gravity, the more slowly time must run. Experiments on Earth and with spacecraft have confirmed this prediction with remarkable accuracy. When light or other radiation emerges from a compact smaller remnant, such as a white dwarf or neutron star, it shows a gravitational redshift due to the slowing of time. |
# Black Holes and Curved Spacetime
## Black Holes
### Learning Objectives
By the end of this section, you will be able to:
1. Explain the event horizon surrounding a black hole
2. Discuss why the popular notion of black holes as great sucking monsters that can ingest material at great distances from them is erroneous
3. Use the concept of warped spacetime near a black hole to track what happens to any object that might fall into a black hole
4. Recognize why the concept of a singularity—with its infinite density and zero volume—presents major challenges to our understanding of matter
Let’s now apply what we have learned about gravity and spacetime curvature to the issue we started with: the collapsing core in a very massive star. We saw that if the core’s mass is greater than about 3 MSun, theory says that nothing can stop the core from collapsing forever. We will examine this situation from two perspectives: first from a pre-Einstein point of view, and then with the aid of general relativity.
### Classical Collapse
Let’s begin with a thought experiment. We want to know what speeds are required to escape from the gravitational pull of different objects. A rocket must be launched from the surface of Earth at a very high speed if it is to escape the pull of Earth’s gravity. In fact, any object—rocket, ball, astronomy book—that is thrown into the air with a velocity less than 11 kilometers per second will soon fall back to Earth’s surface. Only those objects launched with a speed greater than this escape velocity can get away from Earth.
The escape velocity from the surface of the Sun is higher yet—618 kilometers per second. Now imagine that we begin to compress the Sun, forcing it to shrink in diameter. Recall that the pull of gravity depends on both the mass that is pulling you and your distance from the center of gravity of that mass. If the Sun is compressed, its mass will remain the same, but the distance between a point on the Sun’s surface and the center will get smaller and smaller. Thus, as we compress the star, the pull of gravity for an object on the shrinking surface will get stronger and stronger ().
When the shrinking Sun reaches the diameter of a neutron star (about 20 kilometers), the velocity required to escape its gravitational pull will be about half the speed of light. Suppose we continue to compress the Sun to a smaller and smaller diameter. (We saw this can’t happen to a star like our Sun in the real world because of electron degeneracy, i.e., the mutual repulsion between tightly packed electrons; this is just a quick “thought experiment” to get our bearings).
Ultimately, as the Sun shrinks, the escape velocity near the surface would exceed the speed of light. If the speed you need to get away is faster than the fastest possible speed in the universe, then nothing, not even light, is able to escape. An object with such large escape velocity emits no light, and anything that falls into it can never return.
In modern terminology, we call an object from which light cannot escape a black hole, a name popularized by the America scientist John Wheeler starting in the late 1960s (). The idea that such objects might exist is, however, not a new one. Cambridge professor and amateur astronomer John Michell wrote a paper in 1783 about the possibility that stars with escape velocities exceeding that of light might exist. And in 1796, the French mathematician Pierre-Simon, marquis de Laplace, made similar calculations using Newton’s theory of gravity; he called the resulting objects “dark bodies.”
While these early calculations provided strong hints that something strange should be expected if very massive objects collapse under their own gravity, we really need general relativity theory to give an adequate description of what happens in such a situation.
### Collapse with Relativity
General relativity tells us that gravity is really a curvature of spacetime. As gravity increases (as in the collapsing Sun of our thought experiment), the curvature gets larger and larger. Eventually, if the Sun could shrink down to a diameter of about 6 kilometers, only light beams sent out perpendicular to the surface would escape. All others would fall back onto the star (). If the Sun could then shrink just a little more, even that one remaining light beam would no longer be able to escape.
Keep in mind that gravity is not pulling on the light. The concentration of matter has curved spacetime, and light (like the trained ant of our earlier example) is “doing its best” to go in a straight line, yet is now confronted with a world in which straight lines that used to go outward have become curved paths that lead back in. The collapsing star is a black hole in this view, because the very concept of “out” has no geometrical meaning. The star has become trapped in its own little pocket of spacetime, from which there is no escape.
The star’s geometry cuts off communication with the rest of the universe at precisely the moment when, in our earlier picture, the escape velocity becomes equal to the speed of light. The size of the star at this moment defines a surface that we call the event horizon. It’s a wonderfully descriptive name: just as objects that sink below our horizon cannot be seen on Earth, so anything happening inside the event horizon can no longer interact with the rest of the universe.
Imagine a future spacecraft foolish enough to land on the surface of a massive star just as it begins to collapse in the way we have been describing. Perhaps the captain is asleep at the gravity meter, and before the crew can say “Albert Einstein,” they have collapsed with the star inside the event horizon. Frantically, they send an escape pod straight outward. But paths outward twist around to become paths inward, and the pod turns around and falls toward the center of the black hole. They send a radio message to their loved ones, bidding good-bye. But radio waves, like light, must travel through spacetime, and curved spacetime allows nothing to get out. Their final message remains unheard. Events inside the event horizon can never again affect events outside it.
The characteristics of an event horizon were first worked out by astronomer and mathematician Karl Schwarzschild (). A member of the German army in World War I, he died in 1916 of an illness he contracted while doing artillery shell calculations on the Russian front. His paper on the theory of event horizons was among the last things he finished as he was dying; it was the first exact solution to Einstein’s equations of general relativity. The radius of the event horizon is called the Schwarzschild radius in his memory.
The event horizon is the boundary of the black hole; calculations show that it does not get smaller once the whole star has collapsed inside it. It is the region that separates the things trapped inside it from the rest of the universe. Anything coming from the outside is also trapped once it comes inside the event horizon. The horizon’s size turns out to depend only on the mass inside it. If the Sun, with its mass of 1 MSun, were to become a black hole (fortunately, it can’t—this is just a thought experiment), the Schwarzschild radius would be about 3 kilometers; thus, the entire black hole would be about one-third the size of a neutron star of that same mass. Feed the black hole some mass, and the horizon will grow—but not very much. Doubling the mass will make the black hole 6 kilometers in radius, still very tiny on the cosmic scale.
The event horizons of more massive black holes have larger radii. For example, if a globular cluster of 100,000 stars (solar masses) could collapse to a black hole, it would be 300,000 kilometers in radius, a little less than half the radius of the Sun. If the entire Galaxy could collapse to a black hole, it would be only about 1012 kilometers in radius—about a tenth of a light year. Smaller masses have correspondingly smaller horizons: for Earth to become a black hole, it would have to be compressed to a radius of only 1 centimeter—less than the size of a grape. A typical asteroid, if crushed to a small enough size to be a black hole, would have the dimensions of an atomic nucleus.
### A Black Hole Myth
Much of the modern folklore about black holes is misleading. One idea you may have heard is that black holes go about sucking things up with their gravity. Actually, it is only very close to a black hole that the strange effects we have been discussing come into play. The gravitational attraction far away from a black hole is the same as that of the star that collapsed to form it.
Remember that the gravity of any star some distance away acts as if all its mass were concentrated at a point in the center, which we call the center of gravity. For real stars, we merely imagine that all mass is concentrated there; for black holes, all the mass really is concentrated at a point in the center.
So, if you are a star or distant planet orbiting around a star that becomes a black hole, your orbit may not be significantly affected by the collapse of the star (although it may be affected by any mass loss that precedes the collapse). If, on the other hand, you venture close to the event horizon, it would be very hard for you to resist the “pull” of the warped spacetime near the black hole. You have to get really close to the black hole to experience any significant effect.
If another star or a spaceship were to pass one or two solar radii from a black hole, Newton’s laws would be adequate to describe what would happen to it. Only very near the event horizon of a black hole is the gravitation so strong that Newton’s laws break down. The black hole remnant of a massive star coming into our neighborhood would be far, far safer to us than its earlier incarnation as a brilliant, hot star.
### A Trip into a Black Hole
The fact that scientists cannot see inside black holes has not kept them from trying to calculate what they are like. One of the first things these calculations showed was that the formation of a black hole obliterates nearly all information about the star that collapsed to form it. Physicists like to say “black holes have no hair,” meaning that nothing sticks out of a black hole to give us clues about what kind of star produced it or what material has fallen inside. The only information a black hole can reveal about itself is its mass, its spin (rotation), and whether it has any electrical charge.
What happens to the collapsing star-core that made the black hole? Our best calculations predict that the material will continue to collapse under its own weight, forming an infinitely squozen point—a place of zero volume and infinite density—to which we give the name singularity. At the singularity, spacetime ceases to exist. The laws of physics as we know them break down. We do not yet have the physical understanding or the mathematical tools to describe the singularity itself, or even if singularities actually occur. From the outside, however, the entire structure of a basic black hole (one that is not rotating) can be described as a singularity surrounded by an event horizon. Compared to humans, black holes are really very simple objects.
Scientists have also calculated what would happen if an astronaut were to fall into a black hole. Let’s take up an observing position a long, safe distance away from the event horizon and watch this astronaut fall toward it. At first he falls away from us, moving ever faster, just as though he were approaching any massive star. However, as he nears the event horizon of the black hole, things change. The strong gravitational field around the black hole will make his clocks run more slowly, when seen from our outside perspective.
If, as he approaches the event horizon, he sends out a signal once per second according to his clock, we will see the spacing between his signals grow longer and longer until it becomes infinitely long when he reaches the event horizon. (Recalling our discussion of gravitational redshift, we could say that if the infalling astronaut uses a blue light to send his signals every second, we will see the light get redder and redder until its wavelength is nearly infinite.) As the spacing between clock ticks approaches infinity, it will appear to us that the astronaut is slowly coming to a stop, frozen in time at the event horizon.
In the same way, all matter falling into a black hole will also appear to an outside observer to stop at the event horizon, frozen in place and taking an infinite time to fall through it. But don’t think that matter falling into a black hole will therefore be easily visible at the event horizon. The tremendous redshift will make it very difficult to observe any radiation from the “frozen” victims of the black hole.
This, however, is only how we, located far away from the black hole, see things. To the astronaut, his time goes at its normal rate and he falls right on through the event horizon into the black hole. (Remember, this horizon is not a physical barrier, but only a region in space where the curvature of spacetime makes escape impossible.)
You may have trouble with the idea that you (watching from far away) and the astronaut (falling in) have such different ideas about what has happened. This is the reason Einstein’s ideas about space and time are called theories of relativity. What each observer measures about the world depends on (is relative to) his or her frame of reference. The observer in strong gravity measures time and space differently from the one sitting in weaker gravity. When Einstein proposed these ideas, many scientists also had difficulty with the idea that two such different views of the same event could be correct, each in its own “world,” and they tried to find a mistake in the calculations. There were no mistakes: we and the astronaut really would see him fall into a black hole very differently.
For the astronaut, there is no turning back. Once inside the event horizon, the astronaut, along with any signals from his radio transmitter, will remain hidden forever from the universe outside. He will, however, not have a long time (from his perspective) to feel sorry for himself as he approaches the black hole. Suppose he is falling feet first. The force of gravity that the singularity exerts on his feet is greater than on his head, so he will be stretched slightly. Because the singularity is a point, the left side of his body will be pulled slightly toward the right, and the right slightly toward the left, bringing each side closer to the singularity. The astronaut will therefore be slightly squeezed in one direction and stretched in the other. Some scientists like to call this process of stretching and narrowing spaghettification. The point at which the astronaut becomes so stretched that he perishes depends on the size of the black hole. For black holes with masses billions of times the mass of the Sun, such as those found at the centers of galaxies, the spaghettification becomes significant only after the astronaut passes through the event horizon. For black holes with masses of a few solar masses, the astronaut will be stretched and ripped apart even before he reaches the event horizon.
Earth exerts similar tidal forces on an astronaut performing a spacewalk. In the case of Earth, the tidal forces are so small that they pose no threat to the health and safety of the astronaut. Not so in the case of a black hole. Sooner or later, as the astronaut approaches the black hole, the tidal forces will become so great that the astronaut will be ripped apart, eventually reduced to a collection of individual atoms that will continue their inexorable fall into the singularity.
### Key Concepts and Summary
Theory suggests that stars with stellar cores more massive than three times the mass of the Sun at the time they exhaust their nuclear fuel will collapse to become black holes. The surface surrounding a black hole, where the escape velocity equals the speed of light, is called the event horizon, and the radius of the surface is called the Schwarzschild radius. Nothing, not even light, can escape through the event horizon from the black hole. At its center, each black hole is thought to have a singularity, a point of infinite density and zero volume. Matter falling into a black hole appears, as viewed by an outside observer, to freeze in position at the event horizon. However, if we were riding on the infalling matter, we would pass through the event horizon. As we approach the singularity, the tidal forces would tear our bodies apart even before we reach the singularity. |
# Black Holes and Curved Spacetime
## Evidence for Black Holes
### Learning Objectives
By the end of this section, you will be able to:
1. Describe what to look for when seeking and confirming the presence of a stellar black hole
2. Explain how a black hole is inherently black yet can be associated with luminous matter
3. Differentiate between stellar black holes and the black holes in the centers of galaxies
Theory tells us what black holes are like. But do they actually exist? And how do we go about looking for something that is many light years away, only about a few dozen kilometers across (if a stellar black hole), and completely black? It turns out that the trick is not to look for the black hole itself but instead to look for what it does to a nearby companion star.
As we saw, when very massive stars collapse, they leave behind their gravitational influence. What if a member of a double-star system becomes a black hole, and its companion manages to survive the death of the massive star? While the black hole disappears from our view, we may be able to deduce its presence from the things it does to its companion.
### Requirements for a Black Hole
So, here is a prescription for finding a black hole: start by looking for a star whose motion (determined from the Doppler shift of its spectral lines) shows it to be a member of a binary star system. If both stars are visible, neither can be a black hole, so focus your attention on just those systems where only one star of the pair is visible, even with our most sensitive telescopes.
Being invisible is not enough, however, because a relatively faint star might be hard to see next to the glare of a brilliant companion or if it is shrouded by dust. And even if the star really is invisible, it could be a neutron star. Therefore, we must also have evidence that the unseen star has a mass too high to be a neutron star and that it is a collapsed object—an extremely small stellar remnant.
We can use Kepler’s law (see Orbits and Gravity) and our knowledge of the visible star to measure the mass of the invisible member of the pair. If the mass is greater than about 3 MSun, then we are likely seeing (or, more precisely, not seeing) a black hole—as long as we can make sure the object really is a collapsed star.
If matter falls toward a compact object of high gravity, the material is accelerated to high speed. Near the event horizon of a black hole, matter is moving at velocities that approach the speed of light. As the atoms whirl chaotically toward the event horizon, they rub against each other; internal friction can heat them to temperatures of 100 million K or more. Such hot matter emits radiation in the form of flickering X-rays. The last part of our prescription, then, is to look for a source of X-rays associated with the binary system. Since X-rays do not penetrate Earth’s atmosphere, such sources must be found using X-ray telescopes in space.
In our example, the infalling gas that produces the X-ray emission comes from the black hole’s companion star. As we saw in The Death of Stars, stars in close binary systems can exchange mass, especially as one of the members expands into a red giant. Suppose that one star in a double-star system has evolved to a black hole and that the second star begins to expand. If the two stars are not too far apart, the outer layers of the expanding star may reach the point where the black hole exerts more gravitational force on them than do the inner layers of the red giant to which the atmosphere belongs. The outer atmosphere then passes through the point of no return between the stars and falls toward the black hole.
The mutual revolution of the giant star and the black hole causes the material falling toward the black hole to spiral around it rather than flow directly into it. The infalling gas whirls around the black hole in a pancake of matter called an accretion disk. It is within the inner part of this disk that matter is revolving about the black hole so fast that internal friction heats it up to X-ray–emitting temperatures (see ).
Another way to form an accretion disk in a binary star system is to have a powerful stellar wind come from the black hole’s companion. Such winds are a characteristic of several stages in a star’s life. Some of the ejected gas in the wind will then flow close enough to the black hole to be captured by it into the disk ().
We should point out that, as often happens, the measurements we have been discussing are not quite as simple as they are described in introductory textbooks. In real life, Kepler’s law allows us to calculate only the combined mass of the two stars in the binary system. We must learn more about the visible star of the pair and its history to ascertain the distance to the binary pair, the true size of the visible star’s orbit, and how the orbit of the two stars is tilted toward Earth, something we can rarely measure. And neutron stars can also have accretion disks that produce X-rays, so astronomers must study the properties of these X-rays carefully when trying to determine what kind of object is at the center of the disk. Nevertheless, a number of systems that clearly contain black holes have now been found.
### The Discovery of Stellar-Mass Black Holes
Because X-rays are such important tracers of black holes that are having some of their stellar companions for lunch, the search for black holes had to await the launch of sophisticated X-ray telescopes into space. These instruments must have the resolution to locate the X-ray sources accurately and thereby enable us to match them to the positions of binary star systems.
The first black hole binary system to be discovered is called Cygnus X-1 (see ). The visible star in this binary system is spectral type O. Measurements of the Doppler shifts of the O star’s spectral lines show that it has an unseen companion. The X-rays flickering from it strongly indicate that the companion is a small collapsed object. The mass of the invisible collapsed companion is about 21 times that of the Sun. The companion is therefore too massive to be either a white dwarf or a neutron star.
A number of other binary systems also meet all the conditions for containing a black hole. lists the characteristics of some of the best examples.
### Feeding a Black Hole
After an isolated star, or even one in a binary star system, becomes a black hole, it probably won’t be able to grow much larger. Out in the suburban regions of the Milky Way Galaxy where we live (see The Milky Way Galaxy), stars and star systems are much too far apart for other stars to provide “food” to a hungry black hole. After all, material must approach very close to the event horizon before the gravity is any different from that of the star before it became the black hole.
But, as we will see, the central regions of galaxies are quite different from their outer parts. Here, stars and raw material can be quite crowded together, and they can interact much more frequently with each other. Therefore, black holes in the centers of galaxies may have a much better opportunity to find mass close enough to their event horizons to pull in. Black holes are not particular about what they “eat”: they are happy to consume other stars, asteroids, gas, dust, and even other black holes. (If two black holes merge, you just get a black hole with more mass and a larger event horizon.)
As a result, black holes in crowded regions can grow, eventually swallowing thousands or even millions of times the mass of the Sun. Ground-based observations have provided compelling evidence that there is a black hole in the center of our own Galaxy with a mass of about 4 million times the mass of the Sun (we’ll discuss this further in the chapter on The Milky Way Galaxy). Observations with the Hubble Space Telescope have shown dramatic evidence for the existence of black holes in the centers of many other galaxies. These black holes can contain more than a billion solar masses. The feeding frenzy of such supermassive black holes may be responsible for some of the most energetic phenomena in the universe (see Active Galaxies, Quasars, and Supermassive Black Holes). And evidence from more recent X-ray observations is also starting to indicate the existence of “middle-weight” black holes, whose masses are dozens to thousands of times the mass of the Sun. The crowded inner regions of the globular clusters we described in Stars from Adolescence to Old Age may be just the right breeding grounds for such intermediate-mass black holes.
Over the past decades, many observations, especially with the Hubble Space Telescope and with X-ray satellites, have been made that can be explained only if black holes really do exist. Furthermore, the observational tests of Einstein’s general theory of relativity have convinced even the most skeptical scientists that his picture of warped or curved spacetime is indeed our best description of the effects of gravity near these black holes.
### Key Concepts and Summary
The best evidence of stellar-mass black holes comes from binary star systems in which (1) one star of the pair is not visible, (2) the flickering X-ray emission is characteristic of an accretion disk around a compact object, and (3) the orbit and characteristics of the visible star indicate that the mass of its invisible companion is greater than 3 MSun. A number of systems with these characteristics have been found. Black holes with masses of millions to billions of solar masses are found in the centers of large galaxies. |
# Black Holes and Curved Spacetime
## Gravitational Wave Astronomy
### Learning Objectives
By the end of this section, you will be able to:
1. Describe what a gravitational wave is, what can produce it, and how fast it propagates
2. Understand the basic mechanisms used to detect gravitational waves
Another part of Einstein’s ideas about gravity can be tested as a way of checking the theory that underlies black holes. According to general relativity, the geometry of spacetime depends on where matter is located. Any rearrangement of matter—say, from a sphere to a sausage shape—creates a disturbance in spacetime. This disturbance is called a gravitational wave, and relativity predicts that it should spread outward at the speed of light. The big problem with trying to study such waves is that they are tremendously weaker than electromagnetic waves and correspondingly difficult to detect.
### Proof from a Pulsar
We’ve had indirect evidence for some time that gravitational waves exist. In 1974, astronomers Joseph Taylor and Russell Hulse discovered a pulsar (with the designation PSR1913+16) orbiting another neutron star. Pulled by the powerful gravity of its companion, the pulsar is moving at about one-tenth the speed of light in its orbit.
According to general relativity, this system of stellar corpses should be radiating energy in the form of gravitational waves at a high enough rate to cause the pulsar and its companion to spiral closer together. If this is correct, then the orbital period should decrease (according to Kepler’s third law) by one ten-millionth of a second per orbit. Continuing observations showed that the period is decreasing by precisely this amount. Such a loss of energy in the system can be due only to the radiation of gravitational waves, thus confirming their existence. Taylor and Hulse shared the 1993 Nobel Prize in physics for this work.
### Direct Observations
Although such an indirect proof convinced physicists that gravitational waves exist, it is even more satisfying to detect the waves directly. What we need are phenomena that are powerful enough to produce gravitational waves with amplitudes large enough that we can measure them. Theoretical calculations suggest some of the most likely events that would give a burst of gravitational waves strong enough that our equipment on Earth could measure it:
1. the coalescence of two neutron stars in a binary system that spiral together until they merge
2. the swallowing of a neutron star by a black hole
3. the coalescence (merger) of two black holes
4. the implosion of a really massive star to form a neutron star or a black hole
5. the first “shudder” when space and time came into existence and the universe began
For the last four decades, scientists have been developing an audacious experiment to try to detect gravitational waves from a source on this list. The US experiment, which was built with collaborators from the UK, Germany, Australia and other countries, is named LIGO (Laser Interferometer Gravitational-Wave Observatory). LIGO currently has two observing stations, one in Louisiana and the other in the state of Washington. The effects of gravitational waves are so small that confirmation of their detection will require simultaneous measurements by two widely separated facilities. Local events that might cause small motions within the observing stations and mimic gravitational waves—such as small earthquakes, ocean tides, and even traffic—should affect the two sites differently.
Each of the LIGO stations consists of two 4-kilometer-long, 1.2-meter-diameter vacuum pipes arranged in an L-shape. A test mass with a mirror on it is suspended by wire at each of the four ends of the pipes. Ultra-stable laser light is reflected from the mirrors and travels back and forth along the vacuum pipes (). If gravitational waves pass through the LIGO instrument, then, according to Einstein’s theory, the waves will affect local spacetime—they will alternately stretch and shrink the distance the laser light must travel between the mirrors ever so slightly. When one arm of the instrument gets longer, the other will get shorter, and vice versa.
The challenge of this experiment lies in that phrase “ever so slightly.” In fact, to detect a gravitational wave, the change in the distance to the mirror must be measured with an accuracy of one ten-thousandth the diameter of a proton. In 1972, Rainer Weiss of MIT wrote a paper suggesting how this seemingly impossible task might be accomplished.
A great deal of new technology had to be developed, and work on the laboratory, with funding from the National Science Foundation, began in 1979. A full-scale prototype to demonstrate the technology was built and operated from 2002 to 2010, but the prototype was not expected to have the sensitivity required to actually detect gravitational waves from an astronomical source. Advanced LIGO, built to be more precise with the improved technology developed in the prototype, went into operation in 2015—and almost immediately detected gravitational waves.
What LIGO found was gravitational waves produced in the final fraction of a second of the merger of two black holes (). The black holes had masses of 20 and 36 times the mass of the Sun, and the merger took place 1.3 billion years ago—the gravitational waves occurred so far away that it has taken that long for them, traveling at the speed of light, to reach us.
In the cataclysm of the merger, about three times the mass of the Sun was converted to energy (recall E = mc2). During the tiny fraction of a second for the merger to take place, this event produced power about 10 times the power produced by all the stars in the entire visible universe—but the power was all in the form of gravitational waves and hence was invisible to our instruments, except to LIGO. The event was recorded in Louisiana about 7 milliseconds before the detection in Washington—just the right distance given the speed at which gravitational waves travel—and indicates that the source was located somewhere in the southern hemisphere sky. Unfortunately, the merger of two black holes is not expected to produce any light, so this is the only observation we have of the event.
This detection by LIGO (and another one of a different black hole merger a few months later) opened a whole new window on the universe. One of the experimenters compared the beginning of gravitational wave astronomy to the era when silent films were replaced by movies with sound (comparing the vibration of spacetime during the passing of a gravitational wave to the vibrations that sound makes).
By the end of 2021, the LIGO-Virgo collaboration (Virgo is a gravitational wave detector operated by the European Gravitational Observatory in Italy) published a catalog that now included some 90 events. Most were mergers of two black holes, and most involved black holes with a range of masses detected only by gravitational waves (see ). In the most extreme merger, black holes with masses of 86 and 65 times the mass of the Sun merged to form a black hole with a mass of about 142 times the mass the Sun, and released energy equivalent to 9 times the mass of our Sun (remember E= mc2)—an enormous amount.
Astronomers are not yet sure how black holes in this unexpected mass range form. Bear in mind that the kind of black holes in binary star systems that we discussed in Evidence for Black Holes (and listed in ) have masses ranging from 4 to 15 times the mass of the Sun.
To be sure, a few mergers did involve black holes with stellar masses comparable to those of black holes in X-ray binary systems. In one case, for example, the merging black holes had masses of 14 and 8 times the mass of the Sun.
While astronomers can learn about the masses of objects involved in gravitational wave events, the challenge is to locate the event in the sky precisely. A single gravitational wave detector cannot determine accurately the direction to a gravitational wave source. Four comparable detectors operating simultaneously are required to localize a source of gravitational waves in every location in the sky. The first observing run with four detectors, including the two LIGO detectors, Virgo, and KAGRA in Japan, is scheduled to begin in the summer of 2022. LIGO India will be a fifth, thereby enhancing the probability that at least four detectors will be operational simultaneously. Experience has shown that the LIGO and Virgo detectors are down about 25 percent of the time because these complex systems are difficult to run.
A three-observatory network does provide a sharp location for events that occur in about half of all possible locations on the sky.
In late 2017, data from the LIGO and Virgo detectors provided an accurate position for what analysis showed was the spiraling together of two neutron stars with masses of 1.1 to 1.6 times the mass of the Sun (see The Death of Stars).
With an accurate location known, follow up observations with ground-based telescopes detected electromagnetic emission from a gravitational wave event for the first time. The observations showed that this source was located in NGC 4993, a galaxy at a distance of about 130 million light-years in the direction of the constellation Hydra. The Fermi satellite detected a flash of gamma rays at the same time and in the same direction, which confirms the long-standing hypothesis that mergers of neutron stars are progenitors of short gamma-ray bursts (see The Mystery of Gamma-Ray Bursts).
Spectra showed that the merger ejected material with a mass of about 6 percent of the mass of the Sun at a speed of one-tenth the speed of light.
This material is rich in heavy elements, just as the theory of kilonovas (see The Mystery of Gamma-Ray Bursts) predicted. First estimates suggest that the merger produced about 200 Earth masses of gold, and around 500 Earth masses of platinum. This makes clear that neutron star mergers are a significant source of heavy elements. More such mergers are being found (see ) and they will improve estimates of the frequency at which neutron star mergers occur; it may well turn out that the vast majority of heavy elements have been created in such cataclysms.
No electromagnetic observations have been detected from the mergers of two black holes.
In June 2021, scientists from LIGO and Virgo announced the first detection of mergers between black holes and neutron stars, another of the really energetic events that we listed as possible sources for a detectable burst of gravitational waves. Again, no electromagnetic waves from the two events were observed or expected, demonstrating the importance of using what we are now calling “multi-messenger astronomy” to understand the universe fully.
Observing the merger of black holes via gravitational waves means that we can now test Einstein’s general theory of relativity where its effects are very strong—close to black holes—and not weak, as they are near Earth. One remarkable result from these detections is that the observed signals so closely match the theoretical predictions made using Einstein’s theory. Once again, Einstein’s revolutionary idea is found to be the correct description of nature.
Because of the scientific significance of the observations of gravitational waves, three of the LIGO project leaders—Rainer Weiss of MIT, and Kip Thorne and Barry Barish of Caltech—were awarded the Nobel Prize in 2017.
Ground-based gravitational-wave detectors can detect mergers of black holes with masses up to about 100 times the mass of the Sun. Astronomers would now like to look for the merger of distant supermassive black holes (see Supermassive Black Holes: What Quasars Really Are) with masses of thousands to millions of times larger, which might have occurred when the first generation of stars formed, only a few hundred million years after the Big Bang. The gravitational waves emitted by mergers of supermassive black holes are so long that it is necessary to go to space to build an observatory large enough to detect them.
ESA (the European Space Agency), with contributions from NASA, is planning to launch a facility named LISA (Laser Interferometer Space Antenna) in 2034 to search for mergers of black holes with masses thousands to millions of times larger than the mass of the Sun. The experiment will consist of three spacecraft arranged in an equilateral triangle with sides 2.5 million km long, flying along an Earth-like heliocentric orbit. A test mass floats free inside each spacecraft, effectively in free-fall, while the spacecraft around it absorbs the effects of light pressure, solar wind particles, and anything that might perturb its orbit. Lasers will be used to measure very accurately the distances between the test masses. Changes in distance will then signal the passing of gravitational waves.
We should end by acknowledging that the ideas discussed in this chapter may seem strange and overwhelming, especially the first time you read them. The consequences of the general theory of relatively take some getting used to. But they make the universe more bizarre—and interesting—than you probably thought before you took this course.
### Key Concepts and Summary
General relativity predicts that the rearrangement of matter in space should produce gravitational waves. The existence of such waves was first confirmed in observations of a pulsar in orbit around another neutron star whose orbits were spiraling closer and losing energy in the form of gravitational waves. In 2015, LIGO found gravitational waves directly by detecting the signal produced by the merger of two stellar-mass black holes, opening a new window on the universe. Since then, many other gravitational wave signals have been found, signaling the mergers of both black holes and neutron stars.
### For Further Exploration
### Articles
### Black Holes
Charles, P. & Wagner, R. “Black Holes in Binary Stars: Weighing the Evidence.” Sky & Telescope (May 1996): 38. Excellent review of how we find stellar-mass black holes.
Gezari, S. “Star-Shredding Black Holes.” Sky & Telescope (June 2013): 16. When black holes and stars collide.
Jayawardhana, R. “Beyond Black.” Astronomy (June 2002): 28. On finding evidence of the existence of event horizons and thus black holes.
Nadis, S. “Black Holes: Seeing the Unseeable.” Astronomy (April 2007): 26. A brief history of the black hole idea and an introduction to potential new ways to observe them.
Psallis, D. & Sheperd, D. “The Black Hole Test.” Scientific American (September 2015): 74–79. The Event Horizon Telescope (a network of radio telescopes) will test some of the stranger predictions of general relativity for the regions near black holes. The September 2015 issue of Scientific American was devoted to a celebration of the 100th anniversary of the general theory of relativity.
Rees, M. “To the Edge of Space and Time.” Astronomy (July 1998): 48. Good, quick overview.
Talcott, R. “Black Holes in our Backyard.” Astronomy (September 2012): 44. Discussion of different kinds of black holes in the Milky Way and the 19 objects known to be black holes.
### Gravitational Waves
Bartusiak, M. “Catch a Gravity Wave.” Astronomy (October 2000): 54.
Gibbs, W. “Ripples in Spacetime.” Scientific American (April 2002): 62.
Haynes, K., & Betz, E. “A Wrinkle in Spacetime Confirms Einstein’s Gravitation.” Astronomy (May 2016): 22. On the direct detection of gravity waves.
Sanders, G., and Beckett, D. “LIGO: An Antenna Tuned to the Songs of Gravity.” Sky & Telescope (October 2000): 41.
### Websites
### Black Holes
Black Hole Encyclopedia: http://blackholes.stardate.org. From StarDate at the University of Texas McDonald Observatory.
Black Holes: http://science.nasa.gov/astrophysics/focus-areas/black-holes. NASA overview of black holes, along with links to the most recent news and discoveries.
Introduction to Black Holes: https://www.newscientist.com/article/dn18348-introduction-black-holes/. Basic information from New Scientist magazine.
Virtual Trips into Black Holes and Neutron Stars: http://antwrp.gsfc.nasa.gov/htmltest/rjn_bht.html. By Robert Nemiroff at Michigan Technological University.
### Gravitational Waves
Advanced LIGO: https://www.advancedligo.mit.edu. The full story on this gravitational wave observatory.
eLISA: https://www.elisascience.org.
Gravitational Waves Detected, Confirming Einstein’s Theory: http://www.nytimes.com/2016/02/12/science/ligo-gravitational-waves-black-holes-einstein.html. New York Times article and videos on the discovery of gravitational waves.
Gravitational Waves Discovered from Colliding Black Holes: http://www.scientificamerican.com/article/gravitational-waves-discovered-from-colliding-black-holes1. Scientific American coverage of the discovery of gravitational waves (note the additional materials available in the menu at the right).
LIGO Caltech: https://www.ligo.caltech.edu.
### Videos
### Black Holes
Black Holes: The End of Time or a New Beginning?: https://www.youtube.com/watch?v=mgtJRsdKe6Q. 2012 Silicon Valley Astronomy Lecture by Roger Blandford (1:29:52).
Death by Black Hole: https://www.youtube.com/watch?v=h1iJXOUMJpg. Neil deGrasse Tyson explains spaghettification with only his hands (5:34).
Hearts of Darkness: Black Holes in Space: https://www.youtube.com/watch?v=4tiAOldypLk. 2010 Silicon Valley Astronomy Lecture by Alex Filippenko (1:56:11).
### Gravitational Waves
Journey of a Gravitational Wave: https://www.youtube.com/watch?v=FlDtXIBrAYE. Introduction from LIGO Caltech (2:55).
LIGO’s First Detection of Gravitational Waves: https://www.youtube.com/watch?v=gw-i_VKd6Wo. Explanation and animations from PBS Digital Studio (9:31).
Two Black Holes Merge into One: https://www.youtube.com/watch?v=I_88S8DWbcU. Simulation from LIGO Caltech (0:35).
What the Discovery of Gravitational Waves Means: https://www.youtube.com/watch?v=jMVAgCPYYHY. TED Talk by Allan Adams (10:58).
### Collaborative Group Activities
1. A computer science major takes an astronomy course like the one you are taking and becomes fascinated with black holes. Later in life, he founds his own internet company and becomes very wealthy when it goes public. He sets up a foundation to support the search for black holes in our Galaxy. Your group is the allocation committee of this foundation. How would you distribute money each year to increase the chances that more black holes will be found?
2. Suppose for a minute that stars evolve without losing any mass at any stage of their lives. Your group is given a list of binary star systems. Each binary contains one main-sequence star and one invisible companion. The spectral types of the main-sequence stars range from spectral type O to M. Your job is to determine whether any of the invisible companions might be black holes. Which ones are worth observing? Why? (Hint: Remember that in a binary star system, the two stars form at the same time, but the pace of their evolution depends on the mass of each star.)
3. You live in the far future, and the members of your group have been convicted (falsely) of high treason. The method of execution is to send everyone into a black hole, but you get to pick which one. Since you are doomed to die, you would at least like to see what the inside of a black hole is like—even if you can’t tell anyone outside about it. Would you choose a black hole with a mass equal to that of Jupiter or one with a mass equal to that of an entire galaxy? Why? What would happen to you as you approached the event horizon in each case? (Hint: Consider the difference in force on your feet and your head as you cross over the event horizon.)
4. General relativity is one of the areas of modern astrophysics where we can clearly see the frontiers of human knowledge. We have begun to learn about black holes and warped spacetime recently and are humbled by how much we still don’t know. Research in this field is supported mostly by grants from government agencies. Have your group discuss what reasons there are for our tax dollars to support such “far out” (seemingly impractical) work. Can you make a list of “far out” areas of research in past centuries that later led to practical applications? What if general relativity does not have many practical applications? Do you think a small part of society’s funds should still go to exploring theories about the nature of space and time?
5. Once you all have read this chapter, work with your group to come up with a plot for a science fiction story that uses the properties of black holes.
6. Black holes seem to be fascinating not just to astronomers but to the public, and they have become part of popular culture. Searching online, have group members research examples of black holes in music, advertising, cartoons, and the movies, and then make a presentation to share the examples you found with the whole class.
7. As mentioned in the Gravity and Time Machines feature box in this chapter, the film Interstellar has a lot of black hole science in its plot and scenery. That’s because astrophysicist Kip Thorne at Caltech had a big hand in writing the initial treatment for the movie, and later producing it. Get your group members together (be sure you have popcorn) for a viewing of the movie and then try to use your knowledge of black holes from this chapter to explain the plot. (Note that the film also uses the concept of a wormhole, which we don’t discuss in this chapter. A wormhole is a theoretically possible way to use a large, spinning black hole to find a way to travel from one place in the universe to another without having to go through regular spacetime to get there.)
### Review Questions
### Thought Questions
### Figuring for Yourself
|
# The Milky Way Galaxy
## Thinking Ahead
Today, we know that our Sun is just one of the many billions of stars that make up the huge cosmic island we call the Milky Way Galaxy. How can we “weigh” such an enormous system of stars and measure its total mass?
One of the most striking features you can see in a truly dark sky—one without light pollution—is the band of faint white light called the Milky Way, which stretches from one horizon to the other. The name comes from an ancient Greek legend that compared its faint white splash of light to a stream of spilled milk. But folktales differ from culture to culture: one East African tribe thought of the hazy band as the smoke of ancient campfires, several Native American stories tell of a path across the sky traveled by sacred animals, and in Siberia, the diffuse arc was known as the seam of the tent of the sky.
In 1610, Galileo made the first telescopic survey of the Milky Way and discovered that it is composed of a multitude of individual stars. Today, we know that the Milky Way comprises our view inward of the huge cosmic pinwheel that we call the Milky Way Galaxy and that is our home. Moreover, our Galaxy is now recognized as just one galaxy among many billions of other galaxies in the cosmos. |
# The Milky Way Galaxy
## The Architecture of the Galaxy
### Learning Objectives
By the end of this section, you will be able to:
1. Explain why William and Caroline Herschel concluded that the Milky Way has a flattened structure centered on the Sun and solar system
2. Describe the challenges of determining the Galaxy’s structure from our vantage point within it
3. Identify the main components of the Galaxy
The Milky Way Galaxy surrounds us, and you might think it is easy to study because it is so close. However, the very fact that we are embedded within it presents a difficult challenge. Suppose you were given the task of mapping New York City. You could do a much better job from a helicopter flying over the city than you could if you were standing in Times Square. Similarly, it would be easier to map our Galaxy if we could only get a little way outside it, but instead we are trapped inside and way out in its suburbs—far from the galactic equivalent of Times Square.
### Herschel Measures the Galaxy
In 1785, William Herschel () made the first important discovery about the architecture of the Milky Way Galaxy. Using a large reflecting telescope that he had built, William and his sister Caroline counted stars in different directions of the sky. They found that most of the stars they could see lay in a flattened structure encircling the sky, and that the numbers of stars were about the same in any direction around this structure. Herschel therefore concluded that the stellar system to which the Sun belongs has the shape of a disk or wheel (he might have called it a Frisbee except Frisbees hadn’t been invented yet), and that the Sun must be near the hub of the wheel ().
To understand why Herschel reached this conclusion, imagine that you are a member of a band standing in formation during halftime at a football game. If you count the band members you see in different directions and get about the same number each time, you can conclude that the band has arranged itself in a circular pattern with you at the center. Since you see no band members above you or underground, you know that the circle made by the band is much flatter than it is wide.
We now know that Herschel was right about the shape of our system, but wrong about where the Sun lies within the disk. As we saw in Between the Stars: Gas and Dust in Space, we live in a dusty Galaxy. Because interstellar dust absorbs the light from stars, Herschel could see only those stars within about 6000 light-years of the Sun. Today we know that this is a very small section of the entire 100,000-light-year-diameter disk of stars that makes up the Galaxy.
### Disks and Haloes
With modern instruments, astronomers can now penetrate the “smog” of the Milky Way by studying radio and infrared emissions from distant parts of the Galaxy. Measurements at these wavelengths (as well as observations of other galaxies like ours) have given us a good idea of what the Milky Way would look like if we could observe it from a distance.
sketches what we would see if we could view the Galaxy face-on and edge-on. The brightest part of the Galaxy consists of a thin, circular, rotating disk of stars distributed across a region about 100,000 light-years in diameter and about 2000 light-years thick. (Given how thin the disk is, perhaps a CD is a more appropriate analogy than a wheel.) The very youngest stars, and the dust and gas from which stars form, are found typically within 100 light-years of the plane of the Milky Way Galaxy. The mass of the interstellar matter is about 15% of the mass of the stars in this disk.
As the diagram in shows, the stars, gas, and dust are not spread evenly throughout the disk but are concentrated into a central bar and a series of spiral arms. Recent infrared observations have confirmed that the central bar is composed mostly of old yellow-red stars. The two main spiral arms appear to connect with the ends of the bar. They are highlighted by the blue light from young hot stars. We know many other spiral galaxies that also have bar-shaped concentrations of stars in their central regions; for that reason they are called barred spirals. shows two other galaxies—one without a bar and one with a strong bar—to give you a basis for comparison to our own. We will describe our spiral structure in more detail shortly. The Sun is located about halfway between the center of the Galaxy and the edge of the disk and only about 70 light-years above its central plane.
Our thin disk of young stars, gas, and dust is embedded in a thicker but more diffuse disk of older stars; this thicker disk extends about 1000 light-years above and 1000 light-years below the midplane of the thin disk and contains only about 5% as much mass as the thin disk. The stars thin out with distance from the galactic plane and don’t have a sharp edge. Approximately 2/3 of the stars in the thick disk are within 1000 light-years of midplane.
Close in to the galactic center (within about 10,000 light-years), the stars are no longer confined to the disk but form a central bulge (or nuclear bulge). When we observe with visible light, we can glimpse the stars in the bulge only in those rare directions where there happens to be relatively little interstellar dust. The first picture that actually succeeded in showing the bulge as a whole was taken at infrared wavelengths ().
The fact that much of the bulge is obscured by dust makes its shape difficult to determine. For a long time, astronomers assumed it was spherical. However, infrared images and other data indicate that the bulge is about two times longer than it is wide, and shaped rather like a peanut. The relationship between this elongated inner bulge and the larger bar of stars remains uncertain. At the very center of the nuclear bulge is a tremendous concentration of matter, which we will discuss later in this chapter.
In our Galaxy, the thin and thick disks and the nuclear bulge are embedded in a spherical halo of very old, faint stars that extends to a distance of at least 150,000 light-years from the galactic center. Most of the globular clusters are also found in this halo.
The mass in the Milky Way extends even farther out, well beyond the boundary of the luminous stars to a distance of at least 200,000 light-years from the center of the Galaxy. This invisible mass has been give the name dark matter because it emits no light and cannot be seen with any telescope. Its composition is unknown, and it can be detected only because of its gravitational effects on the motions of luminous matter that we can see. We know that this extensive dark matter halo exists because of its effects on the orbits of distant star clusters and other dwarf galaxies that are associated with the Galaxy. This mysterious halo will be a subject of the section on The Mass of the Galaxy, and the properties of dark matter will be discussed more in the chapter on The Big Bang.
Some vital statistics of the thin and thick disks and the stellar halo are given in , with an illustration in . Note particularly how the ages of stars correlate with where they are found. As we shall see, this information holds important clues to how the Milky Way Galaxy formed.
Establishing this overall picture of the Galaxy from our dust-shrouded viewpoint inside the thin disk has been one of the great achievements of modern astronomy (and one that took decades of effort by astronomers working with a wide range of telescopes). One thing that helped enormously was the discovery that our Galaxy is not unique in its characteristics. There are many other flat, spiral-shaped islands of stars, gas, and dust in the universe. For example, the Milky Way somewhat resembles the Andromeda galaxy, which, at a distance of about 2.3 million light-years, is our nearest neighboring giant spiral galaxy. Just as you can get a much better picture of yourself if someone else takes the photo from a distance away, pictures and other diagnostic observations of nearby galaxies that resemble ours have been vital to our understanding of the properties of the Milky Way.
### Key Concepts and Summary
The Milky Way Galaxy consists of a thin disk containing dust, gas, and young and old stars; a spherical halo containing populations of very old stars, including RR Lyrae variable stars and globular star clusters; a thick, more diffuse disk with stars that have properties intermediate between those in the thin disk and the halo; a peanut-shaped nuclear bulge of mostly old stars around the center; and a supermassive black hole at the very center. The Sun is located roughly halfway out of the Milky Way, about 26,000 light-years from the center. |
# The Milky Way Galaxy
## Spiral Structure
### Learning Objectives
By the end of this section, you will be able to:
1. Describe the structure of the Milky Way Galaxy and how astronomers discovered it
2. Compare theoretical models for the formation of spiral arms in disk galaxies
Astronomers were able to make tremendous progress in mapping the spiral structure of the Milky Way after the discovery of the 21-cm line that comes from cool hydrogen (see Between the Stars: Gas and Dust in Space). Remember that the obscuring effect of interstellar dust prevents us from seeing stars at large distances in the disk at visible wavelengths. However, radio waves of 21-cm wavelength pass right through the dust, enabling astronomers to detect hydrogen atoms throughout the Galaxy. More recent surveys of the infrared emission from stars in the disk have provided a similar dust-free perspective of our Galaxy’s stellar distribution. Despite all this progress over the past fifty years, we are still just beginning to pin down the precise structure of our Galaxy.
### The Arms of the Milky Way
Our radio observations of the disk’s gaseous component indicate that the Galaxy has two major spiral arms that emerge from the bar and several fainter arms and shorter spurs. You can see a recently assembled map of our Galaxy’s arm structure—derived from studies in the infrared—in .
The Sun is near the inner edge of a short arm (or spur) called the Orion-Cygnus Arm, which is about 10,000 light-years long and contains such conspicuous features as the Cygnus Rift (the great dark nebula in the summer Milky Way) and the bright Orion Nebula. shows a few other objects that share this small section of the Galaxy with us and are easy to see. Remember, the farther away we try to look from our own arm, the more the dust in the Galaxy builds up and makes it hard to see with visible light.
### Formation of Spiral Structure
At the Sun’s distance from its center, the Galaxy does not rotate like a solid wheel or a CD inside your player. Instead, the way individual objects turn around the center of the Galaxy is more like the solar system. Stars, as well as the clouds of gas and dust, obey Kepler’s third law. Objects farther from the center take longer to complete an orbit around the Galaxy than do those closer to the center. In other words, stars (and interstellar matter) in larger orbits in the Galaxy trail behind those in smaller ones. This effect is called differential galactic rotation.
Differential rotation would appear to explain why so much of the material in the disk of the Milky Way is concentrated into elongated features that resemble spiral arms. No matter what the original distribution of the material might be, the differential rotation of the Galaxy can stretch it out into spiral features. shows the development of spiral arms from two irregular blobs of interstellar matter. Notice that as the portions of the blobs closest to the galactic center move faster, those farther out trail behind.
But this picture of spiral arms presents astronomers with an immediate problem. If that’s all there were to the story, differential rotation—over the roughly 13-billion-year history of the Galaxy—would have wound the Galaxy’s arms tighter and tighter until all semblance of spiral structure had disappeared. But did the Milky Way actually have spiral arms when it formed 13 billion years ago? And do spiral arms, once formed, last for that long a time?
With the advent of the Hubble Space Telescope, it has become possible to observe the structure of very distant galaxies and to see what they were like shortly after they began to form more than 13 billion years ago. What the observations show is that galaxies in their infancy had bright, clumpy star-forming regions, but no regular spiral structure.
Over the next few billion years, the galaxies began to “settle down.” The galaxies that were to become spirals lost their massive clumps and developed a central bulge. The turbulence in these galaxies decreased, rotation began to dominate the motions of the stars and gas, and stars began to form in a much quieter disk. Smaller star-forming clumps began to form fuzzy, not-very-distinct spiral arms. Bright, well-defined spiral arms began to appear only when the galaxies were about 3.6 billion years old. Initially, there were two well-defined arms. Multi-armed structures in galaxies like we see in the Milky Way appeared only when the universe was about 8 billion years old.
We will discuss the history of galaxies in more detail in The Evolution and Distribution of Galaxies. But, even from our brief discussion, you can get the sense that the spiral structures we now observe in mature galaxies have come along later in the full story of how things develop in the universe.
Scientists have used supercomputer calculations to model the formation and evolution of the arms. These calculations follow the motions of up to 100 million “star particles” to see whether gravitational forces can cause them to form spiral structure. What these calculations show is that giant molecular clouds (which we discussed in Between the Stars: Gas and Dust in Space) have enough gravitational influence over their surroundings to initiate the formation of structures that look like spiral arms. These arms then become self-perpetuating and can survive for at least several billion years. The arms may change their brightness over time as star formation comes and goes, but they are not temporary features. The concentration of matter in the arms exerts sufficient gravitational force to keep the arms together over long periods of time.
### Key Concepts and Summary
The gaseous distribution in the Galaxy’s disk has two main spiral arms that emerge from the ends of the central bar, along with several fainter arms and short spurs; the Sun is located in one of those spurs. Measurements show that the Galaxy does not rotate as a solid body, but instead its stars and gas follow differential rotation, such that the material closer to the galactic center completes its orbit more quickly. Observations show that galaxies like the Milky Way take several billion years after they began to form to develop spiral structure. |
# The Milky Way Galaxy
## The Mass of the Galaxy
### Learning Objectives
By the end of this section, you will be able to:
1. Describe historical attempts to determine the mass of the Galaxy
2. Interpret the observed rotation curve of our Galaxy to suggest the presence of dark matter whose distribution extends well beyond the Sun’s orbit
When we described the sections of the Milky Way, we said that the stars are now known to be surrounded by a much larger halo of invisible matter. Let’s see how this surprising discovery was made.
### Kepler Helps Weigh the Galaxy
The Sun, like all the other stars in the Galaxy, orbits the center of the Milky Way. Our star’s orbit is nearly circular and lies in the Galaxy’s disk. The speed of the Sun in its orbit is about 200 kilometers per second, which means it takes us approximately 225 million years to go once around the center of the Galaxy. We call the period of the Sun’s revolution the galactic year. It is a long time compared to human time scales; during the entire lifetime of Earth, only about 20 galactic years have passed. This means that we have gone only a tiny fraction of the way around the Galaxy in all the time that humans have gazed into the sky.
We can use the information about the Sun’s orbit to estimate the mass of the Galaxy (just as we could “weigh” the Sun by monitoring the orbit of a planet around it—see Orbits and Gravity). Let’s assume that the Sun’s orbit is circular and that the Galaxy is roughly spherical, (we know the Galaxy is shaped more like a disk, but to simplify the calculation we will make this assumption, which illustrates the basic approach). Long ago, Newton showed that if you have matter distributed in the shape of a sphere, then it is simple to calculate the pull of gravity on some object just outside that sphere: you can assume that gravity acts as if all the matter were concentrated at a point in the center of the sphere. For our calculation, then, we can assume that all the mass that lies inward of the Sun’s position is concentrated at the center of the Galaxy, and that the Sun orbits that point from a distance of about 26,000 light-years.
This is the sort of situation to which Kepler’s third law (as modified by Newton) can be directly applied. Plugging numbers into Kepler’s formula, we can calculate the sum of the masses of the Galaxy and the Sun. However, the mass of the Sun is completely trivial compared to the mass of the Galaxy. Thus, for all practical purposes, the result (about 100 billion times the mass of the Sun) is the mass of the Milky Way. More sophisticated calculations based on more sophisticated models give a similar result.
Our estimate tells us how much mass is contained in the volume inside the Sun’s orbit. This is a good estimate for the total mass of the Galaxy only if hardly any mass lies outside the Sun’s orbit. For many years astronomers thought this assumption was reasonable. The number of bright stars and the amount of luminous matter (meaning any material from which we can detect electromagnetic radiation) both drop off dramatically at distances of more than about 30,000 light-years from the galactic center. Little did we suspect how wrong our assumption was.
### A Galaxy of Mostly Invisible Matter
In science, what seems to be a reasonable assumption can later turn out to be wrong (which is why we continue to do observations and experiments every chance we get). There is a lot more to the Milky Way than meets the eye (or our instruments). While there is relatively little luminous matter beyond 30,000 light-years, we now know that a lot of invisible matter exists at great distances from the galactic center.
We can understand how astronomers detected this invisible matter by remembering that according to Kepler’s third law, objects orbiting at large distances from a massive object will move more slowly than objects that are closer to that central mass. In the case of the solar system, for example, the outer planets move more slowly in their orbits than the planets close to the Sun.
There are a few objects, including globular clusters and some nearby small satellite galaxies, that lie well outside the luminous boundary of the Milky Way. If most of the mass of our Galaxy were concentrated within the luminous region, then these very distant objects should travel around their galactic orbits at lower speeds than, for example, the Sun does.
It turns out, however, that the few objects seen at large distances from the luminous boundary of the Milky Way Galaxy are not moving more slowly than the Sun. There are some globular clusters and RR Lyrae stars between 30,000 and 150,000 light-years from the center of the Galaxy, and their orbital velocities are even greater than the Sun’s ().
What do these higher speeds mean? Kepler’s third law tells us how fast objects must orbit a source of gravity if they are neither to fall in (because they move too slowly) nor to escape (because they move too fast). If the Galaxy had only the mass calculated by Kepler, then the high-speed outer objects should long ago have escaped the grip of the Milky Way. The fact that they have not done so means that our Galaxy must have more gravity than can be supplied by the luminous matter—in fact, a lot more gravity. The high speed of these outer objects tells us that the source of this extra gravity must extend outward from the center far beyond the Sun’s orbit.
If the gravity were supplied by stars or by something else that gives off radiation, we should have spotted this additional outer material long ago. We are therefore forced to the reluctant conclusion that this matter is invisible and has, except for its gravitational pull, gone entirely undetected.
Studies of the motions of the most remote globular clusters and the small galaxies that orbit our own show that the total mass of the Galaxy is at least MSun, which is about twenty times greater than the amount of luminous matter. Moreover, the dark matter (as astronomers have come to call the invisible material) extends to a distance of at least 200,000 light-years from the center of the Galaxy. Observations indicate that this dark matter halo is almost but not quite spherical.
The obvious question is: what is the dark matter made of? Let’s look at a list of “suspects” taken from our study of astronomy so far. Since this matter is invisible, it clearly cannot be in the form of ordinary stars. And it cannot be gas in any form (remember that there has to be a lot of it). If it were neutral hydrogen gas, its 21-cm wavelength spectral-line emission would have been detected as radio waves. If it were ionized hydrogen, it should be hot enough to emit visible radiation. If a lot of hydrogen atoms out there had combined into hydrogen molecules, these should produce dark features in the ultraviolet spectra of objects lying beyond the Galaxy, but such features have not been seen. Nor can the dark matter consist of interstellar dust, since in the required quantities, the dust would significantly obscure the light from distant galaxies.
What are our other possibilities? The dark matter cannot be a huge number of black holes (of stellar mass) or old neutron stars, since interstellar matter falling onto such objects would produce more X-rays than are observed. Also, recall that the formation of black holes and neutron stars is preceded by a substantial amount of mass loss, which scatters heavy elements into space to be incorporated into subsequent generations of stars. If the dark matter consisted of an enormous number of any of those objects, they would have blown off and recycled a lot of heavier elements over the history of the Galaxy. In that case, the young stars we observe in our Galaxy today would contain much greater abundances of heavy elements than they actually do.
Brown dwarfs and lone Jupiter-like planets have also been ruled out. First of all, there would have to be an awful lot of them to make up so much dark matter. But we have a more direct test of whether so many low-mass objects could actually be lurking out there. As we learned in Black Holes and Curved Spacetime, the general theory of relativity predicts that the path traveled by light is changed when it passes near a concentration of mass. It turns out that when the two objects appear close enough together in the sky, the mass closer to us can bend the light from farther away. With just the right alignment, the image of the more distant object also becomes significantly brighter. By looking for the temporary brightening that occurs when a dark matter object in our own Galaxy moves across the path traveled by light from stars in the Magellanic Clouds, astronomers have now shown that the dark matter cannot be made up of a lot of small objects with masses between one-millionth and one-tenth the mass of the Sun.
What’s left? One possibility is that the dark matter is composed of exotic subatomic particles of a type not yet detected on Earth. Very sophisticated (and difficult) experiments are now under way to look for such particles. Stay tuned to see whether anything like that turns up.
We should add that the problem of dark matter is by no means confined to the Milky Way. Observations show that dark matter must also be present in other galaxies (whose outer regions also orbit too fast “for their own good”—they also have flat rotation curves). As we will see, dark matter even exists in great clusters of galaxies whose members are now known to move around under the influence of far more gravity than can be accounted for by luminous matter alone.
Stop a moment and consider how astounding the conclusion we have reached really is. Perhaps as much as 95% of the mass in our Galaxy (and many other galaxies) is not only invisible, but we do not even know what it is made of. The stars and raw material we can observe may be merely the tip of the cosmic iceberg; underlying it all may be other matter, perhaps familiar, perhaps startlingly new. Understanding the nature of this dark matter is one of the great challenges of astronomy today; you will learn more about this in A Universe of (Mostly) Dark Matter and Dark Energy.
### Key Concepts and Summary
The Sun revolves completely around the galactic center in about 225 million years (a galactic year). The mass of the Galaxy can be determined by measuring the orbital velocities of stars and interstellar matter. The total mass of the Galaxy is about MSun. As much as 95% of this mass consists of dark matter that emits no electromagnetic radiation and can be detected only because of the gravitational force it exerts on visible stars and interstellar matter. This dark matter is located mostly in the Galaxy’s halo; its nature is not well understood at present. |
# The Milky Way Galaxy
## The Center of the Galaxy
### Learning Objectives
By the end of this section, you will be able to:
1. Describe the radio and X-ray observations that indicate energetic phenomena are occurring at the galactic center
2. Explain what has been revealed by high-resolution near-infrared imaging of the galactic center
3. Discuss how these near-infrared images, when combined with Kepler’s third law of motion, can be used to derive the mass of the central gravitating object
At the beginning of this chapter, we hinted that the core of our Galaxy contains a large concentration of mass. In fact, we now have evidence that the very center contains a black hole with a mass equivalent to 4.6 million Suns and that all this mass fits within a sphere that has less than the diameter of Mercury’s orbit. Such monster black holes are called supermassive black holes by astronomers, to indicate that the mass they contain is far greater than that of the typical black hole created by the death of a single star. It is amazing that we have very convincing evidence that this black hole really does exist. After all, recall from the chapter on Black Holes and Curved Spacetime that we cannot see a black hole directly because by definition it radiates no energy. And we cannot even see into the center of the Galaxy in visible light because of absorption by the interstellar dust that lies between us and the galactic center. Light from the central region of the Galaxy is dimmed by a factor of a trillion (1012) by all this dust.
Fortunately, we are not so blind at other wavelengths. Infrared and radio radiation, which have long wavelengths compared to the sizes of the interstellar dust grains, flow unimpeded past the dust particles and so reach our telescopes with hardly any dimming. In fact, the very bright radio source in the nucleus of the Galaxy, now known as Sagittarius A* (pronounced “Sagittarius A-star” and abbreviated Sgr A*), was the first cosmic radio source astronomers discovered.
### A Journey toward the Center
Let’s take a voyage to the mysterious heart of our Galaxy and see what’s there. is a radio image of a region about 1500 light-years across, centered on Sagittarius A, a bright radio source that contains the smaller Sagittarius A*. Much of the radio emission comes from hot gas heated either by clusters of hot stars (the stars themselves do not produce radio emission and can’t be seen in the image) or by supernova blast waves. Most of the hollow circles visible on the radio image are supernova remnants. The other main source of radio emission is from electrons moving at high speed in regions with strong magnetic fields. The bright thin arcs and “threads” on the figure show us where this type of emission is produced.
Now let’s focus in on the central region using a more energetic form of electromagnetic radiation. shows the X-ray emission from a smaller region 400 light-years wide and 900 light-years across centered in Sagittarius A*. Seen in this picture are hundreds of hot white dwarfs, neutron stars, and stellar black holes with accretion disks glowing with X-rays. The diffuse haze in the picture is emission from gas that lies among the stars and is at a temperature of 10 million K.
As we approach the center of the Galaxy, we find the supermassive black hole Sagittarius A. There are also thousands of stars within a few lightyears of Sagittarius A*. Most of these are old, reddish main-sequence stars. But there are also about a hundred hot OB stars that must have formed within the last few million years. There is as yet no good explanation for how stars could have formed recently so close to a supermassive black hole. Perhaps they formed in a dense cluster of stars that was originally at a larger distance from the black hole and subsequently migrated closer.
There is currently no star formation at the galactic center, but there is lots of dust and molecular gas that is revolving around the black hole, along with some ionized gas streamers that are heated by the hot stars. is a radio map that shows these gas streamers.
### Finding the Heart of the Galaxy
Just what is Sagittarius A*, which lies right at the center our Galaxy? To establish that there really is a black hole there, we must show that there is a very large amount of mass crammed into a very tiny volume. As we saw in Black Holes and Curved Spacetime, proving that a black hole exists is a challenge because the black hole itself emits no radiation. What astronomers must do is prove that a black hole is the only possible explanation for our observations—that a small region contains far more mass than could be accounted for by a very dense cluster of stars or something else made of ordinary matter.
To put some numbers with this discussion, the radius of the event horizon of a galactic black hole with a mass of about 4 million MSun would be only about 17 times the size of the Sun—the equivalent of a single red giant star. The corresponding density within this region of space would be much higher than that of any star cluster or any other ordinary astronomical object. Therefore, we must measure both the diameter of Sagittarius A* and its mass. Both radio and infrared observations are required to give us the necessary evidence.
First, let’s look at how the mass can be measured. If we zero in on the inner few light-days of the Galaxy with an infrared telescope equipped with adaptive optics, we see a region crowded with individual stars (). These stars have now been observed for almost two decades, and astronomers have detected their rapid orbital motions around the very center of the Galaxy.
If we combine observations of their periods and the size of their orbits with Kepler’s third law, we can estimate the mass of the object that keeps them in their orbits. One of the stars has been observed for its full orbit of 15.6 years. Its closest approach takes it to a distance of only 124 AU or about 17 light-hours from the black hole. This orbit, when combined with observations of other stars close to the galactic center, indicates that a mass of 4.6 million MSun must be concentrated inside the orbit—that is, within 17 light-hours of the center of the Galaxy.
Even tighter limits on the size of the concentration of mass at the center of the Galaxy come from radio astronomy, which provided the first clue that a black hole might lie at the center of the Galaxy. As matter spirals inward toward the event horizon of a black hole, it is heated in a whirling accretion disk and produces radio radiation. (Such accretion disks were explained in Black Holes and Curved Spacetime.) Measurements of the size of the accretion disk with the Very Long Baseline Array, which provides very high spatial resolution, show that the diameter of the radio source Sagittarius A* is no larger than about 0.3 AU, or about the size of Mercury’s orbit. (In light units, that’s only 2.5 light-minutes!)
The observations thus show that 4.6 million solar masses are crammed into a volume that has a diameter that is no larger than the orbit of Mercury. If this were anything other than a supermassive black hole—low-mass stars that emit very little light or neutron stars or a very large number of small black holes— calculations show that these objects would be so densely packed that they would collapse to a single black hole within a hundred thousand years. That is a very short time compared with the age of the Galaxy, which probably began forming more than 13 billion years ago. Since it seems very unlikely that we would have caught such a complex cluster of objects just before it collapsed, the evidence for a supermassive black hole at the center of the Galaxy is convincing indeed.
### Finding the Source
Where did our galactic black hole come from? The origin of supermassive black holes in galaxies like ours is currently an active field of research. One possibility is that a large cloud of gas near the center of the Milky Way collapsed directly to form a black hole. Since we find large black holes at the centers of most other large galaxies (see Active Galaxies, Quasars, and Supermassive Black Holes)—even ones that are very young—this collapse probably would have taken place when the Milky Way was just beginning to take shape. The initial mass of this black hole might have been only a few tens of solar masses. Another way it could have started is that a massive star might have exploded to leave behind a seed black hole, or a dense cluster of stars might have collapsed into a black hole.
Once a black hole exists at the center of a galaxy, it can grow over the next several billion years by devouring nearby stars and gas clouds in the crowded central regions. It can also grow by merging with other black holes.
It appears that the monster black hole at the center of our Galaxy is not finished “eating.” At the present time, we observe clouds of gas and dust falling into the galactic center at the rate of about 1 MSun per thousand years. Stars are also on the black hole’s menu. The density of stars near the galactic center is high enough that we would expect a star to pass near the black hole and be swallowed by it every ten thousand years or so. As this happens, some of the energy of infall is released as radiation. As a result, the center of the Galaxy might flare up and even briefly outshine all the stars in the Milky Way. Other objects might also venture too close to the black hole and be pulled in. How great a flare we observe would depend on the mass of the object falling in.
In 2013, the Chandra X-ray satellite detected a flare from the center of our Galaxy that was 400 times brighter than the usual output from Sagittarius A*. A year later, a second flare, only half as bright, was also detected. This is much less energy than swallowing a whole star would produce. There are two theories to account for the flares. First, an asteroid might have ventured too close to the black hole and been heated to a very high temperature before being swallowed up. Alternatively, the flares might have involved interactions of the magnetic fields near the galactic center in a process similar to the one described for solar flares (see The Sun: A Garden-Variety Star). Astronomers continue to monitor the galactic center area for flares or other activity. Although the monster in the center of the Galaxy is not close enough to us to represent any danger, we still want to keep our eyes on it.
### Key Concepts and Summary
A supermassive black hole is located at the center of the Galaxy. Measurements of the velocities of stars located within a few light-days of the center show that the mass inside their orbits around the center is about 4.6 million MSun. Radio observations show that this mass is concentrated in a volume with a diameter similar to that of Mercury’s orbit. The density of this matter concentration exceeds that of the densest known star clusters by a factor of nearly a million. The only known object with such a high density and total mass is a black hole. |
# The Milky Way Galaxy
## Stellar Populations in the Galaxy
### Learning Objectives
By the end of this section, you will be able to:
1. Distinguish between population I and population II stars according to their locations, motions, heavy-element abundances, and ages
2. Explain why the oldest stars in the Galaxy are poor in elements heavier than hydrogen and helium, while stars like the Sun and even younger stars are typically richer in these heavy elements
In the first section of his chapter, we described the thin disk, thick disk, and stellar halo. Look back at and note some of the patterns. Young stars lie in the thin disk, are rich in metals, and orbit the Galaxy’s center at high speed. The stars in the halo are old, have low abundances of elements heavier than hydrogen and helium, and have highly elliptical orbits randomly oriented in direction (see ). Halo stars can plunge through the disk and central bulge, but they spend most of their time far above or below the plane of the Galaxy. The stars in the thick disk are intermediate between these two extremes. Let’s first see why age and heavier-element abundance are correlated and then see what these correlations tell us about the origin of our Galaxy.
### Two Kinds of Stars
The discovery that there are two different kinds of stars was first made by Walter Baade during World War II. As a German national, Baade was not allowed to do war research as many other U.S.-based scientists were doing, so he was able to make regular use of the Mount Wilson telescopes in southern California. His observations were aided by the darker skies that resulted from the wartime blackout of Los Angeles.
Among the things a large telescope and dark skies enabled Baade to examine carefully were other galaxies—neighbors of our Milky Way Galaxy. We will discuss other galaxies in the next chapter (Galaxies), but for now we will just mention that the nearest Galaxy that resembles our own (with a similar disk and spiral structure) is often called the Andromeda galaxy, after the constellation in which we find it.
Baade was impressed by the similarity of the mainly reddish stars in the Andromeda galaxy’s nuclear bulge to those in our Galaxy’s globular clusters and the halo. He also noted the difference in color between all these and the bluer stars found in the spiral arms near the Sun (). On this basis, he called the bright blue stars in the spiral arms population I and all the stars in the halo and globular clusters population II.
We now know that the populations differ not only in their locations in the Galaxy, but also in their chemical composition, age, and orbital motions around the center of the Galaxy. Population I stars are found only in the disk and follow nearly circular orbits around the galactic center. Examples are bright supergiant stars, main-sequence stars of high luminosity (spectral classes O and B), which are concentrated in the spiral arms, and members of young open star clusters. Interstellar matter and molecular clouds are found in the same places as population I stars.
Population II stars show no correlation with the location of the spiral arms. These objects are found throughout the Galaxy. Some are in the disk, but many others follow eccentric elliptical orbits that carry them high above the galactic disk into the halo. Examples include stars surrounded by planetary nebulae and RR Lyrae variable stars. The stars in globular clusters, found almost entirely in the Galaxy’s halo, are also classified as population II.
Today, we know much more about stellar evolution than astronomers did in the 1940s, and we can determine the ages of stars. Population I includes stars with a wide range of ages. While some are as old as 10 billion years, others are still forming today. For example, the Sun, which is about 5 billion years old, is a population I star. But so are the massive young stars in the Orion Nebula that have formed in the last few million years. Population II, on the other hand, consists entirely of old stars that formed very early in the history of the Galaxy; typical ages are 11 to 13 billion years.
We also now have good determinations of the compositions of stars. These are based on analyses of the stars’ detailed spectra. Nearly all stars appear to be composed mostly of hydrogen and helium, but their abundances of the heavier elements differ. In the Sun and other population I stars, the heavy elements (those heavier than hydrogen and helium) account for 1–4% of the total stellar mass. Population II stars in the outer galactic halo and in globular clusters have much lower abundances of the heavy elements—often less than one-hundredth the concentrations found in the Sun and in rare cases even lower. The oldest population II star discovered to date has less than one ten-millionth as much iron as the Sun, for example.
As we discussed in earlier chapters, heavy elements are created deep within the interiors of stars. They are added to the Galaxy’s reserves of raw material when stars die, and their material is recycled into new generations of stars. Thus, as time goes on, stars are born with larger and larger supplies of heavy elements. Population II stars formed when the abundance of elements heavier than hydrogen and helium was low. Population I stars formed later, after mass lost by dying members of the first generations of stars had seeded the interstellar medium with elements heavier than hydrogen and helium. Some are still forming now, when further generations have added to the supply of heavier elements available to new stars.
### The Real World
With rare exceptions, we should never trust any theory that divides the world into just two categories. While they can provide a starting point for hypotheses and experiments, they are often oversimplifications that need refinement a research continue. The idea of two populations helped organize our initial thoughts about the Galaxy, but we now know it cannot explain everything we observe. Even the different structures of the Galaxy—disk, halo, central bulge—are not so cleanly separated in terms of their locations, ages, and the heavy element content of the stars within them.
The exact definition of the Galaxy’s disk depends on what objects we use to define it, and, as we saw earlier, it has no sharp boundary. The hottest young stars and their associated gas and dust clouds are mostly in a region about 200 light-years thick. Older stars define a thicker disk that is about 2000 light-years thick. Halo stars spend most of their time high above or below the disk but pass through it on their highly elliptical orbits and so are sometimes found relatively near the Sun.
The highest density of stars is found in the central bulge, that bar-shaped inner region of the Galaxy. There are a few hot, young stars in the bulge, but most of the bulge stars are more than 10 billion years old. Yet unlike the halo stars of similar age, the abundance of heavy elements in the bulge stars is about the same as in the Sun. Why would that be?
Astronomers think that star formation in the crowded nuclear bulge occurred very rapidly just after the Milky Way Galaxy formed. After a few million years, the first generation of massive and short-lived stars then expelled heavy elements in supernova explosions and thereby enriched subsequent generations of stars. Thus, even stars that formed in the bulge more than 10 billion years ago started with a good supply of heavy elements.
Exactly the opposite occurred in the Small Magellanic Cloud, a small galaxy near the Milky Way, visible from Earth’s Southern Hemisphere. Even the youngest stars in this galaxy are deficient in heavy elements. We think this is because the little galaxy is not especially crowded, and star formation has occurred quite slowly. As a result there have been, so far, relatively few supernova explosions. Smaller galaxies also have more trouble holding onto the gas expelled by supernova explosions in order to recycle it. Low-mass galaxies exert only a modest gravitational force, and the high-speed gas ejected by supernovae can easily escape from them.
Which elements a star is endowed with thus depends not only on when the star formed in the history of its galaxy, but also on how many stars in its part of the galaxy had already completed their lives by the time the star is ready to form.
### Key Concepts and Summary
We can roughly divide the stars in the Galaxy into two categories. Old stars with few heavy elements are referred to as population II stars and are found in the halo and in globular clusters. Population I stars contain more heavy elements than globular cluster and halo stars, are typically younger and found in the disk, and are especially concentrated in the spiral arms. The Sun is a member of population I. Population I stars formed after previous generations of stars had produced heavy elements and ejected them into the interstellar medium. The bulge stars, most of which are more than 10 billion years old, have unusually high amounts of heavy elements, presumably because there were many massive first-generation stars in this dense region, and these quickly seeded the next generations of stars with heavier elements. |
# The Milky Way Galaxy
## The Formation of the Galaxy
### Learning Objectives
By the end of this section, you will be able to:
1. Describe the roles played by the collapse of a single cloud and mergers with other galaxies in building the Milky Way Galaxy we see today
2. Provide examples of globular clusters and satellite galaxies affected by the Milky Way’s strong gravity.
Information about stellar populations holds vital clues to how our Galaxy was built up over time. The flattened disk shape of the Galaxy suggests that it formed through a process similar to the one that leads to the formation of a protostar (see The Birth of Stars and the Discovery of Planets outside the Solar System). Building on this idea, astronomers first developed models that assumed the Galaxy formed from a single rotating cloud. But, as we shall see, this turns out to be only part of the story.
### The Protogalactic Cloud and the Monolithic Collapse Model
Because the oldest stars—those in the halo and in globular clusters—are distributed in a sphere centered on the nucleus of the Galaxy, it makes sense to assume that the protogalactic cloud that gave birth to our Galaxy was roughly spherical. The oldest stars in the halo have ages of 12 to 13 billion years, so we estimate that the formation of the Galaxy began about that long ago. (See the chapter on The Big Bang for other evidence that galaxies in general began forming a little more than 13 billion years ago.) Then, just as in the case of star formation, the protogalactic cloud collapsed and formed a thin rotating disk. Stars born before the cloud collapsed did not participate in the collapse, but have continued to orbit in the halo to the present day ().
Gravitational forces caused the gas in the thin disk to fragment into clouds or clumps with masses like those of star clusters. These individual clouds then fragmented further to form stars. Since the oldest stars in the disk are nearly as old as the youngest stars in the halo, the collapse must have been rapid (astronomically speaking), requiring perhaps no more than a few hundred million years.
### Collision Victims and the Multiple Merger Model
In past decades, astronomers have learned that the evolution of the Galaxy has not been quite as peaceful as this monolithic collapse model suggests. In 1994, astronomers discovered a small new galaxy in the direction of the constellation of Sagittarius. The Sagittarius dwarf galaxy is currently about 70,000 light-years away from Earth and 50,000 light-years from the center of the Galaxy. It is the closest galaxy known (). It is very elongated, and its shape indicates that it is being torn apart by our Galaxy’s gravitational tides—just as Comet Shoemaker-Levy 9 was torn apart when it passed too close to Jupiter in 1992.
The Sagittarius galaxy is much smaller than the Milky Way and is about 10,000 times less massive than our Galaxy. All of the stars in the Sagittarius dwarf galaxy seem destined to end up in the bulge and halo of the Milky Way. But don’t sound the funeral bells for the little galaxy quite yet; the ingestion of the Sagittarius dwarf will take another 100 million years or so, and the stars themselves will survive.
Since that discovery, evidence has been found for many more close encounters between our Galaxy and other neighbor galaxies. When a small galaxy ventures too close, the force of gravity exerted by our Galaxy tugs harder on the near side than on the far side. The net effect is that the stars that originally belonged to the small galaxy are spread out into a long stream that orbits through the halo of the Milky Way ().
Such a tidal stream can maintain its identity for billions of years. To date, astronomers have now identified streams originating from 12 small galaxies that ventured too close to the much larger Milky Way. Six more streams are associated with globular clusters. It has been suggested that large globular clusters, like Omega Centauri, are actually dense nuclei of cannibalized dwarf galaxies. The globular cluster M54 is now thought to be the nucleus of the Sagittarius dwarf we discussed earlier, which is currently merging with the Milky Way (). The stars in the outer regions of such galaxies are stripped off by the gravitational pull of the Milky Way, but the central dense regions may survive.
Calculations indicate that the Galaxy’s thick disk may be a product of one or more such collisions with other galaxies. Accretion of a satellite galaxy would stir up the orbits of the stars and gas clouds originally in the thin disk and cause them to move higher above and below the mid-plane of the Galaxy. Meanwhile, the Galaxy’s stars would add to the fluffed-up mix. If such a collision happened about 10 billion years ago, then any gas in the two galaxies that had not yet formed into stars would have had plenty of time to settle back down into the thin disk. The gas could then have begun forming subsequent generations of population I stars. This timing is also consistent with the typical ages of stars in the thick disk.
The Milky Way has more collisions in store. An example is the Canis Major dwarf galaxy, which has a mass of about 1% of the mass of the Milky Way. Already long tidal tails have been stripped from this galaxy, which have wrapped themselves around the Milky Way three times. Several of the globular clusters found in the Milky Way may also have come from the Canis Major dwarf, which is expected to merge gradually with the Milky Way over about the next billion years.
In about 4 billion years, the Milky Way itself will be swallowed up, since it and the Andromeda galaxy are on a collision course. Our computer models show that after a complex interaction, the two will merge to form a larger, more rounded galaxy ().
We are thus coming to realize that “environmental influences” (and not just a galaxy’s original characteristics) play an important role in determining the properties and development of our Galaxy. In future chapters we will see that collisions and mergers are a major factor in the evolution of many other galaxies as well.
### Key Concepts and Summary
The Galaxy began forming a little more than 13 billion years ago. Models suggest that the stars in the halo and globular clusters formed first, while the Galaxy was spherical. The gas, somewhat enriched in heavy elements by the first generation of stars, then collapsed from a spherical distribution to a rotating disk-shaped distribution. Stars are still forming today from the gas and dust that remain in the disk. Star formation occurs most rapidly in the spiral arms, where the density of interstellar matter is highest. The Galaxy captured (and still is capturing) additional stars and globular clusters from small galaxies that ventured too close to the Milky Way. In 3 to 4 billion years, the Galaxy will begin to collide with the Andromeda galaxy, and after about 7 billion years, the two galaxies will merge to form a giant elliptical galaxy.
### For Further Exploration
### Articles
Blitz, L. “The Dark Side of the Milky Way.” Scientific American (October 2011): 36–43. How we find dark matter and what it tells us about our Galaxy, its warped disk, and its satellite galaxies.
Dvorak, J. “Journey to the Heart of the Milky Way.” Astronomy (February 2008): 28. Measuring nearby stars to determine the properties of the black hole at the center.
Gallagher, J., Wyse, R., & Benjamin, R. “The New Milky Way.” Astronomy (September 2011): 26. Highlights all aspects of the Milky Way based on recent observations.
Goldstein, A. “Finding our Place in the Milky Way.” Astronomy (August 2015): 50. On the history of observations that pinpointed the Sun’s location in the Galaxy.
Haggard, D., & Bower, G. “In the Heart of the Milky Way.” Sky & Telescope (February 2016): 16. On observations of the Galaxy’s nucleus and the supermassive black hole and magnetar there.
Ibata, R., & Gibson, B. “The Ghosts of Galaxies Past.” Scientific American (April 2007): 40. About star streams in the Galaxy that are evidence of past mergers and collisions.
Irion, R. “A Crushing End for Our Galaxy.” Science (January 7, 2000): 62. On the role of mergers in the evolution of the Milky Way.
Irion, R. “Homing in on Black Holes.” Smithsonian (April 2008). On how astronomers probe the large black hole at the center of the Milky Way Galaxy.
Kruesi, L. “How We Mapped the Milky Way.” Astronomy (October 2009): 28.
Kruesi, L. “What Lurks in the Monstrous Heart of the Milky Way?” Astronomy (October 2015): 30. On the center of the Galaxy and the black hole there.
Laughlin, G., & Adams, F. “Celebrating the Galactic Millennium.” Astronomy (November 2001): 39. The long-term future of the Milky Way in the next 90 billion years.
Loeb, A., & Cox, T.J. “Our Galaxy’s Date with Destruction.” Astronomy (June 2008): 28. Describes the upcoming merger of Milky Way and Andromeda.
Szpir, M. “Passing the Bar Exam.” Astronomy (March 1999): 46. On evidence that our Galaxy is a barred spiral.
Tanner, A. “A Trip to the Galactic Center.” Sky & Telescope (April 2003): 44. Nice introduction, with observations pointing to the presence of a black hole.
Trimble, V., & Parker, S. “Meet the Milky Way.” Sky & Telescope (January 1995): 26. Overview of our Galaxy.
Wakker, B., & Richter, P. “Our Growing, Breathing Galaxy.” Scientific American (January 2004): 38. Evidence that our Galaxy is still being built up by the addition of gas and smaller neighbors.
Waller, W. “Redesigning the Milky Way.” Sky & Telescope (September 2004): 50. On recent multi-wavelength surveys of the Galaxy.
Whitt, K. “The Milky Way from the Inside.” Astronomy (November 2001): 58. Fantastic panorama image of the Galaxy, with finder charts and explanations.
### Websites
International Dark Sky Sanctuaries: http://darksky.org/idsp/sanctuaries/. A listing of dark-sky sanctuaries, parks, and reserves.
Multiwavelength Milky Way: https://asd.gsfc.nasa.gov/archive/mwmw/mmw_edu.html. This NASA site shows the plane of our Galaxy in a variety of wavelength bands, and includes background material and other resources.
Shapley-Curtis Debate in 1920: https://apod.nasa.gov/debate/debate20.html. In 1920, astronomers Harlow Shapley and Heber Curtis engaged in a historic debate about how large our Galaxy was and whether other galaxies existed. Here you can find historical and educational material about the debate.
UCLA Galactic Center Group: http://www.galacticcenter.astro.ucla.edu/. Learn more about the work of Andrea Ghez and colleagues on the central region of the Milky Way Galaxy.
### Videos
Crash of the Titans: http://www.spacetelescope.org/videos/hubblecast55a/. This Hubblecast from 2012 features Jay Anderson and Roeland van der Marel explaining how Andromeda will collide with the Milky Way in the distant future (5:07).
Diner at the Center of the Galaxy: https://www.youtube.com/watch?v=UP7ig8Gxftw. A short discussion from NASA ScienceCast of NuSTAR observations of flares from our Galaxy’s central black hole (3:23).
Hunt for a Supermassive Black Hole: https://www.ted.com/talks/andrea_ghez_the_hunt_for_a_supermassive_black_hole. 2009 TED talk by Andrea Ghez on searching for supermassive black holes, particularly the one at the center of the Milky Way (16:19).
Journey to the Galactic Center: https://www.youtube.com/watch?v=36xZsgZ0oSo. A brief silent trip into the cluster of stars near the galactic center showing their motions around the center (3:00).
The Nobel Prize Lecture by Dr. Andrea Ghez in 2020: https://www.youtube.com/watch?v=wGw6_CdvGKM.
### Collaborative Group Activities
1. You are captured by space aliens, who take you inside a complex cloud of interstellar gas, dust, and a few newly formed stars. To escape, you need to make a map of the cloud. Luckily, the aliens have a complete astronomical observatory with equipment for measuring all the bands of the electromagnetic spectrum. Using what you have learned in this chapter, have your group discuss what kinds of maps you would make of the cloud to plot your most effective escape route.
2. The diagram that Herschel made of the Milky Way has a very irregular outer boundary (see ). Can your group think of a reason for this? How did Herschel construct his map?
3. Suppose that for your final exam in this course, your group is assigned telescope time to observe a star selected for you by your professor. The professor tells you the position of the star in the sky (its right ascension and declination) but nothing else. You can make any observations you wish. How would you go about determining whether the star is a member of population I or population II?
4. The existence of dark matter comes as a great surprise, and its nature remains a mystery today. Someday astronomers will know a lot more about it (you can learn more about current findings in The Evolution and Distribution of Galaxies). Can your group make a list of earlier astronomical observations that began as a surprise and mystery, but wound up (with more observations) as well-understood parts of introductory textbooks?
5. Physicist Gregory Benford has written a series of science fiction novels that take place near the center of the Milky Way Galaxy in the far future. Suppose your group were writing such a story. Make a list of ways that the environment near the galactic center differs from the environment in the “galactic suburbs,” where the Sun is located. Would life as we know it have an easier or harder time surviving on planets that orbit stars near the center (and why)?
6. These days, in most urban areas, city lights completely swamp the faint light of the Milky Way in our skies. Have each member of your group survey 5 to 10 friends or relatives (you could spread out on campus to investigate or use social media or the phone), explaining what the Milky Way is and then asking if they have seen it. Also ask their age. Report back to your group and discuss your reactions to the survey. Is there any relationship between a person’s age and whether they have seen the Milky Way? How important is it that many kids growing up on Earth today never (or rarely) get to see our home Galaxy in the sky?
### Review Questions
### Thought Questions
### Figuring for Yourself
|
# Galaxies
## Thinking Ahead
In the last chapter, we explored our own Galaxy. But is it the only one? If there are others, are they like the Milky Way? How far away are they? Can we see them? As we shall learn, some galaxies turn out to be so far away that it has taken billions of years for their light to reach us. These remote galaxies can tell us what the universe was like when it was young.
In this chapter, we start our exploration of the vast realm of galaxies. Like tourists from a small town making their first visit to the great cities of the world, we will be awed by the beauty and variety of the galaxies. And yet, we will recognize that much of what we see is not so different from our experiences at home, and we will be impressed by how much we can learn by looking at structures built long ago.
We begin our voyage with a guide to the properties of galaxies, much as a tourist begins with a guidebook to the main features of the cities on the itinerary. In later chapters, we will look more carefully at the past history of galaxies, how they have changed over time, and how they acquired their many different forms. First, we’ll begin our voyage through the galaxies with the question: is our Galaxy the only one? |
# Galaxies
## The Discovery of Galaxies
### Learning Objectives
By the end of this section, you will be able to:
1. Describe the discoveries that confirmed the existence of galaxies that lie far beyond the Milky Way Galaxy
2. Explain why galaxies used to be called nebulae and why we don’t include them in that category any more
Growing up at a time when the Hubble Space Telescope orbits above our heads and giant telescopes are springing up on the great mountaintops of the world, you may be surprised to learn that we were not sure about the existence of other galaxies for a very long time. The very idea that other galaxies exist used to be controversial. Even into the 1920s, many astronomers thought the Milky Way encompassed all that exists in the universe. The evidence found in 1924 that meant our Galaxy is not alone was one of the great scientific discoveries of the twentieth century.
It was not that scientists weren’t asking questions. They questioned the composition and structure of the universe as early as the eighteenth century. However, with the telescopes available in earlier centuries, galaxies looked like small fuzzy patches of light that were difficult to distinguish from the star clusters and gas-and-dust clouds that are part of our own Galaxy. All objects that were not sharp points of light were given the same name, nebulae, the Latin word for “clouds.” Because their precise shapes were often hard to make out and no techniques had yet been devised for measuring their distances, the nature of the nebulae was the subject of much debate.
As early as the eighteenth century, the philosopher Immanuel Kant (1724–1804) suggested that some of the nebulae might be distant systems of stars (other Milky Ways), but the evidence to support this suggestion was beyond the capabilities of the telescopes of that time.
### Other Galaxies
By the early twentieth century, some nebulae had been correctly identified as star clusters, and others (such as the Orion Nebula) as gaseous nebulae. Most nebulae, however, looked faint and indistinct, even with the best telescopes, and their distances remained unknown. (For more on how such nebulae are named, by the way, see the feature box on Naming the Nebulae in the chapter on interstellar matter.) If these nebulae were nearby, with distances comparable to those of observable stars, they were most likely clouds of gas or groups of stars within our Galaxy. If, on the other hand, they were remote, far beyond the edge of the Galaxy, they could be other star systems containing billions of stars.
To determine what the nebulae are, astronomers had to find a way of measuring the distances to at least some of them. When the 2.5-meter (100-inch) telescope on Mount Wilson in Southern California went into operation, astronomers finally had the large telescope they needed to settle the controversy.
Working with the 2.5-meter telescope, Edwin Hubble was able to resolve individual stars in several of the brighter spiral-shaped nebulae, including M31, the great spiral in Andromeda (). Among these stars, he discovered some faint variable stars that—when he analyzed their light curves—turned out to be cepheids. Here were reliable indicators that Hubble could use to measure the distances to the nebulae using the technique pioneered by Henrietta Leavitt (see the chapter on Celestial Distances). After painstaking work, he estimated that the Andromeda galaxy was about 900,000 light-years away from us. At that enormous distance, it had to be a separate galaxy of stars located well outside the boundaries of the Milky Way. Today, we know the Andromeda galaxy is actually slightly more than twice as distant as Hubble’s first estimate, but his conclusion about its true nature remains unchanged.
No one in human history had ever measured a distance so great. When Hubble’s paper on the distances to nebulae was read before a meeting of the American Astronomical Society on the first day of 1925, the entire room erupted in a standing ovation. A new era had begun in the study of the universe, and a new scientific field—extragalactic astronomy—had just been born.
### Key Concepts and Summary
Faint star clusters, clouds of glowing gas, and galaxies all appeared as faint patches of light (or nebulae) in the telescopes available at the beginning of the twentieth century. It was only when Hubble measured the distance to the Andromeda galaxy using cepheid variables with the giant 2.5-meter reflector on Mount Wilson in 1924 that the existence of other galaxies similar to the Milky Way in size and content was established. |
# Galaxies
## Types of Galaxies
### Learning Objectives
By the end of this section, you will be able to:
1. Describe the properties and features of elliptical, spiral, and irregular galaxies
2. Explain what may cause a galaxy’s appearance to change over time
Having established the existence of other galaxies, Hubble and others began to observe them more closely—noting their shapes, their contents, and as many other properties as they could measure. This was a daunting task in the 1920s when obtaining a single photograph or spectrum of a galaxy could take a full night of tireless observing. Today, larger telescopes and electronic detectors have made this task less difficult, although observing the most distant galaxies (those that show us the universe in its earliest phases) still requires enormous effort.
The first step in trying to understand a new type of object is often simply to describe it. Remember, the first step in understanding stellar spectra was simply to sort them according to appearance (see Analyzing Starlight). As it turns out, the biggest and most luminous galaxies come in one of two basic shapes: either they are flatter and have spiral arms, like our own Galaxy, or they appear to be elliptical (blimp- or cigar-shaped). Many smaller galaxies, in contrast, have an irregular shape.
### Spiral Galaxies
Our own Galaxy and the Andromeda galaxy are typical, large spiral galaxies (see ). They consist of a central bulge, a halo, a disk, and spiral arms. Interstellar material is usually spread throughout the disks of spiral galaxies. Bright emission nebulae and hot, young stars are present, especially in the spiral arms, showing that new star formation is still occurring. The disks are often dusty, which is especially noticeable in those systems that we view almost edge on ().
In galaxies that we see face on, the bright stars and emission nebulae make the arms of spirals stand out like those of a pinwheel on the fourth of July. Open star clusters can be seen in the arms of nearer spirals, and globular clusters are often visible in their halos. Spiral galaxies contain a mixture of young and old stars, just as the Milky Way does. All spirals rotate, and the direction of their spin is such that the arms appear to trail much like the wake of a boat.
About two-thirds of the nearby spiral galaxies have boxy or peanut-shaped bars of stars running through their centers (). Showing great originality, astronomers call these galaxies barred spirals.
As we noted in The Milky Way Galaxy chapter, our Galaxy has a modest bar too (see ). The spiral arms usually begin from the ends of the bar. The fact that bars are so common suggests that they are long lived; it may be that most spiral galaxies form a bar at some point during their evolution.
In both barred and unbarred spiral galaxies, we observe a range of different shapes. At one extreme, the central bulge is large and luminous, the arms are faint and tightly coiled, and bright emission nebulae and supergiant stars are inconspicuous. Hubble, who developed a system of classifying galaxies by shape, gave these galaxies the designation Sa. Galaxies at this extreme may have no clear spiral arm structure, resulting in a lens-like appearance (they are sometimes referred to as lenticular galaxies). These galaxies seem to share as many properties with elliptical galaxies as they do with spiral galaxies
At the other extreme, the central bulge is small and the arms are loosely wound. In these Sc galaxies, luminous stars and emission nebulae are very prominent. Our Galaxy and the Andromeda galaxy are both intermediate between the two extremes. Photographs of spiral galaxies, illustrating the different types, are shown in , along with elliptical galaxies for comparison.
The luminous parts of spiral galaxies appear to range in diameter from about 20,000 to more than 100,000 light-years. Recent studies have found that there is probably a large amount of galactic material that extends well beyond the apparent edge of galaxies. This material appears to be thin, cold gas that is difficult to detect in most observations.
From the observational data available, the masses of the visible portions of spiral galaxies are estimated to range from 1 billion to 1 trillion Suns (109 to 1012 MSun). The total luminosities of most spirals fall in the range of 100 million to 100 billion times the luminosity of our Sun (108 to 1011 LSun). Our Galaxy and M31 are relatively large and massive, as spirals go. There is also considerable dark matter in and around the galaxies, just as there is in the Milky Way; we deduce its presence from how fast stars in the outer parts of the Galaxy are moving in their orbits.
### Elliptical Galaxies
Elliptical galaxies consist almost entirely of old stars and have shapes that are spheres or ellipsoids (somewhat squashed spheres) (). They contain no trace of spiral arms. Their light is dominated by older reddish stars (the population II stars discussed in The Milky Way Galaxy). In the larger nearby ellipticals, many globular clusters can be identified. Dust and emission nebulae are not conspicuous in elliptical galaxies, but many do contain a small amount of interstellar matter.
Elliptical galaxies show various degrees of flattening, ranging from systems that are approximately spherical to those that approach the flatness of spirals. The rare giant ellipticals (for example, ESO 325-G004 in ) reach luminosities of 1011 LSun. The mass in a giant elliptical can be as large as 1013 MSun. The diameters of these large galaxies extend over several hundred thousand light-years and are considerably larger than the largest spirals. Although individual stars orbit the center of an elliptical galaxy, the orbits are not all in the same direction, as occurs in spirals. Therefore, ellipticals don’t appear to rotate in a systematic way, making it difficult to estimate how much dark matter they contain.
We find that elliptical galaxies range all the way from the giants, just described, to dwarfs, which may be the most common kind of galaxy. Dwarf ellipticals (sometimes called dwarf spheroidals) escaped our notice for a long time because they are very faint and difficult to see. An example of a dwarf elliptical is the Leo I Dwarf Spheroidal galaxy shown in . The luminosity of this typical dwarf is about equal to that of the brightest globular clusters.
Intermediate between the giant and dwarf elliptical galaxies are systems such as M32 and M110, the two companions of the Andromeda galaxy. While they are often referred to as dwarf ellipticals, these galaxies are significantly larger than galaxies such as Leo I.
### Irregular Galaxies
Hubble classified galaxies that do not have the regular shapes associated with the categories we just described into the catchall bin of an irregular galaxy, and we continue to use his term. Typically, irregular galaxies have lower masses and luminosities than spiral galaxies. Irregular galaxies often appear disorganized, and many are undergoing relatively intense star formation activity. They contain both young population I stars and old population II stars.
The two best-known irregular galaxies are the Large Magellanic Cloud and Small Magellanic Cloud (), which are at a distance of a little more than 160,000 light-years away and are among our nearest extragalactic neighbors. Their names reflect the fact that Ferdinand Magellan and his crew, making their round-the-world journey, were the first European travelers to notice them. Although not visible from the United States and Europe, these two systems are prominent from the Southern Hemisphere, where they look like wispy clouds in the night sky. Since they are only about one-tenth as distant as the Andromeda galaxy, they present an excellent opportunity for astronomers to study nebulae, star clusters, variable stars, and other key objects in the setting of another galaxy. For example, the Large Magellanic Cloud contains the 30 Doradus complex (also known as the Tarantula Nebula), one of the largest and most luminous groups of supergiant stars known in any galaxy.
The Small Magellanic Cloud is considerably less massive than the Large Magellanic Cloud, and it is six times longer than it is wide. This narrow wisp of material points directly toward our Galaxy like an arrow. The Small Magellanic Cloud was most likely contorted into its current shape through gravitational interactions with the Milky Way. A large trail of debris from this interaction between the Milky Way and the Small Magellanic Cloud has been strewn across the sky and is seen as a series of gas clouds moving at abnormally high velocity, known as the Magellanic Stream. We will see that this kind of interaction between galaxies will help explain the irregular shapes of this whole category of small galaxies,
### Galaxy Evolution
Encouraged by the success of the H-R diagram for stars (see Analyzing Starlight), astronomers studying galaxies hoped to find some sort of comparable scheme, where differences in appearance could be tied to different evolutionary stages in the life of galaxies. Wouldn’t it be nice if every elliptical galaxy evolved into a spiral, for example, just as every main-sequence star evolves into a red giant? Several simple ideas of this kind were tried, some by Hubble himself, but none stood the test of time (and observation).
Because no simple scheme for evolving one type of galaxy into another could be found, astronomers then tended to the opposite point of view. For a while, most astronomers thought that all galaxies formed very early in the history of the universe and that the differences between them had to do with the rate of star formation. Ellipticals were those galaxies in which all the interstellar matter was converted rapidly into stars. Spirals were galaxies in which star formation occurred slowly over the entire lifetime of the galaxy. This idea turned out to be too simple as well.
Today, we understand that at least some galaxies have changed types over the billions of years since the universe began. As we shall see in later chapters, collisions and mergers between galaxies may dramatically change spiral galaxies into elliptical galaxies. Even isolated spirals (with no neighbor galaxies in sight) can change their appearance over time. As they consume their gas, the rate of star formation will slow down, and the spiral arms will gradually become less conspicuous. Over long periods, spirals therefore begin to look more like the galaxies at the middle of (which astronomers refer to as S0 types).
Over the past several decades, the study of how galaxies evolve over the lifetime of the universe has become one of the most active fields of astronomical research. We will discuss the evolution of galaxies in more detail in The Evolution and Distribution of Galaxies, but let’s first see in a little more detail just what different galaxies are like.
### Key Concepts and Summary
The majority of bright galaxies are either spirals or ellipticals. Spiral galaxies contain both old and young stars, as well as interstellar matter, and have typical masses in the range of 109 to 1012 MSun. Our own Galaxy is a large spiral. Ellipticals are spheroidal or slightly elongated systems that consist almost entirely of old stars, with very little interstellar matter. Elliptical galaxies range in size from giants, more massive than any spiral, down to dwarfs, with masses of only about 106 MSun. Dwarf ellipticals are probably the most common type of galaxy in the nearby universe. A small percentage of galaxies with more disorganized shapes are classified as irregulars. Galaxies may change their appearance over time due to collisions with other galaxies or by a change in the rate of star formation. |
# Galaxies
## Properties of Galaxies
### Learning Objectives
By the end of this section, you will be able to:
1. Describe the methods through which astronomers can estimate the mass of a galaxy
2. Characterize each type of galaxy by its mass-to-light ratio
The technique for deriving the masses of galaxies is basically the same as that used to estimate the mass of the Sun, the stars, and our own Galaxy. We measure how fast objects in the outer regions of the galaxy are orbiting the center, and then we use this information along with Kepler’s third law to calculate how much mass is inside that orbit.
### Masses of Galaxies
Astronomers can measure the rotation speed in spiral galaxies by obtaining spectra of either stars or gas, and looking for wavelength shifts produced by the Doppler effect. Remember that the faster something is moving toward or away from us, the greater the shift of the lines in its spectrum. Kepler’s law, together with such observations of the part of the Andromeda galaxy that is bright in visible light, for example, show it to have a galactic mass of about MSun (enough material to make 400 billion stars like the Sun).
The total mass of the Andromeda galaxy is greater than this, however, because we have not included the mass of the material that lies beyond its visible edge. Fortunately, there is a handful of objects—such as isolated stars, star clusters, and satellite galaxies—beyond the visible edge that allows astronomers to estimate how much additional matter is hidden out there. Recent studies show that the amount of dark matter beyond the visible edge of Andromeda may be as large as the mass of the bright portion of the galaxy. Indeed, using Kepler’s third law and the velocities of its satellite galaxies, the Andromeda galaxy is estimated to have a mass closer to MSun. The mass of the Milky Way Galaxy is estimated to be MSun, and so our Milky Way is turning out to be somewhat smaller than Andromeda.
Elliptical galaxies do not rotate in a systematic way, so we cannot determine a rotational velocity; therefore, we must use a slightly different technique to measure their mass. Their stars are still orbiting the galactic center, but not in the organized way that characterizes spirals. Since elliptical galaxies contain stars that are billions of years old, we can assume that the galaxies themselves are not flying apart. Therefore, if we can measure the various speeds with which the stars are moving in their orbits around the center of the galaxy, we can calculate how much mass the galaxy must contain in order to hold the stars within it.
In practice, the spectrum of a galaxy is a composite of the spectra of its many stars, whose different motions produce different Doppler shifts (some red, some blue). The result is that the lines we observe from the entire galaxy contain the combination of many Doppler shifts. When some stars provide blueshifts and others provide redshifts, they create a wider or broader absorption or emission feature than would the same lines in a hypothetical galaxy in which the stars had no orbital motion. Astronomers call this phenomenon line broadening. The amount by which each line broadens indicates the range of speeds at which the stars are moving with respect to the center of the galaxy. The range of speeds depends, in turn, on the force of gravity that holds the stars within the galaxies. With information about the speeds, it is possible to calculate the mass of an elliptical galaxy.
summarizes the range of masses (and other properties) of the various types of galaxies. Interestingly enough, the most and least massive galaxies are ellipticals. On average, irregular galaxies have less mass than spirals.
### Mass-to-Light Ratio
A useful way of characterizing a galaxy is by noting the ratio of its mass (in units of the Sun’s mass) to its light output (in units of the Sun’s luminosity). This single number tells us roughly what kind of stars make up most of the luminous population of the galaxy, and it also tells us whether a lot of dark matter is present. For stars like the Sun, the mass-to-light ratio is 1 by our definition.
Galaxies are not, of course, composed entirely of stars that are identical to the Sun. The overwhelming majority of stars are less massive and less luminous than the Sun, and usually these stars contribute most of the mass of a system without accounting for very much light. The mass-to-light ratio for low-mass stars is greater than 1 (you can verify this using the data in ). Therefore, a galaxy’s mass-to-light ratio is also generally greater than 1, with the exact value depending on the ratio of high-mass stars to low-mass stars.
Galaxies in which star formation is still occurring have many massive stars, and their mass-to-light ratios are usually in the range of 1 to 10. Galaxies consisting mostly of an older stellar population, such as ellipticals, in which the massive stars have already completed their evolution and have ceased to shine, have mass-to-light ratios of 10 to 20.
But these figures refer only to the inner, conspicuous parts of galaxies (). In The Milky Way Galaxy and above, we discussed the evidence for dark matter in the outer regions of our own Galaxy, extending much farther from the galactic center than do the bright stars and gas. Recent measurements of the rotation speeds of the outer parts of nearby galaxies, such as the Andromeda galaxy we discussed earlier, suggest that they too have extended distributions of dark matter around the visible disk of stars and dust. This largely invisible matter adds to the mass of the galaxy while contributing nothing to its luminosity, thus increasing the mass-to-light ratio. If dark invisible matter is present in a galaxy, its mass-to-light ratio can be as high as 100. The two different mass-to-light ratios measured for various types of galaxies are given in .
These measurements of other galaxies support the conclusion already reached from studies of the rotation of our own Galaxy—namely, that most of the material in the universe cannot at present be observed directly in any part of the electromagnetic spectrum. An understanding of the properties and distribution of this invisible matter is crucial to our understanding of galaxies. It’s becoming clearer and clearer that, through the gravitational force it exerts, dark matter plays a dominant role in galaxy formation and early evolution. There is an interesting parallel here between our time and the time during which Edwin Hubble was receiving his training in astronomy. By 1920, many scientists were aware that astronomy stood on the brink of important breakthroughs—if only the nature and behavior of the nebulae could be settled with better observations. In the same way, many astronomers today feel we may be closing in on a far more sophisticated understanding of the large-scale structure of the universe—if only we can learn more about the nature and properties of dark matter. If you follow astronomy articles in the news (as we hope you will), you should be hearing more about dark matter in the years to come.
### Key Concepts and Summary
The masses of spiral galaxies are determined from measurements of their rates of rotation. The masses of elliptical galaxies are estimated from analyses of the motions of the stars within them. Galaxies can be characterized by their mass-to-light ratios. The luminous parts of galaxies with active star formation typically have mass-to-light ratios in the range of 1 to 10; the luminous parts of elliptical galaxies, which contain only old stars, typically have mass-to-light ratios of 10 to 20. The mass-to-light ratios of whole galaxies, including their outer regions, are as high as 100, indicating the presence of a great deal of dark matter. |
# Galaxies
## The Extragalactic Distance Scale
### Learning Objectives
By the end of this section, you will be able to:
1. Describe the use of variable stars to estimate distances to galaxies
2. Explain how standard bulbs and the Tully-Fisher relation can be used to estimate distances to galaxies
To determine many of the properties of a galaxy, such as its luminosity or size, we must first know how far away it is. If we know the distance to a galaxy, we can convert how bright the galaxy appears to us in the sky into its true luminosity because we know the precise way light is dimmed by distance. (The same galaxy 10 times farther away, for example, would look 100 times dimmer.) But the measurement of galaxy distances is one of the most difficult problems in modern astronomy: all galaxies are far away, and most are so distant that we cannot even make out individual stars in them.
For decades after Hubble’s initial work, the techniques used to measure galaxy distances were relatively inaccurate, and different astronomers derived distances that differed by as much as a factor of two. (Imagine if the distance between your home or dorm and your astronomy class were this uncertain; it would be difficult to make sure you got to class on time.) In the past few decades, however, astronomers have devised new techniques for measuring distances to galaxies; most importantly, all of them give the same answer to within an accuracy of about 10%. As we will see, this means we may finally be able to make reliable estimates of the size of the universe.
### Variable Stars
Before astronomers could measure distances to other galaxies, they first had to establish the scale of cosmic distances using objects in our own Galaxy. We described the chain of these distance methods in Celestial Distances (and we recommend that you review that chapter if it has been a while since you’ve read it). Astronomers were especially delighted when they discovered that they could measure distances using certain kinds of intrinsically luminous variable stars, such as cepheids, which can be seen at very large distances ().
After the variables in nearby galaxies had been used to make distance measurements for a few decades, Walter Baade showed that there were actually two kinds of cepheids and that astronomers had been unwittingly mixing them up. As a result, in the early 1950s, the distances to all of the galaxies had to be increased by about a factor of two. We mention this because we want you to bear in mind, as you read on, that science is always a study in progress. Our first tentative steps in such difficult investigations are always subject to future revision as our techniques become more reliable.
The amount of work involved in finding cepheids and measuring their periods can be enormous. Hubble, for example, obtained 350 long-exposure photographs of the Andromeda galaxy over a period of 18 years and was able to identify only 40 cepheids. Even though cepheids are fairly luminous stars, they can be detected in only about 30 of the nearest galaxies with the world’s largest ground-based telescopes.
As mentioned in Celestial Distances, one of the main projects carried out during the first years of operation of the Hubble Space Telescope was the measurement of cepheids in more distant galaxies to improve the accuracy of the extragalactic distance scale. Recently, astronomers working with the Hubble Space Telescope have extended such measurements out to 108 million light-years—a triumph of technology and determination.
Nevertheless, we can only use cepheids to measure distances within a small fraction of the universe of galaxies. After all, to use this method, we must be able to resolve single stars and follow their subtle variations. Beyond a certain distance, even our finest space telescopes cannot help us do this. Fortunately, there are other ways to measure the distances to galaxies.
### Standard Bulbs
We discussed in Celestial Distances the great frustration that astronomers felt when they realized that the stars in general were not standard bulbs. If every light bulb in a huge auditorium is a standard 100-watt bulb, then bulbs that look brighter to us must be closer, whereas those that look dimmer must be farther away. If every star were a standard luminosity (or wattage), then we could similarly “read off” their distances based on how bright they appear to us. Alas, as we have learned, neither stars nor galaxies come in one standard-issue luminosity. Nonetheless, astronomers have been searching for objects out there that do act in some way like a standard bulb—that have the same intrinsic (built-in) brightness wherever they are.
A number of suggestions have been made for what sorts of objects might be effective standard bulbs, including the brightest supergiant stars, planetary nebulae (which give off a lot of ultraviolet radiation), and the average globular cluster in a galaxy. One object turns out to be particularly useful: the type Ia supernova. These supernovae involve the explosion of a white dwarf in a binary system (see The Evolution of Binary Star Systems) Observations show that supernovae of this type all reach nearly the same luminosity (about 4.5 × 109 LSun) at maximum light. With such tremendous luminosities, these supernovae have been detected out to a distance of more than 8 billion light-years and are therefore especially attractive to astronomers as a way of determining distances on a large scale ().
Several other kinds of standard bulbs visible over great distances have also been suggested, including the overall brightness of, for example, giant ellipticals and the brightest member of a galaxy cluster. Type Ia supernovae, however, have proved to be the most accurate standard bulbs, and they can be seen in more distant galaxies than the other types of calibrators. As we will see in the chapter on The Big Bang, observations of this type of supernova have profoundly changed our understanding of the evolution of the universe.
### Other Measuring Techniques
Another technique for measuring galactic distances makes use of an interesting relationship noticed in the late 1970s by Brent Tully of the University of Hawaii and Richard Fisher of the National Radio Astronomy Observatory. They discovered that the luminosity of a spiral galaxy is related to its rotational velocity (how fast it spins). Why would this be true?
The more mass a galaxy has, the faster the objects in its outer regions must orbit. A more massive galaxy has more stars in it and is thus more luminous (ignoring dark matter for a moment). Thinking back to our discussion from the previous section, we can say that if the mass-to-light ratios for various spiral galaxies are pretty similar, then we can estimate the luminosity of a spiral galaxy by measuring its mass, and we can estimate its mass by measuring its rotational velocity.
Tully and Fisher used the 21-cm line of cold hydrogen gas to determine how rapidly material in spiral galaxies is orbiting their centers (you can review our discussion of the 21-cm line in Between the Stars: Gas and Dust in Space). Since 21-cm radiation from stationary atoms comes in a nice narrow line, the width of the 21-cm line produced by a whole rotating galaxy tells us the range of orbital velocities of the galaxy’s hydrogen gas. The broader the line, the faster the gas is orbiting in the galaxy, and the more massive and luminous the galaxy turns out to be.
It is somewhat surprising that this technique works, since much of the mass associated with galaxies is dark matter, which does not contribute at all to the luminosity but does affect the rotation speed. There is also no obvious reason why the mass-to-light ratio should be similar for all spiral galaxies. Nevertheless, observations of nearer galaxies (where we have other ways of measuring distance) show that measuring the rotational velocity of a galaxy provides an accurate estimate of its intrinsic luminosity. Once we know how luminous the galaxy really is, we can compare the luminosity to the apparent brightness and use the difference to calculate its distance.
While the Tully-Fisher relation works well, it is limited—we can only use it to determine the distance to a spiral galaxy. There are other methods that can be used to estimate the distance to an elliptical galaxy; however, those methods are beyond the scope of our introductory astronomy course.
lists the type of galaxy for which each of the distance techniques is useful, and the range of distances over which the technique can be applied.
### Key Concepts and Summary
Astronomers determine the distances to galaxies using a variety of methods, including the period-luminosity relationship for cepheid variables; objects such as type Ia supernovae, which appear to be standard bulbs; and the Tully-Fisher relation, which connects the line broadening of 21-cm radiation to the luminosity of spiral galaxies. Each method has limitations in terms of its precision, the kinds of galaxies with which it can be used, and the range of distances over which it can be applied. |
# Galaxies
## The Expanding Universe
### Learning Objectives
By the end of this section, you will be able to:
1. Describe the discovery that galaxies getting farther apart as the universe evolves
2. Explain how to use Hubble’s law to determine distances to remote galaxies
3. Describe models for the nature of an expanding universe
4. Explain the variation in Hubble’s constant
We now come to one of the most important discoveries ever made in astronomy—the fact that the universe is expanding. Before we describe how the discovery was made, we should point out that the first steps in the study of galaxies came at a time when the techniques of spectroscopy were also making great strides. Astronomers using large telescopes could record the spectrum of a faint star or galaxy on photographic plates, guiding their telescopes so they remained pointed to the same object for many hours and collected more light. The resulting spectra of galaxies contained a wealth of information about the composition of the galaxy and the velocities of these great star systems.
### Slipher’s Pioneering Observations
Curiously, the discovery of the expansion of the universe began with the search for Martians and other solar systems. In 1894, the controversial (and wealthy) astronomer Percival Lowell established an observatory in Flagstaff, Arizona, to study the planets and search for life in the universe. Lowell thought that the spiral nebulae might be solar systems in the process of formation. He therefore asked one of the observatory’s young astronomers, Vesto M. Slipher (), to photograph the spectra of some of the spiral nebulae to see if their spectral lines might show chemical compositions like those expected for newly forming planets.
The Lowell Observatory’s major instrument was a 24-inch refracting telescope, which was not at all well suited to observations of faint spiral nebulae. With the technology available in those days, photographic plates had to be exposed for 20 to 40 hours to produce a good spectrum (in which the positions of the lines could reveal a galaxy’s motion). This often meant continuing to expose the same photograph over several nights. Beginning in 1912, and making heroic efforts over a period of about 20 years, Slipher managed to photograph the spectra of more than 40 of the spiral nebulae (which would all turn out to be galaxies).
To his surprise, the spectral lines of most galaxies showed an astounding redshift. By “redshift” we mean that the lines in the spectra are displaced toward longer wavelengths (toward the red end of the visible spectrum). Recall from the chapter on Radiation and Spectra that a redshift is seen when the source of the waves is moving away from us. Slipher’s observations showed that most spirals are racing away at huge speeds; the highest velocity he measured was 1800 kilometers per second.
Only a few spirals—such as the Andromeda and Triangulum Galaxies and M81—all of which are now known to be our close neighbors, turned out to be approaching us. All the other galaxies were moving away. Slipher first announced this discovery in 1914, years before Hubble showed that these objects were other galaxies and before anyone knew how far away they were. No one at the time quite knew what to make of this discovery.
### Hubble’s Law
The profound implications of Slipher’s work became apparent only during the 1920s. Georges Lemaître was a Belgian priest and a trained astronomer. In 1927, he published a paper in French in an obscure Belgian journal in which he suggested that we live in an expanding universe. The title of the paper (translated into English) is “A Homogenous Universe of Constant Mass and Growing Radius Accounting for the Radial Velocity of Extragalactic Nebulae.” Lemaître had discovered that Einstein’s equations of relativity were consistent with an expanding universe (as had the Russian scientist Alexander Friedmann independently in 1922). Lemaître then went on to use Slipher’s data to support the hypothesis that the universe actually is expanding and to estimate the rate of expansion. Initially, scientists paid little attention to this paper, perhaps because the Belgian journal was not widely available.
In the meantime, Hubble was making observations of galaxies with the 2.5-meter telescope on Mt. Wilson, which was then the world’s largest. Hubble carried out the key observations in collaboration with a remarkable man, Milton Humason, who dropped out of school in the eighth grade and began his astronomical career by driving a mule train up the trail on Mount Wilson to the observatory (). In those early days, supplies had to be brought up that way; even astronomers hiked up to the mountaintop for their turns at the telescope. Humason became interested in the work of the astronomers and, after marrying the daughter of the observatory’s electrician, took a job as janitor there. After a time, he became a night assistant, helping the astronomers run the telescope and record data. Eventually, he made such a mark that he became a full astronomer at the observatory.
By the late 1920s, Humason was collaborating with Hubble by photographing the spectra of faint galaxies with the 2.5-meter telescope. (By then, there was no question that the spiral nebulae were in fact galaxies.) Hubble had found ways to improve the accuracy of the estimates of distances to spiral galaxies, and he was able to measure much fainter and more distant galaxies than Slipher could observe with his much-smaller telescope. When Hubble laid his own distance estimates next to measurements of the recession velocities (the speed with which the galaxies were moving away), he found something stunning: there was a relationship between distance and velocity for galaxies. The more distant the galaxy, the faster it was receding from us.
In 1931, Hubble and Humason jointly published the seminal paper where they compared distances and velocities of remote galaxies moving away from us at speeds as high as 20,000 kilometers per second and were able to show that the recession velocities of galaxies are directly proportional to their distances from us (), just as Lemaître had suggested.
We now know that this relationship holds for every galaxy except a few of the nearest ones. Nearly all of the galaxies that are approaching us turn out to be part of the Milky Way’s own group of galaxies, which have their own individual motions, just as birds flying in a group may fly in slightly different directions at slightly different speeds even though the entire flock travels through space together.
Written as a formula, the relationship between velocity and distance is
where v is the velocity, d is the distance, and H is a number called the Hubble constant. This equation is now known as Hubble’s law.In 2020, the International Astronomical Union suggested that it would be more fair to call it the Hubble-Lemaitre law. In telling the history in this textbook, we have acknowledged the role Lemaître played, and we urge our readers to keep his contributions in mind as they read on.
Astronomers express the value of Hubble’s constant in units that relate to how they measure speed and distance for galaxies. In this book, we will use kilometers per second per million light-years as that unit. For many years, estimates of the value of the Hubble constant have been in the range of 15 to 30 kilometers per second per million light-years The most recent work appears to be converging on a value near 22 kilometers per second per million light-years If H is 22 kilometers per second per million light-years, a galaxy moves away from us at a speed of 22 kilometers per second for every million light-years of its distance. As an example, a galaxy 100 million light-years away is moving away from us at a speed of 2200 kilometers per second.
Hubble’s law tells us something fundamental about the universe. Since all but the nearest galaxies appear to be in motion away from us, with the most distant ones moving the fastest, we must be living in an expanding universe. We will explore the implications of this idea shortly, as well as in the final chapters of this text. For now, we will just say that Hubble’s observation underlies all our theories about the origin and evolution of the universe.
### Hubble’s Law and Distances
The regularity expressed in Hubble’s law has a built-in bonus: it gives us a new way to determine the distances to remote galaxies. First, we must reliably establish Hubble’s constant by measuring both the distance and the velocity of many galaxies in many directions to be sure Hubble’s law is truly a universal property of galaxies. But once we have calculated the value of this constant and are satisfied that it applies everywhere, much more of the universe opens up for distance determination. Basically, if we can obtain a spectrum of a galaxy, we can immediately tell how far away it is.
The procedure works like this. We use the spectrum to measure the speed with which the galaxy is moving away from us. If we then put this speed and the Hubble constant into Hubble’s law equation, we can solve for the distance.
### Variation of Hubble’s Constant
The use of redshift is potentially a very important technique for determining distances because as we have seen, most of our methods for determining galaxy distances are limited to approximately the nearest few hundred million light-years (and they have large uncertainties at these distances). The use of Hubble’s law as a distance indicator requires only a spectrum of a galaxy and a measurement of the Doppler shift, and with large telescopes and modern spectrographs, spectra can be taken of extremely faint galaxies.
But, as is often the case in science, things are not so simple. This technique works if, and only if, the Hubble constant has been truly constant throughout the entire life of the universe. When we observe galaxies billions of light-years away, we are seeing them as they were billions of years ago. What if the Hubble “constant” was different billions of years ago? Before 1998, astronomers thought that, although the universe is expanding, the expansion should be slowing down, or decelerating, because the overall gravitational pull of all matter in the universe would have a dominant, measureable effect. If the expansion is decelerating, then the Hubble constant should be decreasing over time.
The discovery that type Ia supernovae are standard bulbs gave astronomers the tool they needed to observe extremely distant galaxies and measure the rate of expansion billions of years ago. The results were completely unexpected. It turns out that the expansion of the universe is accelerating over time! What makes this result so astounding is that there is no way that existing physical theories can account for this observation. While a decelerating universe could easily be explained by gravity, there was no force or property in the universe known to astronomers that could account for the acceleration. In The Big Bang chapter, we will look in more detail at the observations that led to this totally unexpected result and explore its implications for the ultimate fate of the universe.
In any case, if the Hubble constant is not really a constant when we look over large spans of space and time, then the calculation of galaxy distances using the Hubble constant won’t be accurate. As we shall see in the chapter on The Big Bang, the accurate calculation of distances requires a model for how the Hubble constant has changed over time. The farther away a galaxy is (and the longer ago we are seeing it), the more important it is to include the effects of the change in the Hubble constant. For galaxies within a few billion light-years, however, the assumption that the Hubble constant is indeed constant gives good estimates of distance.
### Models for an Expanding Universe
At first, thinking about Hubble’s law and being a fan of the work of Copernicus and Harlow Shapley, you might be shocked. Are all the galaxies really moving away from us? Is there, after all, something special about our position in the universe? Worry not; the fact that galaxies are receding from us and that more distant galaxies are moving away more rapidly than nearby ones shows only that the universe is expanding uniformly.
A uniformly expanding universe is one that is expanding at the same rate everywhere. In such a universe, we and all other observers, no matter where they are located, must observe a proportionality between the velocities and distances of equivalently remote galaxies. (Here, we are ignoring the fact that the Hubble constant is not constant over all time, but if at any given time in the evolution of the universe the Hubble constant has the same value everywhere, this argument still works.)
To see why, first imagine a ruler made of stretchable rubber, with the usual lines marked off at each centimeter. Now suppose someone with strong arms grabs each end of the ruler and slowly stretches it so that, say, it doubles in length in 1 minute (). Consider an intelligent ant sitting on the mark at 2 centimeters—a point that is not at either end nor in the middle of the ruler. He measures how fast other ants, sitting at the 4-, 7-, and 12-centimeter marks, move away from him as the ruler stretches.
The ant at 4 centimeters, originally 2 centimeters away from our ant, has doubled its distance in 1 minute; it therefore moved away at a speed of 2 centimeters per minute. The ant at the 7-centimeters mark, which was originally 5 centimeters away from our ant, is now 10 centimeters away; it thus had to move at 5 centimeters per minute. The one that started at the 12-centimeters mark, which was 10 centimeters away from the ant doing the counting, is now 20 centimeters away, meaning it must have raced away at a speed of 10 centimeters per minute. Ants at different distances move away at different speeds, and their speeds are proportional to their distances (just as Hubble’s law indicates for galaxies). Yet, notice in our example that all the ruler was doing was stretching uniformly. Also, notice that none of the ants were actually moving of their own accord, it was the stretching of the ruler that moved them apart.
Now let’s repeat the analysis, but put the intelligent ant on some other mark—say, on 7 or 12 centimeters. We discover that, as long as the ruler stretches uniformly, this ant also finds every other ant moving away at a speed proportional to its distance. In other words, the kind of relationship expressed by Hubble’s law can be explained by a uniform stretching of the “world” of the ants. And all the ants in our simple diagram will see the other ants moving away from them as the ruler stretches.
For a three-dimensional analogy, let’s look at the loaf of raisin bread in . The chef has accidentally put too much yeast in the dough, and when she sets the bread out to rise, it doubles in size during the next hour, causing all the raisins to move farther apart. On the figure, we again pick a representative raisin (that is not at the edge or the center of the loaf) and show the distances from it to several others in the figure (before and after the loaf expands).
Measure the increases in distance and calculate the speeds for yourself on the raisin bread, just like we did for the ruler. You will see that, since each distance doubles during the hour, each raisin moves away from our selected raisin at a speed proportional to its distance. The same is true no matter which raisin you start with.
Our two analogies are useful for clarifying our thinking, but you must not take them literally. On both the ruler and the raisin bread, there are points that are at the end or edge. You can use these to pinpoint the middle of the ruler and the loaf. While our models of the universe have some resemblance to the properties of the ruler and the loaf, the universe has no boundaries, no edges, and no center (all mind-boggling ideas that we will discuss in a later chapter).
What is useful to notice about both the ants and the raisins is that they themselves did not “cause” their motion. It isn’t as if the raisins decided to take a trip away from each other and then hopped on a hoverboard to get away. No, in both our analogies, it was the stretching of the medium (the ruler or the bread) that moved the ants or the raisins farther apart. In the same way, we will see in The Big Bang chapter that the galaxies don’t have rocket motors propelling them away from each other. Instead, they are passive participants in the expansion of space. As space stretches, the galaxies are carried farther and farther apart much as the ants and the raisins were. (If this notion of the “stretching” of space surprises or bothers you, now would be a good time to review the information about spacetime in Black Holes and Curved Spacetime. We will discuss these ideas further as our discussion broadens from galaxies to the whole universe.)
The expansion of the universe, by the way, does not imply that the individual galaxies and clusters of galaxies themselves are expanding. Neither raisins nor the ants in our analogy grow in size as the loaf expands. Similarly, gravity holds galaxies and clusters of galaxies together, and they get farther away from each other—without themselves changing in size—as the universe expands.
### Key Concepts and Summary
The universe is expanding. Observations show that the spectral lines of distant galaxies are redshifted, and that their recession velocities are proportional to their distances from us, a relationship known as Hubble’s law. The rate of recession, called the Hubble constant, is approximately 22 kilometers per second per million light-years. We are not at the center of this expansion: an observer in any other galaxy would see the same pattern of expansion that we do. The expansion described by Hubble’s law is best understood as a stretching of space.
### For Further Exploration
### Articles
Andrews, B. “What Are Galaxies Trying to Tell Us?” Astronomy (February 2011): 24. Introduction to our understanding of the shapes and evolution of different types of galaxies.
Bothun, G. “Beyond the Hubble Sequence.” Sky & Telescope (May 2000): 36. History and updating of Hubble’s classification scheme.
Christianson, G. “Mastering the Universe.” Astronomy (February 1999): 60. Brief introduction to Hubble’s life and work.
Dalcanton, J. “The Overlooked Galaxies.” Sky & Telescope (April 1998): 28. On low-brightness galaxies, which have been easy to miss.
Freedman, W. “The Expansion Rate and Size of the Universe.” Scientific American (November 1992): 76.
Hodge, P. “The Extragalactic Distance Scale: Agreement at Last?” Sky & Telescope (October 1993): 16.
Jones, B. “The Legacy of Edwin Hubble.” Astronomy (December 1989): 38.
Kaufmann, G. and van den Bosch, F. “The Life Cycle of Galaxies.” Scientific American (June 2002): 46. On galaxy evolution and how it leads to the different types of galaxies.
Martin, P. and Friedli, D. “At the Hearts of Barred Galaxies.” Sky & Telescope (March 1999): 32. On barred spirals.
Osterbrock, D. “Edwin Hubble and the Expanding Universe.” Scientific American (July 1993): 84.
Russell, D. “Island Universes from Wright to Hubble.” Sky & Telescope (January 1999) 56. A history of our discovery of galaxies.
Smith, R. “The Great Debate Revisited.” Sky & Telescope (January 1983): 28. On the Shapley-Curtis debate concerning the extent of the Milky Way and the existence of other galaxies.
### Websites
ABC’s of Distance: http://www.astro.ucla.edu/~wright/distance.htm. A concise summary by astronomer Ned Wright of all the different methods we use to get distances in astronomy.
Cosmic Times 1929: http://cosmictimes.gsfc.nasa.gov/online_edition/1929Cosmic/index.html. NASA project explaining Hubble’s work and surrounding discoveries as if you were reading newspaper articles.
Edwin Hubble: Biography: https://www.nasa.gov/content/about-story-edwin-hubble . Concise biography from the people at the Hubble Space Telescope.
Edwin Hubble: http://apod.nasa.gov/diamond_jubilee/d_1996/sandage_hubble.html. An article on the life and work of Hubble by his student and successor, Allan Sandage. A bit technical in places, but giving a real picture of the man and the science.
International Astronomical Union resolution to call Hubble Law the Hubble-Lemaître Law (with background information): https://www.iau.org/news/pressreleases/detail/iau1812/.
NASA Science: Introduction to Galaxies: http://science.nasa.gov/astrophysics/focus-areas/what-are-galaxies/. A brief overview with links to other pages, and recent Hubble Space Telescope discoveries.
National Optical Astronomy Observatories Gallery of Galaxies: https://www.noao.edu/image_gallery/galaxies.html. A collection of images and information about galaxies and galaxy groups of different types. Another impressive archive can be found at the European Southern Observatory site: https://www.eso.org/public/images/archive/category/galaxies/.
Sloan Digital Sky Survey: Introduction to Galaxies: http://skyserver.sdss.org/dr1/en/astro/galaxies/galaxies.asp. Another brief overview.
Universe Expansion: https://hubblesite.org/contents/news-releases/1999/news-1999-19.html. The background material here provides a nice chronology of how we discovered and measured the expansion of the universe.
### Videos
Edwin Hubble (Hubblecast Episode 89): http://www.spacetelescope.org/videos/hubblecast89a/. (5:59).
Galaxies: https://www.youtube.com/watch?v=I82ADyJC7wE. An introduction.
Hubble’s Views of the Deep Universe: https://www.youtube.com/watch?v=argR2U15w-M. A 2015 public talk by Brandon Lawton of the Space Telescope Science Institute about galaxies and beyond (1:26:20).
### Collaborative Group Activities
1. Throughout much of the last century, the 100-inch telescope on Mt. Wilson (completed in 1917) and the 200-inch telescope on Palomar Mountain (completed in 1948) were the only ones large enough to obtain spectra of faint galaxies. Only a handful of astronomers (all male—since, until the 1960s, women were not given time on these two telescopes) were allowed to use these facilities, and in general the observers did not compete with each other but worked on different problems. Now there are many other telescopes, and several different groups do often work on the same problem. For example, two different groups have independently developed the techniques for using supernovae to determine the distances to galaxies at high redshifts. Which approach do you think is better for the field of astronomy? Which is more cost effective? Why?
2. A distant relative, whom you invite to dinner so you can share all the exciting things you have learned in your astronomy class, says he does not believe that other galaxies are made up of stars. You come back to your group and ask them to help you respond. What kinds of measurements would you make to show that other galaxies are composed of stars?
3. Look at with your group. What does the difference in color between the spiral arms and the bulge of Andromeda tell you about the difference in the types of stars that populate these two regions of the galaxy? Which side of the galaxy is closer to us? Why?
4. What is your reaction to reading about the discovery of the expanding universe? Discuss how the members of the group feel about a universe “in motion.” Einstein was not comfortable with the notion of a universe that had some overall movement to it, instead of being at rest. He put a kind of “fudge factor” into his equations of general relativity for the universe as a whole to keep it from moving (although later, hearing about Hubble and Humason’s work, he called it “the greatest blunder” he ever made). Do you share Einstein’s original sense that this is not the kind of universe you feel comfortable with? What do you think could have caused space to be expanding?
5. In science fiction, characters sometimes talk about visiting other galaxies. Discuss with your group how realistic this idea is. Even if we had fast spaceships (traveling close to the speed of light, the speed limit of the universe) how likely are we to be able to reach another galaxy? Why?
6. Despite his son’s fascination with astronomy in college, Edwin Hubble’s father did not want him to go into astronomy as a profession. He really wanted his son to be a lawyer and pushed him hard to learn the law when he won a fellowship to study abroad. Hubble eventually defied his father and went into astronomy, becoming, as you learned in this chapter, one of the most important astronomers of all time. His dad didn’t live to see his son’s remarkable achievements. Do you think he would have reconciled himself to his son’s career choice if he had? Do you or does anyone in your group or among your friends have to face a choice between the passion in your heart and what others want you to do? Discuss how people in college today are dealing with such choices.
### Review Questions
### Thought Questions
### Figuring for Yourself
|
# Active Galaxies, Quasars, and Supermassive Black Holes
## Thinking Ahead
During the first half of the twentieth century, astronomers viewed the universe of galaxies as a mostly peaceful place. They assumed that galaxies formed billions of years ago and then evolved slowly as the populations of stars within them formed, aged, and died. That placid picture completely changed in the last few decades of the twentieth century.
Today, astronomers can see that the universe is often shaped by violent events, including cataclysmic explosions of supernovae, collisions of whole galaxies, and the tremendous outpouring of energy as matter interacts in the environment surrounding very massive black holes. The key event that began to change our view of the universe was the discovery of a new class of objects: quasars. |
# Active Galaxies, Quasars, and Supermassive Black Holes
## Quasars
### Learning Objectives
By the end of this section, you will be able to:
1. Describe how quasars were discovered
2. Explain how astronomers determined that quasars are at the distances implied by their redshifts
3. Justify the statement that the enormous amount of energy produced by quasars is generated in a very small volume of space
The name “quasars” started out as short for “quasi-stellar radio sources” (here “quasi-stellar” means “sort of like stars”). The discovery of radio sources that appeared point-like, just like stars, came with the use of surplus World War II radar equipment in the 1950s. Although few astronomers would have predicted it, the sky turned out to be full of strong sources of radio waves. As they improved the images that their new radio telescopes could make, scientists discovered that some radio sources were in the same location as faint blue “stars.” No known type of star in our Galaxy emits such powerful radio radiation. What then were these “quasi-stellar radio sources”?
### Redshifts: The Key to Quasars
The answer came when astronomers obtained visible-light spectra of two of those faint “blue stars” that were strong sources of radio waves (). Spectra of these radio “stars” only deepened the mystery: they had emission lines, but astronomers at first could not identify them with any known substance. By the 1960s, astronomers had a century of experience in identifying elements and compounds in the spectra of stars. Elaborate tables had been published showing the lines that each element would produce under a wide range of conditions. A “star” with unidentifiable lines in the ordinary visible light spectrum had to be something completely new.
In 1963 at Caltech’s Palomar Observatory, Maarten Schmidt () was puzzling over the spectrum of one of the radio stars, which was named 3C 273 because it was the 273rd entry in the third Cambridge catalog of radio sources (part (b) of ). There were strong emission lines in the spectrum, and Schmidt recognized that they had the same spacing between them as the Balmer lines of hydrogen (see Radiation and Spectra). But the lines in 3C 273 were shifted far to the red of the wavelengths at which the Balmer lines are normally located. Indeed, these lines were at such long wavelengths that if the redshifts were attributed to the Doppler effect, 3C 273 was receding from us at a speed of 45,000 kilometers per second, or about 15% the speed of light! Since stars don’t show Doppler shifts this large, no one had thought of considering high redshifts to be the cause of the strange spectra.
The puzzling emission lines in other star-like radio sources were then reexamined to see if they, too, might be well-known lines with large redshifts. This proved to be the case, but the other objects were found to be receding from us at even greater speeds. Their astounding speeds showed that the radio “stars” could not possibly be stars in our own Galaxy. Any true star moving at more than a few hundred kilometers per second would be able to overcome the gravitational pull of the Galaxy and completely escape from it. (As we shall see later in this chapter, astronomers eventually discovered that there was also more to these “stars” than just a point of light.)
It turns out that these high-velocity objects only look like stars because they are compact and very far away. Later, astronomers discovered objects with large redshifts that appear star-like but have no radio emission. Observations also showed that quasars were bright in the infrared and X-ray bands too, and not all these X-ray or infrared-bright quasars could be seen in either the radio or the visible-light bands of the spectrum. Today, all these objects are referred to as quasi-stellar objects (QSOs), or, as they are more popularly known, quasars. (The name was also soon appropriated by a manufacturer of home electronics.)
Over a million quasars have now been discovered, and spectra are available for over a hundred thousand. All these spectra show redshifts, none show blueshifts, and their redshifts can be very large. Yet in a photo they look just like stars ().
In the record-holding quasars, the first Lyman series line of hydrogen, with a laboratory wavelength of 121.5 nanometers in the ultraviolet portion of the spectrum, is shifted all the way through the visible region to the infrared. At such high redshifts, the simple formula for converting a Doppler shift to speed (Radiation and Spectra) must be modified to take into account the effects of the theory of relativity. If we apply the relativistic form of the Doppler shift formula, we find that these redshifts correspond to velocities of about 96% of the speed of light.
### Quasars Obey the Hubble Law
The first question astronomers asked was whether quasars obeyed the Hubble law and were really at the large distances implied by their redshifts. If they did not obey the rule that large redshift means large distance, then they could be much closer, and their luminosity could be a lot less. One straightforward way to show that quasars had to obey the Hubble law was to demonstrate that they were actually part of galaxies, and that their redshift was the same as the galaxy that hosted them. Since ordinary galaxies do obey the Hubble law, anything within them would be subject to the same rules.
Observations with the Hubble Space Telescope provided the strongest evidence showing that quasars are located at the centers of galaxies. Hints that this is true had been obtained with ground-based telescopes, but space observations were required to make a convincing case. The reason is that quasars can outshine their entire galaxies by factors of 10 to 100 or even more. When this light passes through Earth’s atmosphere, it is blurred by turbulence and drowns out the faint light from the surrounding galaxy—much as the bright headlights from an oncoming car at night make it difficult to see anything close by.
The Hubble Space Telescope, however, is not affected by atmospheric turbulence and can detect the faint glow from some of the galaxies that host quasars (). Quasars have been found in the cores of both spiral and elliptical galaxies, and each quasar has the same redshift as its host galaxy. A wide range of studies with the Hubble Space Telescope now clearly demonstrate that quasars are indeed far away. If so, they must be producing a truly impressive amount of energy to be detectable as points of light that are much brighter than their galaxy. Interestingly, many quasar host galaxies are found to be involved in a collision with a second galaxy, providing, as we shall see, an important clue to the source of their prodigious energy output.
### The Size of the Energy Source
Given their large distances, quasars have to be extremely luminous to be visible to us at all—far brighter than any normal galaxy. In visible light alone, most are far more energetic than the brightest elliptical galaxies. But, as we saw, quasars also emit energy at X-ray and ultraviolet wavelengths, and some are radio sources as well. When all their radiation is added together, some QSOs have total luminosities as large as a hundred trillion Suns (1014 LSun), which is 10 to 100 times the brightness of luminous elliptical galaxies.
Finding a mechanism to produce the large amount of energy emitted by a quasar would be difficult under any circumstances. But there is an additional problem. When astronomers began monitoring quasars carefully, they found that some vary in luminosity on time scales of months, weeks, or even, in some cases, days. This variation is irregular and can change the brightness of a quasar by a few tens of percent in both its visible light and radio output.
Think about what such a change in luminosity means. A quasar at its dimmest is still more brilliant than any normal galaxy. Now imagine that the brightness increases by 30% in a few weeks. Whatever mechanism is responsible must be able to release new energy at rates that stagger our imaginations. The most dramatic changes in quasar brightness are equivalent to the energy released by 100,000 billion Suns. To produce this much energy we would have to convert the total mass of about ten Earths into energy every minute.
Moreover, because the fluctuations occur in such short times, the part of a quasar that is varying must be smaller than the distance light travels in the time it takes the variation to occur—typically a few months. To see why this must be so, let’s consider a cluster of stars 10 light-years in diameter at a very large distance from Earth (see , in which Earth is off to the right). Suppose every star in this cluster somehow brightens simultaneously and remains bright. When the light from this event arrives at Earth, we would first see the brighter light from stars on the near side; 5 years later we would see increased light from stars at the center. Ten years would pass before we detected more light from stars on the far side.
Even though all stars in the cluster brightened at the same time, the fact that the cluster is 10 light-years wide means that 10 years must elapse before the increased light from every part of the cluster reaches us. From Earth we would see the cluster get brighter and brighter, as light from more and more stars began to reach us. Not until 10 years after the brightening began would we see the cluster reach maximum brightness. In other words, if an extended object suddenly flares up, it will seem to brighten over a period of time equal to the time it takes light to travel across the object from its far side.
We can apply this idea to brightness changes in quasars to estimate their diameters. Because quasars typically vary (get brighter and dimmer) over periods of a few months, the region where the energy is generated can be no larger than a few light-months across. If it were larger, it would take longer than a few months for the light from the far side to reach us.
How large is a region of a few light-months? Pluto, usually the outermost (dwarf) planet in our solar system, is about 5.5 light-hours from us, while the nearest star is 4 light-years away. Clearly a region a few light months across is tiny relative to the size of the entire Galaxy. And some quasars vary even more rapidly, which means their energy is generated in an even smaller region. Whatever mechanism powers the quasars must be able to generate more energy than that produced by an entire galaxy in a volume of space that, in some cases, is not much larger than our solar system.
### Earlier Evidence
Even before the discovery of quasars, there had been hints that something very strange was going on in the centers of at least some galaxies. Back in 1918, American astronomer Heber Curtis used the large Lick Observatory telescope to photograph the galaxy Messier 87 in the constellation Virgo. On that photograph, he saw what we now call a jet coming from the center, or nucleus, of the galaxy (). This jet literally and figuratively pointed to some strange activity going on in that galaxy nucleus. But he had no idea what it was. No one else knew what to do with this space oddity either.
The random factoid that such a central jet existed lay around for a quarter century, until Carl Seyfert, a young astronomer at Mount Wilson Observatory, also in California, found half a dozen galaxies with extremely bright nuclei that were almost stellar, rather than fuzzy in appearance like most galaxy nuclei. Using spectroscopy, he found that these nuclei contain gas moving at up to two percent the speed of light. That may not sound like much, but it is 6 million miles per hour, and more than 10 times faster than the typical motions of stars in galaxies.
After decades of study, astronomers identified many other strange objects beyond our Milky Way Galaxy; they populate a whole “zoo” of what are now called active galaxies or active galactic nuclei (AGN). Astronomers first called them by many different names, depending on what sorts of observations discovered each category, but now we know that we are always looking at the same basic mechanism. What all these galaxies have in common is some activity in their nuclei that produces an enormous amount of energy in a very small volume of space. In the next section, we describe a model that explains all these galaxies with strong central activity—both the AGNs and the QSOs.
### Key Concepts and Summary
The first quasars discovered looked like stars but had strong radio emission. Their visible-light spectra at first seemed confusing, but then astronomers realized that they had much larger redshifts than stars. The quasar spectra obtained so far show redshifts ranging from 15% to more than 96% the speed of light. Observations with the Hubble Space Telescope show that quasars lie at the centers of galaxies and that both spirals and ellipticals can harbor quasars. The redshifts of the underlying galaxies match the redshifts of the quasars embedded in their centers, thereby proving that quasars obey the Hubble law and are at the great distances implied by their redshifts. To be noticeable at such great distances, quasars must have 10 to 100 times the luminosity of the brighter normal galaxies. Their variations show that this tremendous energy output is generated in a small volume—in some cases, in a region not much larger than our own solar system. A number of galaxies closer to us also show strong activity at their centers—activity now known to be caused by the same mechanism as the quasars. |
# Active Galaxies, Quasars, and Supermassive Black Holes
## Supermassive Black Holes: What Quasars Really Are
### Learning Objectives
By the end of this section, you will be able to:
1. Describe the characteristics common to all quasars
2. Justify the claim that supermassive black holes are the source of the energy emitted by quasars (and AGNs)
3. Explain how a quasar’s energy is produced
In order to find a common model for quasars (and their cousins, the AGNs), let’s first list the common characteristics we have been describing—and add some new ones:
1. Quasars are hugely powerful, emitting more power in radiated light than all the stars in our Galaxy combined.
2. Quasars are tiny, about the size of our solar system (to astronomers, that is really small!).
3. Some quasars are observed to be shooting out pairs of straight jets at close to the speed of light, in a tight beam, to distances far beyond the galaxies they live in. These jets are themselves powerful sources of radio and gamma-ray radiation.
4. Because quasars put out so much power from such a small region, they can’t be powered by nuclear fusion the way stars are; they must use some process that is far more efficient.
5. As we shall see later in this chapter, quasars were much more common when the universe was young than they are today. That means they must have been able to form in the first billion years or so after the universe began to expand.
The readers of this text are in a much better position than the astronomers who discovered quasars in the 1960s to guess what powers the quasars. That’s because the key idea in solving the puzzle came from observations of the black holes we discussed in Black Holes and Curved Spacetime. The discovery of the first stellar mass black hole in the binary system Cygnus X-1 was announced in 1971, several years after the discovery of quasars. Proof that there is a black hole at the center of our own Galaxy came even later. Back when astronomers first began trying to figure out what powered quasars, black holes were simply one of the more exotic predictions of the general theory of relativity that still waited to be connected to the real world.
It was only as proof of the existence of black holes accumulated over several decades that it became clearer that only supermassive black holes could account for all the observed properties of quasars and AGNs. As we saw in The Milky Way Galaxy, our own Galaxy has a black hole in its center, and the energy is emitted from a small central region. While our black hole doesn’t have the mass or energy of the quasar black holes, the mechanism that powers them is similar. The evidence now shows that most—and probably all—elliptical galaxies and all spirals with nuclear bulges have black holes at their centers. The amount of energy emitted by material near the black hole depends on two things: the mass of the black hole and the amount of matter that is falling into it.
If a black hole with a billion Suns’ worth of mass inside (109 MSun) accretes (gathers) even a relatively modest amount of additional material—say, about 10 MSun per year—then (as we shall see) it can, in the process, produce as much energy as a thousand normal galaxies. This is enough to account for the total energy of a quasar. If the mass of the black hole is smaller than a billion solar masses or the accretion rate is low, then the amount of energy emitted can be much smaller, as it is in the case of the Milky Way.
### Observational Evidence for Black Holes
In order to prove that a black hole is present at the center of a galaxy, we must demonstrate that so much mass is crammed into so small a volume that no normal objects—massive stars or clusters of stars—could possibly account for it (just as we did for the black hole in the Milky Way). We already know from observations (discussed in Black Holes and Curved Spacetime) that an accreting black hole is surrounded by a hot accretion disk with gas and dust that swirl around the black hole before it falls in.
If we assume that the energy emitted by quasars is also produced by a hot accretion disk, then, as we saw in the previous section, the size of the disk must be given by the time the quasar energy takes to vary. For quasars, the emission in visible light varies on typical time scales of 5 to 2000 days, limiting the size of the disk to that many light-days.
In the X-ray band, quasars vary even more rapidly, so the light travel time argument tells us that this more energetic radiation is generated in an even smaller region. Therefore, the mass around which the accretion disk is swirling must be confined to a space that is even smaller. If the quasar mechanism involves a great deal of mass, then the only astronomical object that can confine a lot of mass into a very small space is a black hole. In a few cases, it turns out that the X-rays are emitted from a region just a few times the size of the black hole event horizon.
The next challenge, then, is to “weigh” this central mass in a quasar. In the case of our own Galaxy, we used observations of the orbits of stars very close to the galactic center, along with Kepler’s third law, to estimate the mass of the central black hole (The Milky Way Galaxy). In the case of distant galaxies, we cannot measure the orbits of individual stars, but we can measure the orbital speed of the gas in the rotating accretion disk. The Hubble Space Telescope is especially well suited to this task because it is above the blurring of Earth’s atmosphere and can obtain spectra very close to the bright central regions of active galaxies. The Doppler effect is then used to measure radial velocities of the orbiting material and so derive the speed with which it moves around.
One of the first galaxies to be studied with the Hubble Space Telescope is our old favorite, the giant elliptical M87. Hubble Space Telescope images showed that there is a disk of hot (10,000 K) gas swirling around the center of M87 (). It was surprising to find hot gas in an elliptical galaxy because this type of galaxy is usually devoid of gas and dust. But the discovery was extremely useful for pinning down the existence of the black hole. Astronomers measured the Doppler shift of spectral lines emitted by this gas, found its speed of rotation, and then used the speed to derive the amount of mass inside the disk—applying Kepler’s third law.
Modern estimates show that there is a mass of at least 3.5 billion MSun concentrated in a tiny region at the very center of M87. So much mass in such a small volume of space must be a black hole. Let’s stop for a moment and take in this figure: a single black hole that has swallowed enough material to make 3.5 billion stars like the Sun. Few astronomical measurements have ever led to so mind-boggling a result. What a strange environment the neighborhood of such a supermassive black hole must be.
Another example is shown in . Here, we see a disk of dust and gas that surrounds a 300-million-MSun black hole in the center of an elliptical galaxy. (The bright spot in the center is produced by the combined light of stars that have been pulled close together by the gravitational force of the black hole.) The mass of the black hole was again derived from measurements of the rotational speed of the disk. The gas in the disk is moving around at 155 kilometers per second at a distance of only 186 light-years from its center. Given the pull of the mass at the center, we expect that the whole dust disk should be swallowed by the black hole in several billion years.
But do we have to accept black holes as the only explanation of what lies at the center of these galaxies? What else could we put in such a small space other than a giant black hole? The alternative is stars. But to explain the masses in the centers of galaxies without a black hole we need to put at least a million stars in a region the size of the solar system. To fit, they would have be only 2 star diameters apart. Collisions between stars would happen all the time. And these collisions would lead to mergers of stars, and very soon the one giant star that they form would collapse into a black hole. So there is really no escape: only a black hole can fit so much mass into so small a space.
As we saw earlier, observations now show that all the galaxies with a spherical concentration of stars—either elliptical galaxies or spiral galaxies with nuclear bulges (see the chapter on Galaxies)—harbor one of these giant black holes at their centers. Among them is our neighbor spiral galaxy, the Andromeda galaxy, M31. The masses of these central black holes range from a just under a million up to at least 30 billion times the mass of the Sun. Several black holes may be even more massive, but the mass estimates have large uncertainties and need verification. We call these black holes “supermassive” to distinguish them from the much smaller black holes that form when some stars die (see The Death of Stars). So far, the most massive black holes from stars—those detected through gravitational waves detected by LIGO—have masses of about 40 solar masses.
### Energy Production around a Black Hole
By now, you may be willing to entertain the idea that huge black holes lurk at the centers of active galaxies. But we still need to answer the question of how such a black hole can account for one of the most powerful sources of energy in the universe. As we saw in Black Holes and Curved Spacetime, a black hole itself can radiate no energy. Any energy we detect from it must come from material very close to the black hole, but not inside its event horizon.
In a galaxy, a central black hole (with its strong gravity) attracts matter—stars, dust, and gas—orbiting in the dense nuclear regions. This matter spirals in toward the spinning black hole and forms an accretion disk of material around it. As the material spirals ever closer to the black hole, it accelerates and becomes compressed, heating up to temperatures of millions of degrees. Such hot matter can radiate prodigious amounts of energy as it falls in toward the black hole.
To convince yourself that falling into a region with strong gravity can release a great deal of energy, imagine dropping a printed version of your astronomy textbook out the window of the ground floor of the library. It will land with a thud, and maybe give a surprised pigeon a nasty bump, but the energy released by its fall will not be very great. Now take the same book up to the fifteenth floor of a tall building and drop it from there. For anyone below, astronomy could suddenly become a deadly subject; when the book hits, it does so with a great deal of energy.
Dropping things from far away into the much stronger gravity of a black hole is much more effective in turning the energy released by infall into other forms of energy. Just as the falling book can heat up the air, shake the ground, or produce sound energy that can be heard some distance away, so the energy of material falling toward a black hole can be converted to significant amounts of electromagnetic radiation.
What a black hole has to work with is not textbooks but streams of infalling gas. If a dense blob of gas moves through a thin gas at high speed, it heats up as it slows by friction. As it slows down, kinetic (motion) energy is turned into heat energy. Just like a spaceship reentering the atmosphere (), gas approaching a black hole heats up and glows where it meets other gas. But this gas, as it approaches the event horizon, reaches speeds of 10% the speed of light and more. It therefore gets far, far hotter than a spaceship, which reaches no more than about 1500 K. Indeed, gas near a supermassive black hole reaches a temperature of about 150,000 K, about 100 times hotter than a spaceship returning to Earth. It can even get so hot—millions of degrees—that it radiates X-rays.
The amount of energy that can be liberated this way is enormous. Einstein showed that mass and energy are interchangeable with his famous formula E = mc2 (see The Sun: A Nuclear Powerhouse). A hydrogen bomb releases just 1% of that energy, as does a star. Quasars are much more efficient than that. The energy released falling to the event horizon of a black hole can easily reach 10% or, in the extreme theoretical limit, 32%, of that energy. (Unlike the hydrogen atoms in a bomb or a star, the gas falling into the black hole is not actually losing mass from its atoms to free up the energy; the energy is produced just because the gas is falling closer and closer to the black hole.) This huge energy release explains how a tiny volume like the region around a black hole can release as much power as a whole galaxy. But to radiate all that energy, instead of just falling inside the event horizon with barely a peep, the hot gas must take the time to swirl around the star in the accretion disk and emit some of its energy.
Most black holes don’t show any signs of quasar emission. We call them “quiescent.” But, like sleeping dragons, they can be woken up by being roused with a fresh supply of gas. Our own Milky Way black hole is currently quiescent, but it may have been a quasar just a few million years ago (). Two giant bubbles that extend 25,000 light-years above and below the galactic center are emitting gamma rays. Were these produced a few million years ago when a significant amount of matter fell into the black hole at the center of the galaxy? Astronomers are still working to understand what remarkable event might have formed these enormous bubbles.
The physics required to account for the exact way in which the energy of infalling material is converted to radiation near a black hole is far more complicated than our simple discussion suggests. To understand what happens in the “rough and tumble” region around a massive black hole, astronomers and physicists must resort to computer simulations (and they require supercomputers, fast machines capable of awesome numbers of calculations per second). The details of these models are beyond the scope of our book, but they support the basic description presented here.
### Radio Jets
So far, our model seems to explain the central energy source in quasars and active galaxies. But, as we have seen, there is more to quasars and other active galaxies than the point-like energy source. They can also have long jets that glow with radio waves, light, and sometimes even X-rays, and that extend far beyond the limits of the parent galaxy. Can we find a way for our black hole and its accretion disk to produce these jets of energetic particles as well?
Many different observations have now traced these jets to within 3 to 30 light-years of the parent quasar or galactic nucleus. While the black hole and accretion disk are typically smaller than 1 light-year, we nevertheless presume that if the jets come this close, they probably originate in the vicinity of the black hole. Another characteristic of the jets we need to explain is that they contain matter moving close to the speed of light.
Why are energetic electrons and other particles near a supermassive black hole ejected into jets, and often into two oppositely directed jets, rather than in all directions? Again, we must use theoretical models and supercomputer simulations of what happens when a lot of material whirls inward in a crowded black hole accretion disk. Although there is no agreement on exactly how jets form, it has become clear that any material escaping from the neighborhood of the black hole has an easier time doing so perpendicular to the disk.
In some ways, the inner regions of black hole accretion disks resemble a baby that is just learning to eat by herself. As much food as goes into the baby’s mouth can sometimes wind up being spit out in various directions. In the same way, some of the material whirling inward toward a black hole finds itself under tremendous pressure and orbiting with tremendous speed. Under such conditions, simulations show that a significant amount of material can be flung outward—not back along the disk, where more material is crowding in, but above and below the disk. If the disk is thick (as it tends to be when a lot of material falls in quickly), it can channel the outrushing material into narrow beams perpendicular to the disk ().
shows observations of an elliptical galaxy that behaves in exactly this way. At the center of this active galaxy, there is a ring of dust and gas about 400 light-years in diameter, surrounding a 1.2-billion-MSun black hole. Radio observations show that two jets emerge in a direction perpendicular to the ring, just as the model predicts.
With this black hole model, we have come a long way toward understanding the quasars and active galaxies that seemed very mysterious only a few decades ago. As often happens in astronomy, a combination of better instruments (making better observations) and improved theoretical models enabled us to make significant progress on a puzzling aspect of the cosmos.
### Key Concepts and Summary
Both active galactic nuclei and quasars derive their energy from material falling toward, and forming a hot accretion disk around, a massive black hole. This model can account for the large amount of energy emitted and for the fact that the energy is produced in a relatively small volume of space. It can also explain why jets coming from these objects are seen in two directions: those directions are perpendicular to the accretion disk. |
# Active Galaxies, Quasars, and Supermassive Black Holes
## Quasars as Probes of Evolution in the Universe
### Learning Objectives
By the end of this section, you will be able to:
1. Trace the rise and fall of quasars over cosmic time
2. Describe some of the ways in which galaxies and black holes influence each other’s growth
3. Describe some ways the first black holes may have formed
4. Explain why some black holes are not producing quasar emission but rather are quiescent
The quasars’ brilliance and large distance make them ideal probes of the far reaches of the universe and its remote past. Recall that when first introducing quasars, we mentioned that they generally tend to be far away. When we see extremely distant objects, we are seeing them as they were long ago. Radiation from a quasar 8 billion light-years away is telling us what that quasar and its environment were like 8 billion years ago, much closer to the time that the galaxy that surrounds it first formed. Astronomers have now detected light emitted from quasars that were already formed only a few hundred million years after the universe began its expansion 13.8 billion years ago. Thus, they give us a remarkable opportunity to learn about the time when large structures were first assembling in the cosmos.
### The Evolution of Quasars
Quasars provide compelling evidence that we live in an evolving universe—one that changes with time. They tell us that astronomers living billions of years ago would have seen a universe that is very different from the universe of today. Counts of the number of quasars at different redshifts (and thus at different times in the evolution of the universe) show us how dramatic these changes are (). We now know that the number of quasars was greatest at the time when the universe was only 20% of its present age.
As you can see, the drop-off in the numbers of quasars as time gets nearer to the present day is quite abrupt. Observations also show that the emission from the accretion disks around the most massive black holes peaks early and then fades. The most powerful quasars are seen only at early times. In order to explain this result, we make use of our model of the energy source of the quasars—namely that quasars are black holes with enough fuel to make a brilliant accretion disk right around them.
The fact that there were more quasars long ago (far away) than there are today (nearby) could be explained if there was more material available to be accreted by black holes early in the history of the universe. You might say that the quasars were more active when their black holes had fuel for their “energy-producing engines.” If that fuel was mostly consumed in the first few billion years after the universe began its expansion, then later in its life, a “hungry” black hole would have very little left with which to light up the galaxy’s central regions.
In other words, if matter in the accretion disk is continually being depleted by falling into the black hole or being blown out from the galaxy in the form of jets, then a quasar can continue to radiate only as long as new gas is available to replenish the accretion disk.
In fact, there was more gas around to be accreted early in the history of the universe. Back then, most gas had not yet collapsed to form stars, so there was more fuel available for both the feeding of black holes and the forming of new stars. Much of that fuel was subsequently consumed in the formation of stars during the first few billion years after the universe began its expansion. Later in its life, a galaxy would have little left to feed a hungry black hole or to form more new stars. As we see from , both star formation and black hole growth peaked together when the universe was about 2 billion years old. Ever since, both have been in sharp decline. We are late to the party of the galaxies and have missed some of the early excitement.
Observations of nearer galaxies (seen later in time) indicate that there is another source of fuel for the central black holes—the collision of galaxies. If two galaxies of similar mass collide and merge, or if a smaller galaxy is pulled into a larger one, then gas and dust from one may come close enough to the black hole in the other to be devoured by it and so provide the necessary fuel. Astronomers have found that collisions were also much more common early in the history of the universe than they are today. There were more small galaxies in those early times because over time, as we shall see (in The Evolution and Distribution of Galaxies), small galaxies tend to combine into larger ones. Again, this means that we would expect to see more quasars long ago (far away) than we do today (nearby)—as we in fact do.
### Codependence of Black Holes and Galaxies
Once black hole masses began to be measured reliably in the late 1990s, they posed an enigma. It looked as though the mass of the central black hole depended on the mass of the galaxy. The black holes in galaxies always seem to be just 1/200 the mass of the galaxy they live in. This result is shown schematically in , and some of the observations are plotted in .
Somehow black hole mass and the mass of the surrounding bulge of stars are connected. But why does this correlation exist? Unfortunately, astronomers do not yet know the answer to this question. We do know, however, that the black hole can influence the rate of star formation in the galaxy, and that the properties of the surrounding galaxy can influence how fast the black hole grows. Let’s see how these processes work.
### How a Galaxy Can Influence a Black Hole in Its Center
Let’s look first at how the surrounding galaxy might influence the growth and size of the black hole. Without large quantities of fresh “food,” the surroundings of black holes glow only weakly as bits of local material spiral inward toward the black hole. So somehow large amounts of gas have to find their way to the black hole from the galaxy in order to feed the quasar and make it grow and give off the energy to be noticed. Where does this “food” for the black hole come from originally and how might it be replenished? The jury is still out, but the options are pretty clear.
One obvious source of fuel for the black hole is matter from the host galaxy itself. Galaxies start out with large amounts of interstellar gas and dust, and at least some of this interstellar matter is gradually converted into stars as the galaxy evolves. On the other hand, as stars go through their lives and die, they lose mass all the time into the space between them, thereby returning some of the gas and dust to the interstellar medium. We expect to find more gas and dust in the central regions early in a galaxy’s life than later on, when much of it has been converted into stars. Any of the interstellar matter that ventures too close to the black hole may be accreted by it. This means that we would expect that the number and luminosity of quasars powered in this way would decline with time. And as we have seen, that is just what we find.
Today both elliptical galaxies and the nuclear bulges of spiral galaxies have very little raw material left to serve as a source of fuel for the black hole. And most of the giant black holes in nearby galaxies, including the one in our own Milky Way, are now dark and relatively quiet—mere shadows of their former selves. So that fits with our observations.
We should note that even if you have a quiescent supermassive black hole, a star in the area could occasionally get close to it. Then the powerful tidal forces of the black hole can pull the whole star apart into a stream of gas. This stream quickly forms an accretion disk that gives off energy in the normal way and makes the black hole region into a temporary quasar. However, the material will fall into the black hole after only a few weeks or months. The black hole then goes back into its lurking, quiescent state, until another victim wanders by.
This sort of “cannibal” event happens only once every 100,000 years or so in a typical galaxy. But we can monitor millions of galaxies in the sky, so a few of these “tidal disruption events” are found each year (). However, these individual events, dramatic as they are, are too rare to account for the huge masses of the central black holes.
Another source of fuel for the black hole is the collision of its host galaxy with another galaxy. Some of the brightest galaxies turn out, when a detailed picture is taken, to be pairs of colliding galaxies. And most of them have quasars inside them, not easily visible to us because they are buried by enormous amounts of dust and gas.
A collision between two cars creates quite a mess, pushing parts out of their regular place. In the same way, if two galaxies collide and merge, then gas and dust (though not so much the stars) can get pushed out of their regular orbits. Some may veer close enough to the black hole in one galaxy or the other to be devoured by it and so provide the necessary fuel to power a quasar. As we saw, galaxy collisions and mergers happened most frequently when the universe was young and probably help account for the fact that quasars were most common when the universe was only about 20% of its current age.
Collisions in today’s universe are less frequent, but they do happen. Once a galaxy reaches the size of the Milky Way, most of the galaxies it merges with will be much smaller galaxies—dwarf galaxies (see the chapter on Galaxies). These don’t disrupt the big galaxy much, but they can supply some additional gas to its black hole.
By the way, if two galaxies, each of which contains a black hole, collide, then the two black holes may merge and form an even larger black hole (). In this process they will emit a burst of gravitational waves. One of the main goals of the European Space Agency’s planned LISA (Laser Interferometer Space Antenna) mission is to detect the gravitational wave signals from the merging of supermassive black holes.
### How Does the Black Hole Influence the Formation of Stars in the Galaxy?
We have seen that the material in galaxies can influence the growth of the black hole. The black hole in turn can also influence the galaxy in which it resides. It can do so in three ways: through its jets, through winds of particles that manage to stream away from the accretion disk, and through radiation from the accretion disk. As they stream away from the black hole, all three can either promote star formation by compressing the surrounding gas and dust—or instead suppress star formation by heating the surrounding gas and shredding molecular clouds, thereby inhibiting or preventing star formation. The outflowing energy can even be enough to halt the accretion of new material and starve the black hole of fuel. Astronomers are still trying to evaluate the relative importance of these effects in determining the overall evolution of galactic bulges and the rates of star formation.
In summary, we have seen how galaxies and supermassive black holes can each influence the evolution of the other: the galaxy supplies fuel to the black hole, and the quasar can either support or suppress star formation. The balance of these processes probably helps account for the correlation between black hole and bulge masses, but there are as yet no theories that explain quantitatively and in detail why the correlation between black hole and bulge masses is as tight as it is or why the black hole mass is always about 1/200 times the mass of the bulge.
### The Birth of Black Holes and Galaxies
While the connection between quasars and galaxies is increasingly clear, the biggest puzzle of all—namely, how the supermassive black holes in galaxies got started—remains unsolved. Observations show that they existed when the universe was very young. One dramatic example is the discovery of a quasar that was already shining when the universe was only 700 million years old. What does it take to create a large black hole so quickly? A related problem is that in order to eventually build black holes containing more than 2 billion solar masses, it is necessary to have giant “seed” black holes with masses at least 2000 times the mass of the Sun—and they must somehow have been created shortly after the expansion of the universe began.
Astronomers are now working actively to develop models for how these seed black holes might have formed. Theories suggest that galaxies formed from collapsing clouds of dark matter and gas. Some of the gas formed stars, but perhaps some of the gas settled to the center where it became so concentrated that it formed a black hole. If this happened, the black hole could form right away—although this requires that the gas should not be rotating very much initially.
A more likely scenario is that the gas will have some angular momentum (rotation) that will prevent direct collapse to a black hole. In that case, the very first generation of stars will form, and some of them, according to calculations, will have masses hundreds of times that of the Sun. When these stars finish burning hydrogen, just a few million years later, the supernovae they end with will create black holes a hundred or so times the mass of the Sun. These can then merge with others or accrete the rich gas supply available at these early times.
The challenge is growing these smaller black holes quickly enough to make the much larger black holes we see a few hundred million years later. It turns out to be difficult because there are limits on how fast they can accrete matter. These should make sense to you from what we discussed earlier in the chapter. If the rate of accretion becomes too high, then the energy streaming outward from the black hole’s accretion disk will become so strong as to blow away the infalling matter.
What if, instead, a collapsing gas cloud doesn’t form a black hole directly or break up and form a group of regular stars, but stays together and makes one fairly massive star embedded within a dense cluster of thousands of lower mass stars and large quantities of dense gas? The massive star will have a short lifetime and will soon collapse to become a black hole. It can then begin to attract the dense gas surrounding it. But calculations show that the gravitational attraction of the many nearby stars will cause the black hole to zigzag randomly within the cluster and will prevent the formation of an accretion disk. If there is no accretion disk, then matter can fall freely into the black hole from all directions. Calculations suggest that under these conditions, a black hole even as small as 10 times the mass of the Sun could grow to more than 10 billion times the mass of the Sun by the time the universe is a billion years old.
Scientists are exploring other ideas for how to form the seeds of supermassive black holes, and this remains a very active field of research. Whatever mechanism caused the rapid formation of these supermassive black holes, they do give us a way to observe the youthful universe when it was only about five percent as old as it is now.
### Key Concepts and Summary
Quasars and galaxies affect each other: the galaxy supplies fuel to the black hole, and the quasar heats and disrupts the gas clouds in the galaxy. The balance between these two processes probably helps explain why the black hole seems always to be about 1/200 the mass of the spherical bulge of stars that surrounds the black hole.
Quasars were much more common billions of years ago than they are now, and astronomers speculate that they mark an early stage in the formation of galaxies. Quasars were more likely to be active when the universe was young and fuel for their accretion disk was more available.
Quasar activity can be re-triggered by a collision between two galaxies, which provides a new source of fuel to feed the black hole.
### For Further Exploration
### Articles
Bartusiak, M. “A Beast in the Core.” Astronomy (July 1998): 42. On supermassive black holes at the centers of galaxies.
Disney, M. “A New Look at Quasars.” Scientific American (June 1998): 52.
Djorgovski, S. “Fires at Cosmic Dawn.” Astronomy (September 1995): 36. On quasars and what we can learn from them.
Ford, H., & Tsvetanov, Z. “Massive Black Holes at the Hearts of Galaxies.” Sky & Telescope (June 1996): 28. Nice overview.
Irion, R. “A Quasar in Every Galaxy?” Sky & Telescope (July 2006): 40. Discusses how supermassive black holes powering the centers of galaxies may be more common than thought.
Kormendy, J. “Why Are There so Many Black Holes?” Astronomy (August 2016): 26. Discussion of why supermassive black holes are so common in the universe.
Kruesi, L. “Secrets of the Brightest Objects in the Universe.” Astronomy (July 2013): 24. Review of our current understanding of quasars and how they help us learn about black holes.
Miller, M., et al. “Supermassive Black Holes: Shaping their Surroundings.” Sky & Telescope (April 2005): 42. Jets from black hole disks.
Nadis, S. “Exploring the Galaxy–Black Hole Connection.” Astronomy (May 2010): 28. Overview.
Nadis, S. “Here, There, and Everywhere.” Astronomy (February 2001): 34. On Hubble observations showing how common supermassive black holes are in galaxies.
Nadis, S. “Peering inside a Monster Galaxy.” Astronomy (May 2014): 24. What X-ray observations tell us about the mechanism that powers the active galaxy M87.
Olson, S. “Black Hole Hunters.” Astronomy (May 1999): 48. Profiles four astronomers who search for “hungry” black holes at the centers of active galaxies.
Peterson, B. “Solving the Quasar Puzzle.” Sky & Telescope (September 2013): 24. A review article on how we figured out that black holes were the power source for quasars, and how we view them today.
Tucker, W., et al. “Black Hole Blowback.” Scientific American (March 2007): 42. How supermassive black holes create giant bubbles in the intergalactic medium.
Voit, G. “The Rise and Fall of Quasars.” Sky & Telescope (May 1999): 40. Good overview of how quasars fit into cosmic history.
Wanjek, C. “How Black Holes Helped Build the Universe.” Sky & Telescope (January 2007): 42. On the energy and outflow from disks around supermassive black holes; nice introduction.
### Websites
Monsters in Galactic Nuclei: https://chandra.as.utexas.edu/stardate.html. An article on supermassive black holes by John Kormendy, from StarDate magazine.
Quasar Astronomy Forty Years On: https://www.astr.ua.edu/keel/agn/quasar40.html. A 2003 popular article by William Keel.
Quasars and Active Galactic Nuclei: https://www.astr.ua.edu/keel/agn/. An annotated gallery of images showing the wide range of activity in galaxies. There is also an introduction, a glossary, and background information. Also by William Keel.
Quasars: “The Light Fantastic”: https://hubblesite.org/newscenter/archive/releases/1996/35/background/. This brief “backgrounder” from the public information office at the HubbleSite gives a bit of the history of the discovery and understanding of quasars.
### Videos
Active Galaxies: https://vimeo.com/21079798. Part of the Astronomy: Observations and Theories series; half-hour introduction to quasars and related objects (27:28).
Black Hole Chaos: The Environments of the Most Supermassive Black Holes in the Universe: https://www.youtube.com/watch?v=hzSgU-3d8QY. May 2013 lecture by Dr. Belinda Wilkes and Dr. Francesca Civano of the Center for Astrophysics in the CfA Observatory Nights Lecture Series (50:14).
Hubble and Black Holes: https://www.spacetelescope.org/videos/hubblecast43a/. Hubblecast on black holes and active galactic nuclei (9:10).
Monster Black Holes: https://www.youtube.com/watch?v=LN9oYjNKBm8. May 2013 lecture by Professor Chung-Pei Ma of the University of California, Berkeley; part of the Silicon Valley Astronomy Lecture Series (1:18:03).
Image of a Black Hole: https://www.eso.org/public/videos/eso1907a/. Video about the Event Horizon Telescope and its pioneering image of the shadow of the event horizon in the active galaxy M87.
### Collaborative Group Activities
1. When quasars were first discovered and the source of their great energy was unknown, some astronomers searched for evidence that quasars are much nearer to us than their redshifts imply. (That way, they would not have to produce so much energy to look as bright as they do.) One way was to find a “mismatched pair”—a quasar and a galaxy with different redshifts that lie in very nearly the same direction in the sky. Suppose you do find one and only one galaxy with a quasar very close by, and the redshift of the quasar is six times larger than that of the galaxy. Have your group discuss whether you could then conclude that the two objects are at the same distance and that redshift is not a reliable indicator of distance. Why? Suppose you found three such pairs, each with different mismatched redshifts? Suppose every galaxy has a nearby quasar with a different redshift. How would your answer change and why?
2. Large ground-based telescopes typically can grant time to only one out of every four astronomers who apply for observing time. One prominent astronomer tried for several years to establish that the redshifts of quasars do not indicate their distances. At first, he was given time on the world’s largest telescope, but eventually it became clearer that quasars were just the centers of active galaxies and that their redshifts really did indicate distance. At that point, he was denied observing time by the committee of astronomers who reviewed such proposals. Suppose your group had been the committee. What decision would you have made? Why? (In general, what criteria should astronomers have for allowing astronomers whose views completely disagree with the prevailing opinion to be able to pursue their research?)
3. Based on the information in this chapter and in Black Holes and Curved Spacetime, have your group discuss what it would be like near the event horizon of a supermassive black hole in a quasar or active galaxy. Make a list of all the reasons a trip to that region would not be good for your health. Be specific.
4. Before we understood that the energy of quasars comes from supermassive black holes, astronomers were baffled by how such small regions could give off so much energy. A variety of models were suggested, some involving new physics or pretty “far out” ideas from current physics. Can your group come up with some areas of astronomy that you have studied in this course where we don’t yet have an explanation for something happening in the cosmos?
### Review Questions
### Thought Questions
### Figuring for Yourself
|
# The Evolution and Distribution of Galaxies
## Thinking Ahead
How and when did galaxies like our Milky Way form? Which formed first: stars or galaxies? Can we see direct evidence of the changes galaxies undergo over their lifetimes? If so, what determines whether a galaxy will “grow up” to be spiral or elliptical? And what is the role of “nature versus nurture”? That is to say, how much of a galaxy’s development is determined by what it looks like when it is born and how much is influenced by its environment?
Astronomers today have the tools needed to explore the universe almost back to the time it began. The huge new telescopes and sensitive detectors built in the last decades make it possible to obtain both images and spectra of galaxies so distant that their light has traveled to reach us for more than 13 billion years—more than 90% of the way back to the Big Bang: we can use the finite speed of light and the vast size of the universe as a cosmic time machine to peer back and observe how galaxies formed and evolved over time. Studying galaxies so far away in any detail is always a major challenge, largely because their distance makes them appear very faint. However, today’s large telescopes on the ground and in space are finally making such a task possible. |
# The Evolution and Distribution of Galaxies
## Observations of Distant Galaxies
### Learning Objectives
By the end of this section, you will be able to:
1. Explain how astronomers use light to learn about distant galaxies long ago
2. Discuss the evidence showing that the first stars formed when the universe was less than 10% of its current age
3. Describe the major differences observed between galaxies seen in the distant, early universe and galaxies seen in the nearby universe today
Let’s begin by exploring some techniques astronomers use to study how galaxies are born and change over cosmic time. Suppose you wanted to understand how adult humans got to be the way they are. If you were very dedicated and patient, you could actually observe a sample of babies from birth, following them through childhood, adolescence, and into adulthood, and making basic measurements such as their heights, weights, and the proportional sizes of different parts of their bodies to understand how they change over time.
Unfortunately, we have no such possibility for understanding how galaxies grow and change over time: in a human lifetime—or even over the entire history of human civilization—individual galaxies change hardly at all. We need other tools than just patiently observing single galaxies in order to study and understand those long, slow changes.
We do, however, have one remarkable asset in studying galactic evolution. As we have seen, the universe itself is a kind of time machine that permits us to observe remote galaxies as they were long ago. For the closest galaxies, like the Andromeda galaxy, the time the light takes to reach us is on the order of a few hundred thousand to a few million years. Typically not much changes over times that short—individual stars in the galaxy may be born or die, but the overall structure and appearance of the galaxy will remain the same. But we have observed galaxies so far away that we are seeing them as they were when the light left them more than 13 billion years ago.
By observing more distant objects, we look further back toward a time when both galaxies and the universe were young (). For something similar on Earth, imagine your college doing a project where families of international students around the world are asked to send a daily newspaper from their hometown. Because there is a limited budget, the papers are sent via ordinary mail. The farther a town is from the United States, the longer it takes for the papers to get to the college, and the older the news is by the time it arrives.
We can’t directly detect the changes over time in individual galaxies because they happen too slowly. But we can observe many galaxies at many different cosmic distances and, therefore, look-back times (how far back in time we are seeing the galaxy). If we can study a thousand very distant “baby” galaxies when the universe was 1 billion years old, and another thousand slightly closer “toddler” galaxies when it was 2 billion years old, and so on until the present 13.8-billion-year-old universe of mature “adult” galaxies near us today, then maybe we can piece together a coherent picture of how the whole ensemble of galaxies evolves over time. This allows us to reconstruct the “life story” of galaxies since the universe began, even though we can’t follow a single galaxy from infancy to old age.
Fortunately, there is no shortage of galaxies to study. Hold up your pinky at arm’s length: the part of the sky blocked by your fingernail contains about one million galaxies, layered farther and farther back in space and time. In fact, the sky is filled with galaxies, all of them, except for Andromeda and the Magellanic Clouds, too faint to see with the naked eye—more than 2 trillion (2000 billion) galaxies in the observable universe, each one with about 100 billion stars.
This cosmic time machine, then, lets us peer into the past to answer fundamental questions about where galaxies come from and how they got to be the way they are today. Astronomers call those galactic changes over cosmic time evolution, a word that recalls the work of Darwin and others on the development of life on Earth. But note that galaxy evolution refers to the changes in individual galaxies over time, while the kind of evolution biologists study is changes in successive generations of living organisms over time.
### Spectra, Colors, and Shapes
Astronomy is one of the few sciences in which all measurements must be made at a distance. Geologists can take samples of the objects they are studying; chemists can conduct experiments in their laboratories to determine what a substance is made of; archeologists can use carbon dating to determine how old something is. But astronomers can’t pick up and play with a star or galaxy. As we have seen throughout this book, if they want to know what galaxies are made of and how they have changed over the lifetime of the universe, they must decode the messages carried by the small number of photons that reach Earth.
Fortunately (as you have learned) electromagnetic radiation is a rich source of information. The distance to a galaxy is derived from its redshift (how much the lines in its spectrum are shifted to the red because of the expansion of the universe). The conversion of redshift to a distance depends on certain properties of the universe, including the value of the Hubble constant and how much mass it contains. We will describe the currently accepted model of the universe in The Big Bang. For the purposes of this chapter, it is enough to know that the current best estimate for the age of the universe is 13.8 billion years. In that case, if we see an object that emitted its light 6 billion light-years ago, we are seeing it as it was when the universe was almost 8 billion years old. If we see something that emitted its light 13 billion years ago, we are seeing it as it was when the universe was less than a billion years old. So astronomers measure a galaxy’s redshift from its spectrum, use the Hubble constant plus a model of the universe to turn the redshift into a distance, and use the distance and the constant speed of light to infer how far back in time they are seeing the galaxy—the look-back time.
In addition to distance and look-back time, studies of the Doppler shifts of a galaxy’s spectral lines can tell us how fast the galaxy is rotating and hence how massive it is (as explained in Galaxies). Detailed analysis of such lines can also indicate the types of stars that inhabit a galaxy and whether it contains large amounts of interstellar matter.
Unfortunately, many galaxies are so faint that collecting enough light to produce a detailed spectrum is currently impossible. Astronomers thus have to use a much rougher guide to estimate what kinds of stars inhabit the faintest galaxies—their overall colors. Look again at and notice that some of the galaxies are very blue and others are reddish-orange. Now remember that hot, luminous blue stars are very massive and have lifetimes of only a few million years. If we see a galaxy where blue colors dominate, we know that it must have many hot, luminous blue stars, and that star formation must have taken place in the few million years before the light left the galaxy. In a yellow or red galaxy, on the other hand, the young, luminous blue stars that surely were made in the galaxy’s early bursts of star formation must have died already; it must contain mostly old yellow and red stars that last a long time in their main-sequence stages and thus typically formed billions of years before the light that we now see was emitted.
Another important clue to the nature of a galaxy is its shape. Spiral galaxies can be distinguished from elliptical galaxies by shape. Observations show that spiral galaxies contain young stars and large amounts of interstellar matter, while elliptical galaxies have mostly old stars and very little or no star formation. Elliptical galaxies turned most of their interstellar matter into stars many billions of years ago, while star formation has continued until the present day in spiral galaxies.
If we can count the number of galaxies of each type during each epoch of the universe, it will help us understand how the pace of star formation changes with time. As we will see later in this chapter, galaxies in the distant universe—that is, young galaxies—look very different from the older galaxies that we see nearby in the present-day universe.
### The First Generation of Stars
In addition to looking at the most distant galaxies we can find, astronomers look at the oldest stars (what we might call the fossil record) of our own Galaxy to probe what happened in the early universe. Since stars are the source of nearly all the light emitted by galaxies, we can learn a lot about the evolution of galaxies by studying the stars within them. What we find is that nearly all galaxies contain at least some very old stars. For example, our own Galaxy contains globular clusters with stars that are at least 13 billion years old, and some may be even older than that. Therefore, if we count the age of the Milky Way as the age of its oldest constituents, the Milky Way must have been born at least 13 billion years ago.
As we will discuss in The Big Bang, astronomers have discovered that the universe is expanding, and have traced the expansion backward in time. In this way, they have discovered that the universe itself is only about 13.8 billion years old. Thus, it appears that at least some of the globular-cluster stars in the Milky Way must have formed less than a billion years after the expansion began.
Several other observations also establish that star formation in the cosmos began very early. Astronomers have used spectra to determine the composition of some elliptical galaxies that are so far away that the light we see left them when the universe was only half as old as it is now. Yet these ellipticals contain old red stars, which must have formed billions of years earlier still.
When we make computer models of how such galaxies evolve with time, they tell us that star formation in elliptical galaxies began less than a billion years or so after the universe started its expansion, and new stars continued to form for a few billion years. But then star formation apparently stopped. When we compare distant elliptical galaxies with ones nearby, we find that ellipticals have not changed very much since the universe reached about half its current age. We’ll return to this idea later in the chapter.
Observations of the most luminous galaxies take us even further back in time. Recently, as we have already noted, astronomers have discovered a few galaxies that are so far away that the light we see now left them less than a billion years or so after the beginning (). Yet the spectra of some of these galaxies already contain lines of heavy elements, including carbon, silicon, aluminum, and sulfur. These elements were not present when the universe began but had to be manufactured in the interiors of stars. This means that when the light from these galaxies was emitted, an entire generation of stars had already been born, lived out their lives, and died—spewing out the new elements made in their interiors through supernova explosions—even before the universe was a billion years old. And it wasn’t just a few stars in each galaxy that got started this way. Enough had to live and die to affect the overall composition of the galaxy, in a way that we can still measure in the spectrum from far away.
Observations of quasars (galaxies whose centers contain an active supermassive black hole radiating a great deal of energy) support this conclusion. We can measure the abundances of heavy elements in the gas near quasar black holes (explained in Active Galaxies, Quasars, and Supermassive Black Holes). The composition of this gas in quasars that emitted their light 12.5 billion light-years ago is very similar to that of the Sun. This means that a large portion of the gas surrounding the black holes must have already been cycled through stars during the first 1.3 billion years after the expansion of the universe began. If we allow time for this cycling, then their first stars must have formed when the universe was only a few hundred million years old.
### A Changing Universe of Galaxies
Back in the middle decades of the twentieth century, the observation that all galaxies contain some old stars led astronomers to the hypothesis that galaxies were born fully formed near the time when the universe began its expansion. This hypothesis was similar to suggesting that human beings were born as adults and did not have to pass through the various stages of development from infancy through the teens. If this hypothesis were correct, the most distant galaxies should have shapes and sizes very much like the galaxies we see nearby. According to this old view, galaxies, after they formed, should then change only slowly, as successive generations of stars within them formed, evolved, and died. As the interstellar matter was slowly used up and fewer new stars formed, the galaxies would gradually become dominated by fainter, older stars and look dimmer and dimmer.
Thanks to the new generation of large ground- and space-based telescopes, we now know that this picture of galaxies evolving peacefully and in isolation from one another is completely wrong. As we will see later in this chapter, galaxies in the distant universe do not look like the Milky Way and nearby galaxies such as Andromeda, and the story of their development is more complex and involves far more interaction with their neighbors.
Why were astronomers so wrong? Up until the early 1990s, the most distant normal galaxy that had been observed emitted its light 8 billion years ago. During the last 8 billion years, many galaxies—and particularly the giant ellipticals, which are the most luminous and therefore the easiest to see at large distances—did evolve peacefully and slowly. But the Hubble, Spitzer, Herschel, Keck, and now JWST, all of which have come on line since the 1990s, make it possible to pierce the 8-billion-light-year barrier. We now have detailed views of many thousands of galaxies that emitted their light much earlier (some more than 13 billion years ago—see ).
Much of the recent work on the evolution of galaxies has progressed by studying a few specific small regions of the sky where the Hubble, Spitzer, JWST, and ground-based telescopes have taken extremely long exposure images. This allowed astronomers to detect very faint, very distant, and therefore very young galaxies (). Our deep space telescope images show some galaxies that are 100 times fainter than the faintest objects that can be observed spectroscopically with today’s giant ground-based telescopes. This turns out to mean that we can obtain the spectra needed to determine redshifts for only the very brightest five percent of the galaxies in these images.
Although we do not have spectra for most of the faint galaxies, the Hubble Space Telescope has been used to study the shapes of a large number of very distant galaxies. It can do this because the images taken in space are not blurred by the Earth's atmosphere. To the surprise of astronomers, the distant galaxies did not fit Hubble’s classification scheme at all. Remember that Hubble found that nearly all nearby galaxies could be classified into a few categories, depending on whether they were ellipticals or spirals. The distant galaxies observed by the Hubble Space Telescope look very different from present-day galaxies, without identifiable spiral arms, disks, and bulges (). They also tend to be much clumpier than most galaxies today. In other words, it’s becoming clear that the shapes of galaxies have changed significantly over time. In fact, we now know that the Hubble scheme works well for only the last half of the age of the universe. Before then, galaxies were much more chaotic.
It’s not just the shapes that are different. Nearly all the galaxies with red-shifts that correspond to 11 billion light-years or more—that is, galaxies that we are seeing when they were less than 3 billion years old—are extremely blue, indicating that they contain a lot of young stars and that star formation in them is occurring at a higher rate than in nearby galaxies. Observations also show that very distant galaxies are systematically smaller on average than nearby galaxies. Relatively few galaxies present before the universe was about 8 billion years old have masses greater than 1011 MSun. That’s 1/20 the mass of the Milky Way if we include its dark matter halo. Eleven billion years ago, there were only a few galaxies with masses greater than 1010 MSun. What we see instead seem to be small pieces or fragments of galactic material (). When we look at galaxies that emitted their light 11 to 12 billion years ago, we now believe we are seeing the seeds of elliptical galaxies and of the central bulges of spirals. Over time, these smaller galaxies collided and merged to build up today’s large galaxies.
Bear in mind that stars that formed more than 11 billion years ago will be very old stars today. Indeed when we look nearby (at galaxies we see closer to our time), we find mostly old stars in the nuclear bulges of nearby spirals and in elliptical galaxies.
What such observations are showing us is that galaxies have grown in size as the universe has aged. Not only were galaxies smaller several billion years ago, but there were more of them; gas-rich galaxies, particularly the less luminous ones, were much more numerous then than they are today.
Those are some of the basic observations we can make of individual galaxies (and their evolution) looking back in cosmic time. Now we want to turn to the larger context. If stars are grouped into galaxies, are the galaxies also grouped in some way? In the third section of this chapter, we’ll explore the largest structures known in the universe.
### Key Concepts and Summary
When we look at distant galaxies, we are looking back in time. We have now seen galaxies as they were when the universe was about 300 million years old—only about two percent as old as it is now. The universe now is 13.8 billion years old. The color of a galaxy is an indicator of the age of the stars that populate it. Blue galaxies must contain a lot of hot, massive, young stars. Galaxies that contain only old stars tend to be yellowish red. The first generation of stars formed when the universe was only a few hundred million years old. Galaxies observed when the universe was only a few billion years old tend to be smaller than today’s galaxies, to have more irregular shapes, and to have more rapid star formation than the galaxies we see nearby in today’s universe. This shows that the smaller galaxy fragments assembled themselves into the larger galaxies we see today. |
# The Evolution and Distribution of Galaxies
## Galaxy Mergers and Active Galactic Nuclei
### Learning Objectives
By the end of this section, you will be able to:
1. Explain how galaxies grow by merging with other galaxies and by consuming smaller galaxies (for lunch)
2. Describe the effects that supermassive black holes in the centers of most galaxies have on the fate of their host galaxies
One of the conclusions astronomers have reached from studying distant galaxies is that collisions and mergers of whole galaxies play a crucial role in determining how galaxies acquired the shapes and sizes we see today. Only a few of the nearby galaxies are currently involved in collisions, but detailed studies of those tell us what to look for when we seek evidence of mergers in very distant and very faint galaxies. These in turn give us important clues about the different evolutionary paths galaxies have taken over cosmic time. Let’s examine in more detail what happens when two galaxies collide.
### Mergers and Cannibalism
shows a dynamic view of two galaxies that are colliding. The stars themselves in this pair of galaxies will not be affected much by this cataclysmic event. (See the Astronomy Basics feature box Why Galaxies Collide but Stars Rarely Do.) Since there is a lot of space between the stars, a direct collision between two stars is very unlikely. However, the orbits of many of the stars will be changed as the two galaxies move through each other, and the change in orbits can totally alter the appearance of the interacting galaxies. A gallery of interesting colliding galaxies is shown in . Great rings, huge tendrils of stars and gas, and other complex structures can form in such cosmic collisions. Indeed, these strange shapes are the signposts that astronomers use to identify colliding galaxies.
The details of galaxy collisions are complex, and the process can take hundreds of millions of years. Thus, collisions are best simulated on a computer (), where astronomers can calculate the slow interactions of stars, and clouds of gas and dust, via gravity. These calculations show that if the collision is slow, the colliding galaxies may coalesce to form a single galaxy.
When two galaxies of equal size are involved in a collision, we call such an interaction a merger (the term applied in the business world to two equal companies that join forces). But small galaxies can also be swallowed by larger ones—a process astronomers have called, with some relish, galactic cannibalism ().
The very large elliptical galaxies we discussed in Galaxies probably form by cannibalizing a variety of smaller galaxies in their clusters. These “monster” galaxies frequently possess more than one nucleus and have probably acquired their unusually high luminosities by swallowing nearby galaxies. The multiple nuclei are the remnants of their victims (). Many of the large, peculiar galaxies that we observe also owe their chaotic shapes to past interactions. Slow collisions and mergers can even transform two or more spiral galaxies into a single elliptical galaxy.
A change in shape is not all that happens when galaxies collide. If either galaxy contains interstellar matter, the collision can compress the gas and trigger an increase in the rate at which stars are being formed—by as much as a factor of 100. Astronomers call this abrupt increase in the number of stars being formed a starburst, and the galaxies in which the increase occurs are termed starburst galaxies (). In some interacting galaxies, star formation is so intense that all the available gas is exhausted in only a few million years; the burst of star formation is clearly only a temporary phenomenon. While a starburst is going on, however, the galaxy where it is taking place becomes much brighter and much easier to detect at large distances.
When astronomers finally had the tools to examine a significant number of galaxies that emitted their light 11 to 12 billion years ago, they found that these very young galaxies often resemble nearby starburst galaxies that are involved in mergers: they also have multiple nuclei and peculiar shapes, they are usually clumpier than normal galaxies today, with multiple intense knots and lumps of bright starlight, and they have higher rates of star formation than isolated galaxies. They also contain lots of blue, young, type O and B stars, as do nearby merging galaxies.
Galaxy mergers in today’s universe are rare. Only about five percent of nearby galaxies are currently involved in interactions. Interactions were much more common billions of years ago () and helped build up the “more mature” galaxies we see in our time. Clearly, interactions of galaxies have played a crucial role in their evolution.
### Active Galactic Nuclei and Galaxy Evolution
While galaxy mergers are huge, splashy events that completely reshape entire galaxies on scales of hundreds of thousands of light-years and can spark massive bursts of star formation, accreting black holes inside galaxies can also disturb and alter the evolution of their host galaxies. You learned in Active Galaxies, Quasars, and Supermassive Black Holes about a family of objects known as active galactic nuclei (AGN), all of them powered by supermassive black holes. If the black hole is surrounded by enough gas, some of the gas can fall into the black hole, getting swept up on the way into an accretion disk, a compact, swirling maelstrom perhaps only 100 AU across (the size of our solar system).
Within the disk the gas heats up until it shines brilliantly even in X-rays, often outshining the rest of the host galaxy with its billions of stars. Supermassive black holes and their accretion disks can be violent and powerful places, with some material getting sucked into the black hole but even more getting shot out along huge jets perpendicular to the disk. These powerful jets can extend far outside the starry edge of the galaxy.
AGN were much more common in the early universe, in part because frequent mergers provided a fresh gas supply for the black hole accretion disks. Examples of AGN in the nearby universe today include the one in galaxy M87 (see ), which sports a jet of material shooting out from its nucleus at speeds close to the speed of light, and the one in the bright galaxy NGC 5128, also known as Centaurus A (see ).
Many highly accelerated particles move with the jets in such galaxies. Along the way, the particles in the jets can plow into gas clouds in the interstellar medium, breaking them apart and scattering them. Since denser clouds of gas and dust are required for material to clump together to make stars, the disruption of the clouds can halt star formation in the host galaxy or cut it off before it even begins.
In this way, quasars and other kinds of AGN can play a crucial role in the evolution of their galaxies. For example, there is growing evidence that the merger of two gas-rich galaxies not only produces a huge burst of star formation, but also triggers AGN activity in the core of the new galaxy. That activity, in turn, could then slow down or shut off the burst of star formation—which could have significant implications for the apparent shape, brightness, chemical content, and stellar components of the entire galaxy. Astronomers refer to that process as AGN feedback, and it is apparently an important factor in the evolution of most galaxies.
### Key Concepts and Summary
When galaxies of comparable size collide and coalesce we call it a merger, but when a small galaxy is swallowed by a much larger one, we use the term galactic cannibalism. Collisions play an important role in the evolution of galaxies. If the collision involves at least one galaxy rich in interstellar matter, the resulting compression of the gas will result in a burst of star formation, leading to a starburst galaxy. Mergers were much more common when the universe was young, and many of the most distant galaxies that we see are starburst galaxies that are involved in collisions. Active galactic nuclei powered by supermassive black holes in the centers of most galaxies can have major effects on the host galaxy, including shutting off star formation. |
# The Evolution and Distribution of Galaxies
## The Distribution of Galaxies in Space
### Learning Objectives
By the end of this section, you will be able to:
1. Explain the cosmological principle and summarize the evidence that it applies on the largest scales of the known universe
2. Describe the contents of the Local Group of galaxies
3. Distinguish among groups, clusters, and superclusters of galaxies
4. Describe the largest structures seen in the universe, including voids
In the preceding section, we emphasized the role of mergers in shaping the evolution of galaxies. In order to collide, galaxies must be fairly close together. To estimate how often collisions occur and how they affect galaxy evolution, astronomers need to know how galaxies are distributed in space and over cosmic time. Are most of them isolated from one another or do they congregate in groups? If they congregate, how large are the groups and how and when did they form? And how, in general, are galaxies and their groups arranged in the cosmos? Are there as many in one direction of the sky as in any other, for example? How did galaxies get to be arranged the way we find them today?
Edwin Hubble found answers to some of these questions only a few years after he first showed that the spiral nebulae were galaxies and not part of our Milky Way. As he examined galaxies all over the sky, Hubble made two discoveries that turned out to be crucial for studies of the evolution of the universe.
### The Cosmological Principle
Hubble made his observations with what were then the world’s largest telescopes—the 100-inch and 60-inch reflectors on Mount Wilson. These telescopes have small fields of view: they can see only a small part of the heavens at a time. To photograph the entire sky with the 100-inch telescope, for example, would have taken longer than a human lifetime. So instead, Hubble sampled the sky in many regions, much as Herschel did with his star gauging (see The Architecture of the Galaxy). In the 1930s, Hubble photographed 1283 sample areas, and on each print, he carefully counted the numbers of galaxy images ().
The first discovery Hubble made from his survey was that the number of galaxies visible in each area of the sky is about the same. (Strictly speaking, this is true only if the light from distant galaxies is not absorbed by dust in our own Galaxy, but Hubble made corrections for this absorption.) He also found that the numbers of galaxies increase with faintness, as we would expect if the density of galaxies is about the same at all distances from us.
To understand what we mean, imagine you are taking snapshots in a crowded stadium during a sold-out concert. The people sitting near you look big, so only a few of them will fit into a photo. But if you focus on the people sitting in seats way on the other side of the stadium, they look so small that many more will fit into your picture. If all parts of the stadium have the same seat arrangements, then as you look farther and farther away, your photo will get more and more crowded with people. In the same way, as Hubble looked at fainter and fainter galaxies, he saw more and more of them.
Hubble’s findings are enormously important, for they indicate that the universe is both isotropic and homogeneous—it looks the same in all directions, and a large volume of space at any given redshift or distance is much like any other volume at that redshift. If that is so, it does not matter what section of the universe we observe (as long as it’s a sizable portion): any section will look the same as any other.
Hubble’s results—and many more that have followed in the nearly 100 years since then—imply not only that the universe is about the same everywhere (apart from changes with time) but also that aside from small-scale local differences, the part we can see around us is representative of the whole. The idea that the universe is the same everywhere is called the cosmological principle and is the starting assumption for nearly all theories that describe the entire universe (see The Big Bang).
Without the cosmological principle, we could make no progress at all in studying the universe. Suppose our own local neighborhood were unusual in some way. Then we could no more understand what the universe is like than if we were marooned on a warm south-sea island without outside communication and were trying to understand the geography of Earth. From our limited island vantage point, we could not know that some parts of the planet are covered with snow and ice, or that large continents exist with a much greater variety of terrain than that found on our island.
Hubble merely counted the numbers of galaxies in various directions without knowing how far away most of them were. With modern instruments, astronomers have measured the velocities and distances of hundreds of thousands of galaxies, and so built up a meaningful picture of the large-scale structure of the universe. In the rest of this section, we describe what we know about the distribution of galaxies, beginning with those that are nearby.
### The Local Group
The region of the universe for which we have the most detailed information is, as you would expect, our own local neighborhood. It turns out that the Milky Way Galaxy is a member of a small group of galaxies called, not too imaginatively, the Local Group. It is spread over about 3 million light-years and contains 60 or so members. There are three large spiral galaxies (our own, the Andromeda galaxy, and M33), two intermediate ellipticals, and many dwarf ellipticals and irregular galaxies.
New members of the Local Group are still being discovered. We mentioned in The Milky Way Galaxy a dwarf galaxy only about 80,000 light-years from Earth and about 50,000 light-years from the center of the galaxy that was discovered in 1994 in the constellation of Sagittarius. (This dwarf is actually venturing too close to the much larger Milky Way and will eventually be consumed by it.)
Many of the recent discoveries have been made possible by the new generation of automated, sensitive, wide-field surveys, such as the Sloan Digital Sky Survey, that map the positions of millions of stars across most of the visible sky. By digging into the data with sophisticated computer programs, astronomers have turned up numerous tiny, faint dwarf galaxies that are all but invisible to the eye even in those deep telescopic images. These new findings may help solve a long-standing problem: the prevailing theories of how galaxies form predicted that there should be more dwarf galaxies around big galaxies like the Milky Way than had been observed—and only now do we have the tools to find these faint and tiny galaxies and begin to compare the numbers of them with theoretical predictions.
Several new dwarf galaxies have also been found near the Andromeda galaxy. Such dwarf galaxies are difficult to find because they typically contain relatively few stars, and it is hard to distinguish them from the foreground stars in our own Milky Way.
is a rough sketch showing where the brighter members of the Local Group are located. The average of the motions of all the galaxies in the Local Group indicates that its total mass is about 4 × 1012 MSun, and at least half of this mass is contained in the two giant spirals—the Andromeda galaxy and the Milky Way Galaxy. And bear in mind that a substantial amount of the mass in the Local Group is in the form of dark matter.
### Neighboring Groups and Clusters
Small galaxy groups like ours are hard to notice at larger distances. However, there are much more substantial groups called galaxy clusters that are easier to spot even many millions of light-years away. Such clusters are described as poor or rich depending on how many galaxies they contain. Rich clusters have thousands or even tens of thousands of galaxies, although many of the galaxies are quite faint and hard to detect.
The nearest moderately rich galaxy cluster is called the Virgo Cluster, after the constellation in which it is seen. It is about 50 million light-years away and contains thousands of members, of which a few are shown in . The giant elliptical (and very active) galaxy M87, which you came to know and love in the chapter on Active Galaxies, Quasars, and Supermassive Black Holes, belongs to the Virgo Cluster.
A good example of a cluster that is much larger than the Virgo complex is the Coma cluster, with a diameter of at least 10 million light-years (). A little over 300 million light-years distant, this cluster is centered on two giant ellipticals whose luminosities equal about 400 billion Suns each. Thousands of galaxies have been observed in Coma, but the galaxies we see are almost certainly only part of what is really there. Dwarf galaxies are too faint to be seen at the distance of Coma, but we expect they are part of this cluster just as they are part of nearer ones. If so, then Coma likely contains tens of thousands of galaxies. The total mass of this cluster is about
4 × 1015 MSun (enough mass to make 4 million billion stars like the Sun).
Let’s pause here for a moment of perspective. We are now discussing numbers by which even astronomers sometimes feel overwhelmed. The Coma cluster may have 10, 20, or 30 thousand galaxies, and each galaxy has billions and billions of stars. If you were traveling at the speed of light, it would still take you more than 10 million years (longer than the history of the human species) to cross this giant swarm of galaxies. And if you lived on a planet on the outskirts of one of these galaxies, many other members of the cluster would be close enough to be noteworthy sights in your nighttime sky.
Really rich clusters such as Coma usually have a high concentration of galaxies near the center. We can see giant elliptical galaxies in these central regions but few, if any, spiral galaxies. The spirals that do exist generally occur on the outskirts of clusters.
We might say that ellipticals are highly “social”: they are often found in groups and very much enjoy “hanging out” with other ellipticals in crowded situations. It is precisely in such crowds that collisions are most likely and, as we discussed earlier, we think that most large ellipticals are built through mergers of smaller galaxies.
Spirals, on the other hand, are more “shy”: they are more likely to be found in poor clusters or on the edges of rich clusters where collisions are less likely to disrupt the spiral arms or strip out the gas needed for continued star formation.
### Superclusters and Voids
After astronomers discovered clusters of galaxies, they naturally wondered whether there were still larger structures in the universe. Do clusters of galaxies gather together? To answer this question, we must be able to map large parts of the universe in three dimensions. We must know not only the position of each galaxy on the sky (that’s two dimensions) but also its distance from us (the third dimension).
This means we must be able to measure the redshift of each galaxy in our map. Taking a spectrum of each individual galaxy to do this is a much more time-consuming task than simply counting galaxies seen in different directions on the sky, as Hubble did. Today, astronomers have found ways to get the spectra of many galaxies in the same field of view (sometimes hundreds or even thousands at a time) to cut down the time it takes to finish their three-dimensional maps. Larger telescopes are also able to measure the redshifts—and therefore the distances—of much more distant galaxies and (again) to do so much more quickly than previously possible.
Another challenge astronomers faced in deciding how to go about constructing a map of the universe is similar to that confronted by the first team of explorers in a huge, uncharted territory on Earth. Since there is only one band of explorers and an enormous amount of land, they have to make choices about where to go first. One strategy might be to strike out in a straight line in order to get a sense of the terrain. They might, for example, cross some mostly empty prairies and then hit a dense forest. As they make their way through the forest, they learn how thick it is in the direction they are traveling, but not its width to their left or right. Then a river crosses their path; as they wade across, they can measure its width but learn nothing about its length. Still, as they go on in their straight line, they begin to get some sense of what the landscape is like and can make at least part of a map. Other explorers, striking out in other directions, will someday help fill in the remaining parts of that map.
Astronomers have traditionally had to make the same sort of choices. We cannot explore the universe in every direction to infinite “depth” or sensitivity: there are far too many galaxies and far too few telescopes to do the job. But we can pick a single direction or a small slice of the sky and start mapping the galaxies. Margaret Geller, the late John Huchra, and their students at the Harvard-Smithsonian Center for Astrophysics pioneered this technique, and several other groups have extended their work to cover larger volumes of space.
The largest universe mapping project to date is the Sloan Digital Sky Survey (see the Making Connections feature box Astronomy and Technology: The Sloan Digital Sky Survey at the end of this section). A plot of the distribution of galaxies mapped by the Sloan survey is shown in . To the surprise of astronomers, maps like the one in the figure showed that clusters of galaxies are not arranged uniformly throughout the universe, but are found in huge filamentary superclusters that look like great arcs of inkblots splattered across a page. The Local Group is part of a supercluster we call the Virgo Supercluster because it also includes the giant Virgo cluster of galaxies. The superclusters resemble an irregularly torn sheet of paper or a pancake in shape—they can extend for hundreds of millions of light-years in two dimensions, but are only 10 to 20 million light-years thick in the third dimension. Detailed study of some of these structures shows that their masses are a few times 1016 MSun, which is 10,000 times more massive than the Milky Way Galaxy.
Separating the filaments and sheets in a supercluster are voids, which look like huge empty bubbles walled in by the great arcs of galaxies. They have typical diameters of 150 million light-years, with the clusters of galaxies concentrated along their walls. The whole arrangement of filaments and voids reminds us of a sponge, the inside of a honeycomb, or a hunk of Swiss cheese with very large holes. If you take a good slice or cross-section through any of these, you will see something that looks roughly like .
Before these voids were discovered, most astronomers would probably have predicted that the regions between giant clusters of galaxies were filled with many small groups of galaxies, or even with isolated individual galaxies. Careful searches within these voids have found few galaxies of any kind. Apparently, 90 percent of the galaxies occupy less than 10 percent of the volume of space.
Even larger, more sensitive telescopes and surveys are currently being designed and built to peer farther and farther out in space and back in time. The new 50-meter Large Millimeter Telescope in Mexico and the Atacama Large Millimeter Array in Chile can detect far-infrared and millimeter-wave radiation from massive starbursting galaxies at redshifts and thus distances more than 90% of the way back to the Big Bang. These cannot be observed with visible light because their star formation regions are wrapped in clouds of thick dust. And in 2021, the 6.5-meter-diameter James Webb Space Telescope is scheduled to launch. It will be the first new major visible light and near-infrared telescope in space since Hubble was launched more than 30 years earlier. One of the major goals of this telescope is to observe directly the light of the first galaxies and even the first stars to shine, less than half a billion years after the Big Bang.
At this point, if you have been thinking about our discussions of the expanding universe in Galaxies, you may be wondering what exactly in is expanding. We know that the galaxies and clusters of galaxies are held together by their gravity and do not expand as the universe does. However, the voids do grow larger and the filaments move farther apart as space stretches (see The Big Bang).
### Key Concepts and Summary
Counts of galaxies in various directions establish that the universe on the large scale is homogeneous and isotropic (the same everywhere and the same in all directions, apart from evolutionary changes with time). The sameness of the universe everywhere is referred to as the cosmological principle. Galaxies are grouped together in clusters. The Milky Way Galaxy is a member of the Local Group, which contains at least 54 member galaxies. Rich clusters (such as Virgo and Coma) contain thousands or tens of thousands of galaxies. Galaxy clusters often group together with other clusters to form large-scale structures called superclusters, which can extend over distances of several hundred million light-years. Clusters and superclusters are found in filamentary structures that are huge but fill only a small fraction of space. Most of space consists of large voids between superclusters, with nearly all galaxies confined to less than 10% of the total volume. |
# The Evolution and Distribution of Galaxies
## The Challenge of Dark Matter
### Learning Objectives
By the end of this section, you will be able to:
1. Explain how astronomers know that the solar system contains very little dark matter
2. Summarize the evidence for dark matter in most galaxies
3. Explain how we know that galaxy clusters are dominated by dark matter
4. Relate the presence of dark matter to the average mass-to-light ratio of huge volumes of space containing many galaxies
So far this chapter has focused almost entirely on matter that radiates electromagnetic energy—stars, planets, gas, and dust. But, as we have pointed out in several earlier chapters (especially The Milky Way Galaxy), it is now clear that galaxies contain large amounts of dark matter as well. There is much more dark matter, in fact, than matter we can see—which means it would be foolish to ignore the effect of this unseen material in our theories about the structure of the universe. (As many a ship captain in the polar seas found out too late, the part of the iceberg visible above the ocean’s surface was not necessarily the only part he needed to pay attention to.) Dark matter turns out to be extremely important in determining the evolution of galaxies and of the universe as a whole.
The idea that much of the universe is filled with dark matter may seem like a bizarre concept, but we can cite a historical example of “dark matter” much closer to home. In the mid-nineteenth century, measurements showed that the planet Uranus did not follow exactly the orbit predicted from Newton’s laws if one added up the gravitational forces of all the known objects in the solar system. Some people worried that Newton’s laws may simply not work so far out in our solar system. But the more straightforward interpretation was to attribute Uranus’ orbital deviations to the gravitational effects of a new planet that had not yet been seen. Calculations showed where that planet had to be, and Neptune was discovered just about in the predicted location.
In the same way, astronomers now routinely determine the location and amount of dark matter in galaxies by measuring its gravitational effects on objects we can see. And, by measuring the way that galaxies move in clusters, scientists have discovered that dark matter is also distributed among the galaxies in the clusters. Since the environment surrounding a galaxy is important in its development, dark matter must play a central role in galaxy evolution as well. Indeed, it appears that dark matter makes up most of the matter in the universe. But what is dark matter? What is it made of? We’ll look next at the search for dark matter and the quest to determine its nature.
### Dark Matter in the Local Neighborhood
Is there dark matter in our own solar system? Astronomers have examined the orbits of the known planets and of spacecraft as they journey to the outer planets and beyond. No deviations have been found from the orbits predicted on the basis of the masses of objects already discovered in our solar system and the theory of gravity. We therefore conclude that there is no evidence that there are large amounts of dark matter nearby.
Astronomers have also looked for evidence of dark matter in the region of the Milky Way Galaxy that lies within a few hundred light-years of the Sun. In this vicinity, most of the stars are restricted to a thin disk. It is possible to calculate how much mass the disk must contain in order to keep the stars from wandering far above or below it. The total matter that must be in the disk is less than twice the amount of luminous matter. This means that no more than half of the mass in the region near the Sun can be dark matter.
### Dark Matter in and around Galaxies
In contrast to our local neighborhood near the Sun and solar system, there is (as we saw in The Milky Way Galaxy) ample evidence strongly suggesting that about 90% of the mass in the entire galaxy is in the form of a halo of dark matter. In other words, there is apparently about nine times more dark matter than visible matter. Astronomers have found some stars in the outer regions of the Milky Way beyond its bright disk, and these stars are revolving very rapidly around its center. The mass contained in all the stars and all the interstellar matter we can detect in the galaxy does not exert enough gravitational force to explain how those fast-moving stars remain in their orbits and do not fly away. Only by having large amounts of unseen matter could the galaxy be holding on to those fast-moving outer stars. The same result is found for other spiral galaxies as well.
is an example of the kinds of observations astronomers are making, for the Triangulum galaxy, a member of our Local Group. The observed rotation of spiral galaxies like Andromeda is usually seen in plots, known as rotation curves, that show velocity versus distance from the galaxy center. Such plots suggest that the dark matter is found in a large halo surrounding the luminous parts of each galaxy. The radius of the halos around the Milky Way and Andromeda may be as large as 300,000 light-years, much larger than the visible size of these galaxies.
### Dark Matter in Clusters of Galaxies
Galaxies in clusters also move around: they orbit the cluster’s center of mass. It is not possible for us to follow a galaxy around its entire orbit because that typically takes about a billion years. It is possible, however, to measure the velocities with which galaxies in a cluster are moving, and then estimate what the total mass in the cluster must be to keep the individual galaxies from flying out of the cluster. The observations indicate that the mass of the galaxies alone cannot keep the cluster together—some other gravity must again be present. The total amount of dark matter in clusters exceeds by more than ten times the luminous mass contained within the galaxies themselves, indicating that dark matter exists between galaxies as well as inside them.
There is another approach we can take to measuring the amount of dark matter in clusters of galaxies. As we saw, the universe is expanding, but this expansion is not perfectly uniform, thanks to the interfering hand of gravity. Suppose, for example, that a galaxy lies outside but relatively close to a rich cluster of galaxies. The gravitational force of the cluster will tug on that neighboring galaxy and slow down the rate at which it moves away from the cluster due to the expansion of the universe.
Consider the Local Group of galaxies, lying on the outskirts of the Virgo Supercluster. The mass concentrated at the center of the Virgo Cluster exerts a gravitational force on the Local Group. As a result, the Local Group is moving away from the center of the Virgo Cluster at a velocity a few hundred kilometers per second slower than the Hubble law predicts. By measuring such deviations from a smooth expansion, astronomers can estimate the total amount of mass contained in large clusters.
There are two other very useful methods for measuring the amount of dark matter in galaxy clusters, and both of them have produced results in general agreement with the method of measuring galaxy velocities: gravitational lensing and X-ray emission. Let’s take a look at both.
As Albert Einstein showed in his theory of general relativity, the presence of mass bends the surrounding fabric of spacetime. Light follows those bends, so very massive objects can bend light significantly. You saw examples of this in the Astronomy Basics feature box Gravitational Lensing in the previous section. Visible galaxies are not the only possible gravitational lenses. Dark matter can also reveal its presence by producing this effect. shows a galaxy cluster that is acting like a gravitational lens; the streaks and arcs you see on the picture are lensed images of more distant galaxies. Gravitational lensing is well enough understood that astronomers can use the many ovals and arcs seen in this image to calculate detailed maps of how much matter there is in the cluster and how that mass is distributed. The result from studies of many such gravitational lens clusters shows that, like individual galaxies, galaxy clusters contain more than ten times as much dark matter as luminous matter.
The third method astronomers use to detect and measure dark matter in galaxy clusters is to image them in the light of X-rays. When the first sensitive X-ray telescopes were launched into orbit around Earth in the 1970s and trained on massive galaxy clusters, it was quickly discovered that the clusters emit copious X-ray radiation (see ). Most stars do not emit much X-ray radiation, and neither does most of the gas or dust between the stars inside galaxies. What could be emitting the X-rays seen from virtually all massive galaxy clusters?
It turns out that just as galaxies have gas distributed between their stars, clusters of galaxies have gas distributed between their galaxies. The particles in these huge reservoirs of gas are not just sitting still; rather, they are constantly moving, zooming around under the influence of the cluster’s immense gravity like mini planets around a giant sun. As they move and bump against each other, the gas heats up hotter and hotter until, at temperatures as high as 100 million K, it shines brightly at X-ray wavelengths. The more mass the cluster has, the faster the motions, the hotter the gas, and the brighter the X-rays. Astronomers calculate that the mass present to induce those motions must be about ten times the mass they can see in the clusters, including all the galaxies and all the gas. Once again, this is evidence that the galaxy clusters are seen to be dominated by dark matter.
### Mass-to-Light Ratio
We described the use of the mass-to-light ratio to characterize the matter in galaxies or clusters of galaxies in Properties of Galaxies. For systems containing mostly old stars, the mass-to-light ratio is typically 10 to 20, where mass and light are measured in units of the Sun’s mass and luminosity. A mass-to-light ratio of 100 or more is a signal that a substantial amount of dark matter is present. summarizes the results of measurements of mass-to-light ratios for various classes of objects. Very large mass-to-light ratios are found for all systems of galaxy size and larger, indicating that dark matter is present in all these types of objects. This is why we say that dark matter apparently makes up most of the total mass of the universe.
The clustering of galaxies can be used to derive the total amount of mass in a given region of space, while visible radiation is a good indicator of where the luminous mass is. Studies show that the dark matter and luminous matter are very closely associated. The dark matter halos do extend beyond the luminous boundaries of the galaxies that they surround. However, where there are large clusters of galaxies, you will also find large amounts of dark matter. Voids in the galaxy distribution are also voids in the distribution of dark matter.
### What Is the Dark Matter?
How do we go about figuring out what the dark matter consists of? The technique we might use depends on its composition. Let’s consider the possibility that some of the dark matter is made up of normal particles: protons, neutrons, and electrons. Suppose these particles were assembled into black holes, brown dwarfs, or white dwarfs. If the black holes had no accretion disks, they would be invisible to us. White and brown dwarfs do emit some radiation but have such low luminosities that they cannot be seen at distances greater than a few thousand light-years.
We can, however, look for such compact objects because they can act as gravitational lenses. (See the Astronomy Basics feature box Gravitational Lensing.) Suppose the dark matter in the halo of the Milky Way were made up of black holes, brown dwarfs, and white dwarfs. These objects have been whimsically dubbed MACHOs (MAssive Compact Halo Objects). If an invisible MACHO passes directly between a distant star and Earth, it acts as a gravitational lens, focusing the light from the distant star. This causes the star to appear to brighten over a time interval of a few hours to several days before returning to its normal brightness. Since we can’t predict when any given star might brighten this way, we have to monitor huge numbers of stars to catch one in the act. There are not enough astronomers to keep monitoring so many stars, but today’s automated telescopes and computer systems can do it for us.
Research teams making observations of millions of stars in the nearby galaxy called the Large Magellanic Cloud have reported several examples of the type of brightening expected if MACHOs are present in the halo of the Milky Way (). However, there are not enough MACHOs in the halo of the Milky Way to account for the mass of the dark matter in the halo.
This result, along with a variety of other experiments, leads us to conclude that the types of matter we are familiar with can make up only a tiny portion of the dark matter. Another possibility is that dark matter is composed of some new type of particle—one that researchers are now trying to detect in laboratories here on Earth (see The Big Bang).
The kinds of dark matter particles that astronomers and physicists have proposed generally fall into two main categories: hot and cold dark matter. The terms hot and cold don’t refer to true temperatures, but rather to the average velocities of the particles, analogous to how we might think of particles of air moving in your room right now. In a cold room, the air particles move more slowly on average than in a warm room.
In the early universe, if dark matter particles easily moved fast and far compared to the lumps and bumps of ordinary matter that eventually became galaxies and larger structures, we call those particles hot dark matter. In that case, smaller lumps and bumps would be smeared out by the particle motions, meaning fewer small galaxies would get made.
On the other hand, if the dark matter particles moved slowly and covered only small distances compared to the sizes of the lumps in the early universe, we call that cold dark matter. Their slow speeds and energy would mean that even the smaller lumps of ordinary matter would survive to grow into small galaxies. By looking at when galaxies formed and how they evolve, we can use observations to distinguish between the two kinds of dark matter. So far, observations seem most consistent with models based on cold dark matter.
Solving the dark matter problem is one of the biggest challenges facing astronomers. After all, we can hardly understand the evolution of galaxies and the long-term history of the universe without understanding what its most massive component is made of. For example, we need to know just what role dark matter played in starting the higher-density “seeds” that led to the formation of galaxies. And since many galaxies have large halos made of dark matter, how does this affect their interactions with one another and the shapes and types of galaxies that their collisions create?
Astronomers armed with various theories are working hard to produce models of galaxy structure and evolution that take dark matter into account in just the right way. Even though we don’t know what the dark matter is, we do have some clues about how it affected the formation of the very first galaxies. As we will see in The Big Bang, careful measurements of the microwave radiation left over after the Big Bang have allowed astronomers to set very tight limits on the actual sizes of those early seeds that led to the formation of the large galaxies that we see in today’s universe. Astronomers have also measured the relative numbers and distances between galaxies and clusters of different sizes in the universe today. So far, most of the evidence seems to weigh heavily in favor of cold dark matter, and most current models of galaxy and large-scale structure formation use cold dark matter as their main ingredient.
As if the presence of dark matter—a mysterious substance that exerts gravity and outweighs all the known stars and galaxies in the universe but does not emit or absorb light—were not enough, there is an even more baffling and equally important constituent of the universe that has only recently been discovered: we have called it dark energy in parallel with dark matter. We will say more about it and explore its effects on the evolution of the universe in The Big Bang. For now, we can complete our inventory of the contents of the universe by noting that it appears that the entire universe contains some mysterious energy that pushes spacetime apart, taking galaxies and the larger structures made of galaxies along with it. Observations show that dark energy becomes more and more important relative to gravity as the universe ages. As a result, the expansion of the universe is accelerating, and this acceleration seems to be happening mostly since the universe was about half its current age.
What we see when we peer out into the universe—the light from trillions of stars in hundreds of billions of galaxies wrapped in intricate veils of gas and dust—is therefore actually only a sprinkling of icing on top of the cake: as we will see in The Big Bang, when we look outside galaxies and clusters of galaxies at the universe as a whole, astronomers find that for every gram of luminous normal matter, such as protons, neutrons, electrons, and atoms in the universe, there are about 4 grams of nonluminous normal matter, mainly intergalactic hydrogen and helium. There are about 27 grams of dark matter, and the energy equivalent (remember Einstein’s famous E = mc2) of about 68 grams of dark energy. Dark matter, and (as we will see) even more so dark energy, are dramatic demonstrations of what we have tried to emphasize throughout this book: science is always a “progress report,” and we often encounter areas where we have more questions than answers.
Let’s next put together all these clues to trace the life history of galaxies and large-scale structure in the universe. What follows is the current consensus, but research in this field is moving rapidly, and some of these ideas will probably be modified as new observations are made.
### Key Concepts and Summary
Stars move much faster in their orbits around the centers of galaxies, and galaxies around centers of galaxy clusters, than they should according to the gravity of all the luminous matter (stars, gas, and dust) astronomers can detect. This discrepancy implies that galaxies and galaxy clusters are dominated by dark matter rather than normal luminous matter. Gravitational lensing and X-ray radiation from massive galaxy clusters confirm the presence of dark matter. Galaxies and clusters of galaxies contain about 10 times more dark matter than luminous matter. While some of the dark matter may be made up of ordinary matter (protons, neutrons, and electrons), perhaps in the form of very faint stars or black holes, most of it probably consists of some totally new type of particle not yet detected on Earth. Observations of gravitational lensing effects on distant objects have been used to look in the outer region of our Galaxy for any dark matter in the form of compact, dim stars or star remnants, but not enough such objects have been found to account for all the dark matter. |
# The Evolution and Distribution of Galaxies
## The Formation and Evolution of Galaxies and Structure in the Universe
### Learning Objectives
By the end of this section, you will be able to:
1. Summarize the main theories attempting to explain how individual galaxies formed
2. Explain how tiny “seeds” of dark matter in the early universe grew by gravitational attraction over billions of years into the largest structures observed in the universe: galaxy clusters and superclusters, filaments, and voids
As with most branches of natural science, astronomers and cosmologists always want to know the answer to the question, “How did it get that way?” What made galaxies and galaxy clusters, superclusters, voids, and filaments look the way they do? The existence of such large filaments of galaxies and voids is an interesting puzzle because we have evidence (to be discussed in The Big Bang) that the universe was extremely smooth even a few hundred thousand years after forming. The challenge for theoreticians is to understand how a nearly featureless universe changed into the complex and lumpy one that we see today. Armed with our observations and current understanding of galaxy evolution over cosmic time, dark matter, and large-scale structure, we are now prepared to try to answer that question on some of the largest possible scales in the universe. As we will see, the short answer to how the universe got this way is “dark matter + gravity + time.”
### How Galaxies Form and Grow
We’ve already seen that galaxies were more numerous, but smaller, bluer, and clumpier, in the distant past than they are today, and that galaxy mergers play a significant role in their evolution. At the same time, we have observed quasars and galaxies that emitted their light when the universe was less than a billion years old—so we know that large condensations of matter had begun to form at least that early. We also saw in Active Galaxies, Quasars, and Supermassive Black Holes that many quasars are found in the centers of elliptical galaxies. This means that some of the first large concentrations of matter must have evolved into the elliptical galaxies that we see in today’s universe. It seems likely that the supermassive black holes in the centers of galaxies and the spherical distribution of ordinary matter around them formed at the same time and through related physical processes.
Dramatic confirmation of that picture arrived only in the last decade, when astronomers discovered a curious empirical relationship: as we saw in Active Galaxies, Quasars, and Supermassive Black Holes, the more massive a galaxy is, the more massive its central black hole is. Somehow, the black hole and the galaxy “know” enough about each other to match their growth rates.
There have been two main types of galaxy formation models to explain all those observations. The first asserts that massive elliptical galaxies formed in a single, rapid collapse of gas and dark matter, during which virtually all the gas was turned quickly into stars. Afterward the galaxies changed only slowly as the stars evolved. This is what astronomers call a “top-down” scenario.
The second model suggests that today’s giant ellipticals were formed mostly through mergers of smaller galaxies that had already converted at least some of their gas into stars—a “bottom-up” scenario. In other words, astronomers have debated whether giant ellipticals formed most of their stars in the large galaxy that we see today or in separate small galaxies that subsequently merged.
Since we see some luminous quasars from when the universe was less than a billion years old, it is likely that at least some giant ellipticals began their evolution very early through the collapse of a single cloud. However, the best evidence also seems to show that mature giant elliptical galaxies like the ones we see nearby were rare before the universe was about 6 billion years old and that they are much more common today than they were when the universe was young. Observations also indicate that most of the gas in elliptical galaxies was converted to stars by the time the universe was about 3 billion years old, so it appears that elliptical galaxies have not formed many new stars since then. They are often said to be “red and dead”—that is, they mostly contain old, cool, red stars, and there is little or no new star formation going on.
These observations (when considered together) suggest that the giant elliptical galaxies that we see nearby formed from a combination of both top-down and bottom-up mechanisms, with the most massive galaxies forming in the densest clusters where both processes happened very early and quickly in the history of the universe.
The situation with spiral galaxies is apparently very different. The bulges of these galaxies formed early, like the elliptical galaxies (). However, the disks formed later (remember that the stars in the disk of the Milky Way are younger than the stars in the bulge and the halo) and still contain gas and dust. However, the rate of star formation in spirals today is about ten times lower than it was 8 billion years ago. The number of stars being formed drops as the gas is used up. So spirals seem to form mostly “bottom up” but over a longer time than ellipticals and in a more complex way, with at least two distinct phases.
Hubble originally thought that elliptical galaxies were young and would eventually turn into spirals, an idea we now know is not true. In fact, as we saw above, it’s more likely the other way around: two spirals that crash together under their mutual gravity can turn into an elliptical.
Despite these advances in our understanding of how galaxies form and evolve, many questions remain. For example, it’s even possible, given current evidence, that spiral galaxies could lose their spiral arms and disks in a merger event, making them look more like an elliptical or irregular galaxy, and then regain the disk and arms again later if enough gas remains available. The story of how galaxies assume their final shapes is still being written as we learn more about galaxies and their environment.
### Forming Galaxy Clusters, Superclusters, Voids, and Filaments
If individual galaxies seem to grow mostly by assembling smaller pieces together gravitationally over cosmic time, what about the clusters of galaxies and larger structures such as those seen in ? How do we explain the large-scale maps that show galaxies distributed on the walls of huge sponge- or bubble-like structures spanning hundreds of millions of light-years?
As we saw, observations have found increasing evidence for concentrations, filaments, clusters, and superclusters of galaxies when the universe was less than 3 billion years old (). This means that large concentrations of galaxies had already come together when the universe was less than a quarter as old as it is now.
Almost all the currently favored models of how large-scale structure formed in the universe tell a story similar to that for individual galaxies: tiny dark matter “seeds” in the hot cosmic soup after the Big Bang grew by gravity into larger and larger structures as cosmic time ticked on (). The final models we construct will need to be able to explain the size, shape, age, number, and spatial distribution of galaxies, clusters, and filaments—not only today, but also far back in time. Therefore, astronomers are working hard to measure and then to model those features of large-scale structure as accurately as possible. So far, a mixture of 5% normal atoms, 27% cold dark matter, and 68% dark energy seems to be the best way to explain all the evidence currently available (see The Big Bang).
The box at left is labeled “Big Bang,” the box at center is unlabeled and the box at right is labeled “Present”. A white arrow points from left to right representing the direction of time.
Scientists even have a model to explain how a nearly uniform, hot “soup” of particles and energy at the beginning of time acquired the Swiss-cheese-like structure that we now see on the largest scales. As we will see in The Big Bang, when the universe was only a few hundred thousand years old, everything was at a temperature of a few thousand degrees. Theorists suggest that at that early time, all the hot gas was vibrating, much as sound waves vibrate the air of a nightclub with an especially loud band. This vibrating could have concentrated matter into high-density peaks and created emptier spaces between them. When the universe cooled, the concentrations of matter were “frozen in,” and galaxies ultimately formed from the matter in these high-density regions.
### The Big Picture
To finish this chapter, let’s put all these ideas together to tell a coherent story of how the universe came to look the way it does. Initially, as we said, the distribution of matter (both luminous and dark) was nearly, but not quite exactly, smooth and uniform. That “not quite” is the key to everything. Here and there were lumps where the density of matter (both luminous and dark) was ever so slightly higher than average.
Initially, each individual lump expanded because the whole universe was expanding. However, as the universe continued to expand, the regions of higher density acquired still more mass because they exerted a slightly larger than average gravitational force on surrounding material. If the inward pull of gravity was high enough, the denser individual regions ultimately stopped expanding. They then began to collapse into irregularly shaped blobs (that’s the technical term astronomers use!). In many regions the collapse was more rapid in one direction, so the concentrations of matter were not spherical but came to resemble giant clumps, pancakes, and rope-like filaments—each much larger than individual galaxies.
These elongated clumps existed throughout the early universe, oriented in different directions and collapsing at different rates. The clumps provided the framework for the large-scale filamentary and bubble-like structures that we see preserved in the universe today.
The universe then proceeded to “build itself” from the bottom up. Within the clumps, smaller structures formed first, then merged to build larger ones, like Lego pieces being put together one by one to create a giant Lego metropolis. The first dense concentrations of matter that collapsed were the size of small dwarf galaxies or globular clusters—which helps explain why globular clusters are the oldest things in the Milky Way and most other galaxies. These fragments then gradually assembled to build galaxies, galaxy clusters, and, ultimately, superclusters of galaxies.
According to this picture, small galaxies and large star clusters first formed in the highest density regions of all—the filaments and nodes where the pancakes intersect—when the universe was about two percent of its current age. Some stars may have formed even before the first star clusters and galaxies came into existence. Some galaxy-galaxy collisions triggered massive bursts of star formation, and some of these led to the formation of black holes. In that rich, crowded environment, black holes found constant food and grew in mass. The development of massive black holes then triggered quasars and other active galactic nuclei whose powerful outflows of energy and matter shut off the star formation in their host galaxies. The early universe must have been an exciting place!
Clusters of galaxies then formed as individual galaxies congregated, drawn together by their mutual gravitational attraction (). First, a few galaxies came together to form groups, much like our own Local Group. Then the groups began combining to form clusters and, eventually, superclusters. This model predicts that clusters and superclusters should still be in the process of gathering together, and observations do in fact suggest that clusters are still gathering up their flocks of galaxies and collecting more gas as it flows in along filaments. In some instances we even see entire clusters of galaxies merging together.
Most giant elliptical galaxies formed through the collision and merger of many smaller fragments. Some spiral galaxies may have formed in relatively isolated regions from a single cloud of gas that collapsed to make a flattened disk, but others acquired additional stars, gas, and dark matter through collisions, and the stars acquired through these collisions now populate their halos and bulges. As we have seen, our Milky Way is still capturing small galaxies and adding them to its halo, and probably also pulling fresh gas from these galaxies into its disk.
### Key Concepts and Summary
Initially, luminous and dark matter in the universe was distributed almost—but not quite—uniformly. The challenge for galaxy formation theories is to show how this “not quite” smooth distribution of matter developed the structures—galaxies and galaxy clusters—that we see today. It is likely that the filamentary distribution of galaxies and voids was built in near the beginning, before stars and galaxies began to form. The first condensations of matter were about the mass of a large star cluster or a small galaxy. These smaller structures then merged over cosmic time to form large galaxies, clusters of galaxies, and superclusters of galaxies. Superclusters today are still gathering up more galaxies, gas, and dark matter. And spiral galaxies like the Milky Way are still acquiring material by capturing small galaxies near them.
### For Further Exploration
### Articles
Andrews, B. “What Are Galaxies Trying to Tell Us?” Astronomy (February 2011): 24. Introduction to our understanding of the shapes and evolution of different types of galaxies.
Barger, A. “The Midlife Crisis of the Cosmos.” Scientific American (January 2005): 46. On how our time differs from the early universe in terms of what galaxies are doing, and what role supermassive black holes play.
Berman, B. “The Missing Universe.” Astronomy (April 2014): 24. Brief review of dark matter, what it could be, and modified theories of gravity that can also explain it.
Faber, S., et al. “Staring Back to Cosmic Dawn.” Sky & Telescope (June 2014): 18. Program to see the most distant and earliest galaxies with the Hubble.
Geller, M., & Huchra, J. “Mapping the Universe.” Sky & Telescope (August 1991): 134. On their project mapping the location of galaxies in three dimensions.
Hooper, D. “Dark Matter in the Discovery Age.” Sky & Telescope (January 2013): 26. On experiments looking for the nature of dark matter.
James, C. R. “The Hubble Deep Field: The Picture Worth a Trillion Stars.” Astronomy (November 2015): 44. Detailed history and results, plus the Hubble Ultra-Deep Field.
Kaufmann, G., & van den Bosch, F. “The Life Cycle of Galaxies.” Scientific American (June 2002): 46. On the evolution of galaxies and how the different shapes of galaxies develop.
Knapp, G. “Mining the Heavens: The Sloan Digital Sky Survey.” Sky & Telescope (August 1997): 40.
Kron, R., & Butler, S. “Stars and Strips Forever.” Astronomy (February 1999): 48. On the Sloan Digital Survey.
Kruesi, L. “What Do We Really Know about Dark Matter?” Astronomy (November 2009): 28. Focuses on what dark matter could be and experiments to find out.
Larson, R., & Bromm, V. “The First Stars in the Universe.” Scientific American (December 2001): 64. On the dark ages and the birth of the first stars.
Nadis, S. “Exploring the Galaxy-Black Hole Connection.” Astronomy (May 2010): 28. About the role of massive black holes in the evolution of galaxies.
Nadis, S. “Astronomers Reveal the Universe’s Hidden Structure.” Astronomy (September 2013): 44. How dark matter is the scaffolding on which the visible universe rests.
Schilling, G. “Hubble Goes the Distance.” Sky & Telescope (January 2015): 20. Using gravitational lensing with HST to see the most distant galaxies.
Strauss, M. “Reading the Blueprints of Creation.” Scientific American (February 2004): 54. On large-scale surveys of galaxies and what they tell us about the organization of the early universe.
Tytell, D. “A Wide Deep Field: Getting the Big Picture.” Sky & Telescope (September 2001): 42. On the NOAO survey of deep sky objects.
Villard, R. “How Gravity’s Grand Illusion Reveals the Universe.” Astronomy (January 2013): 44. On gravitational lensing and what it teaches us.
### Websites
Assembly of Galaxies: http://jwst.nasa.gov/galaxies.html. Introductory background information about galaxies: what we know and what we want to learn.
Brief History of Gravitational Lensing: http://www.einstein-online.info/spotlights/grav_lensing_history. From Einstein OnLine.
Cosmic Structures: http://skyserver.sdss.org/dr1/en/astro/structures/structures.asp. Brief review page on how galaxies are organized, from the Sloan Survey.
Gravitational Lensing Discoveries from the Hubble Space Telescope: https://esahubble.org/news/?search=gravitational+lens. A chronological list of news releases and images.
Local Group of Galaxies: http://www.atlasoftheuniverse.com/localgr.html. Clickable map from the Atlas of the Universe project. See also their Virgo Cluster page: http://www.atlasoftheuniverse.com/galgrps/vir.html.
Sloan Digital Sky Survey Website: https://www.youtube.com/watch?v=1RXpHiCNsKU. Includes nontechnical and technical parts.
Spyglasses into the Universe: http://www.spacetelescope.org/science/gravitational_lensing/. Hubble page on gravitational lensing; includes links to videos.
Virgo Cluster of Galaxies: http://messier.seds.org/more/virgo.html. A page with brief information and links to maps, images, etc.
### Videos
Cosmic Simulations: http://www.tapir.caltech.edu/~phopkins/Site/Movies_cosmo.html. Beautiful videos with computer simulations of how galaxies form, from the FIRE group.
Cosmology of the Local Universe: http://irfu.cea.fr/cosmography. Narrated flythrough of maps of galaxies showing the closer regions of the universe (17:35).
Gravitational Lensing: https://www.youtube.com/watch?v=4Z71RtwoOas. Video from Fermilab, with Dr. Don Lincoln (7:14).
How Galaxies Were Cooked from the Primordial Soup: https://www.youtube.com/watch?v=wqNNCm7SNyw. A 2013 public talk by Dr. Sandra Faber of Lick Observatory about the evolution of galaxies; part of the Silicon Valley Astronomy Lecture Series (1:19:33).
Hubble Extreme Deep Field Pushes Back Frontiers of Time and Space: https://www.youtube.com/watch?v=gu_VhzhlqGw. Brief 2012 video (2:42).
Looking Deeply into the Universe in 3-D: https://www.eso.org/public/videos/eso1507a/. 2015 ESOCast video on how the Very Large Telescopes are used to explore the Hubble Ultra-Deep Field and learn more about the faintest and most distant galaxies (5:12).
Millennium Simulation: http://wwwmpa.mpa-garching.mpg.de/galform/virgo/millennium. A supercomputer in Germany follows the evolution of a representative large box as the universe evolves.
Movies of flying through the large-scale local structure: http://www.ifa.hawaii.edu/~tully/. By Brent Tully.
Shedding Light on Dark Matter: https://www.youtube.com/watch?v=bZW_B9CC-gI. 2008 TED talk on galaxies and dark matter by physicist Patricia Burchat (17:08).
Sloan Digital Sky Survey overview movies: https://www.youtube.com/watch?v=9vfOqVHyohw.
Virtual Universe: https://www.youtube.com/watch?v=SY0bKE10ZDM. An MIT model of a section of universe evolving, with dark matter included (4:11).
When Two Galaxies Collide: http://www.openculture.com/2009/04/when_galaxies_collide.html. Computer simulation, which stops at various points and shows a Hubble image of just such a system in nature (1:37).
### Collaborative Group Activities
1. Suppose you developed a theory to account for the evolution of New York City. Have your group discuss whether it would resemble the development of structure in the universe (as we have described it in this chapter). What elements of your model for NYC resemble the astronomers’ model for the growth of structure in the universe? Which elements do not match?
2. Most astronomers believe that dark matter exists and is a large fraction of the total matter in the universe. At the same time, most astronomers do not believe that UFOs are evidence that we are being visited by aliens from another world. Yet astronomers have never actually seen either dark matter or a UFO. Why do you think one idea is widely accepted by scientists and the other is not? Which idea do you think is more believable? Give your reasoning.
3. Someone in your group describes the redshift surveys of galaxies to a friend, who says he’s never heard of a bigger waste of effort. Who cares, he asks, about the large-scale structure of the universe? What is your group’s reaction, and what reasons could you come up with for putting money into figuring out how the universe is organized?
4. The leader of a small but very wealthy country is obsessed by maps. She has put together a fabulous collection of Earth maps, purchased all the maps of other planets that astronomers have assembled, and now wants to commission the best possible map of the entire universe. Your group is selected to advise her. What sort of instruments and surveys should she invest in to produce a good map of the cosmos? Be as specific as you can.
5. Download a high-resolution image of a rich galaxy cluster from the Hubble Space Telescope (see the list of gravitational lens news stories in the “For Further Exploration” section). See if your group can work together to identify gravitational arcs, the images of distant background galaxies distorted by the mass of the cluster. How many can you find? Can you identify any multiple images of the same background galaxy? (If anyone in the group gets really interested, there is a Citizen Science project called Spacewarps, where you can help astronomers identify gravitational lenses on their images: https://spacewarps.org.)
6. You get so excited about gravitational lensing that you begin to talk about it with an intelligent friend who has not yet taken an astronomy course. After hearing you out, this friend starts to worry. He says, “If gravitational lenses can distort quasar images, sometimes creating multiple, or ghost, images of the same object, then how can we trust any point of light in the sky to be real? Maybe many of the stars we see are just ghost images or lensed images too!” Have your group discuss how to respond. (Hint: Think about the path that the light of a quasar took on its way to us and the path the light of a typical star takes.)
7. The 8.4-meter telescope at the Vera C. Rubin Observatory, currently under construction atop Cerro Pachón, a mountain in northern Chile, will survey the entire sky with its 3.2-gigapixel camera every few days, looking for transient, or temporary, objects that make a brief appearance in the sky before fading from view, including asteroids and Kuiper belt objects in our solar system, and supernovae and other explosive high-energy events in the distant universe. When it’s fully operating sometime after 2021, the LSST will produce up to 30 terabytes of data every night. (A terabyte is 1000 gigabytes, which is the unit you probably use to rate your computer or memory stick capacity.) With your group, consider what you think might be some challenges of dealing with that quantity of data every night in a scientifically productive but efficient way. Can you propose any solutions to those challenges?
8. Quasars are rare now but were much more numerous when the universe was about one-quarter of its current age. The total star formation taking place in galaxies across the universe peaked at about the same redshift. Does your group think this is a coincidence? Why or why not?
9. One way to see how well the ideas in astronomy (like those in this chapter) have penetrated popular culture is to see whether you can find astronomical words in the marketplace. A short web search for the term “dark matter” turns up both a brand of coffee and a brand of “muscle growth accelerator” with that name. How many other terms used in this chapter can your group find in the world of products? (What’s a really popular type of Android cell phone, for example?)
10. What’s your complete address in the universe? Group members should write out their full address, based on the information in this chapter (and the rest of the book). After your postal code and country, you may want to add continent, planet, planetary system, galaxy, etc. Then each group member should explain this address to a family member or student not taking astronomy.
### Review Questions
### Thought Questions
### Figuring for Yourself
|
# The Big Bang
## Thinking Ahead
In previous chapters, we explored the contents of the universe—planets, stars, and galaxies—and learned about how these objects change with time. But what about the universe as a whole? How old is it? What did it look like in the beginning? How has it changed since then? What will be its fate?
Cosmology is the study of the universe as a whole and is the subject of this chapter. The story of observational cosmology really begins in 1929 when Edwin Hubble published observations of redshifts and distances for a small sample of galaxies and showed the then-revolutionary result that we live in an expanding universe—one which in the past was denser, hotter, and smoother. From this early discovery, astronomers developed many predictions about the origin and evolution of the universe and then tested those predictions with observations. In this chapter, we will describe what we already know about the history of our dynamic universe and highlight some of the mysteries that remain. |
# The Big Bang
## The Age of the Universe
### Learning Objectives
By the end of this section, you will be able to:
1. Describe how we estimate the age of the universe
2. Explain how changes in the rate of expansion over time affect estimates of the age of the universe
3. Describe the evidence that dark energy exists and that the rate of expansion is currently accelerating
4. Describe some independent evidence for the age of the universe that is consistent with the age estimate based on the rate of expansion
To explore the history of the universe, we will follow the same path that astronomers followed historically—beginning with studies of the nearby universe and then probing ever-more-distant objects and looking further back in time.
The realization that the universe changes with time came in the 1920s and 1930s when measurements of the redshifts of a large sample of galaxies became available. With hindsight, it is surprising that scientists were so shocked to discover that the universe is expanding. In fact, our theories of gravity demand that the universe must be either expanding or contracting. To show what we mean, let’s begin with a universe of finite size—say a giant ball of a thousand galaxies. All these galaxies attract each other because of their gravity. If they were initially stationary, they would inevitably begin to move closer together and eventually collide. They could avoid this collapse only if for some reason they happened to be moving away from each other at high speeds. In just the same way, only if a rocket is launched at high enough speed can it avoid falling back to Earth.
The problem of what happens in an infinite universe is harder to solve, but Einstein (and others) used his theory of general relativity (which we described in Black Holes and Curved Spacetime) to show that even infinite universes cannot be static. Since astronomers at that time did not yet know the universe was expanding (and Einstein himself was philosophically unwilling to accept a universe in motion), he changed his equations by introducing an arbitrary new term (we might call it a fudge factor) called the cosmological constant. This constant represented a hypothetical force of repulsion that could balance gravitational attraction on the largest scales and permit galaxies to remain at fixed distances from one another. That way, the universe could remain still.
About a decade later, Hubble, and his coworkers reported that the universe is expanding, so that no mysterious balancing force is needed. (We discussed this in the chapter on Galaxies.) Einstein is reported to have said that the introduction of the cosmological constant was “the biggest blunder of my life.” As we shall see later in this chapter, however, relatively recent observations indicate that the expansion is accelerating. Observations are now being carried out to determine whether this acceleration is consistent with a cosmological constant. In a way, it may turn out that Einstein was right after all.
### The Hubble Time
If we had a movie of the expanding universe and ran the film backward, what would we see? The galaxies, instead of moving apart, would move together in our movie—getting closer and closer all the time. Eventually, we would find that all the matter we can see today was once concentrated in an infinitesimally small volume. Astronomers identify this time with the beginning of the universe. The explosion of that concentrated universe at the beginning of time is called the Big Bang (not a bad term, since you can’t have a bigger bang than one that creates the entire universe). But when did this bang occur?
We can make a reasonable estimate of the time since the universal expansion began. To see how astronomers do this, let’s begin with an analogy. Suppose your astronomy class decides to have a party (a kind of “Big Bang”) at someone’s home to celebrate the end of the semester. Unfortunately, everyone is celebrating with so much enthusiasm that the neighbors call the police, who arrive and send everyone away at the same moment. You get home at 2 a.m., still somewhat upset about the way the party ended, and realize you forgot to look at your watch to see what time the police got there. But you use a map to measure that the distance between the party and your house is 40 kilometers. And you also remember that you drove the whole trip at a steady speed of 80 kilometers/hour (since you were worried about the police cars following you). Therefore, the trip must have taken:
So the party must have broken up at 1:30 a.m.
No humans were around to look at their watches when the universe began, but we can use the same technique to estimate when the galaxies began moving away from each other. (Remember that, in reality, it is space that is expanding, not the galaxies that are moving through static space.) If we can measure how far apart the galaxies are now, and how fast they are moving, we can figure out how long a trip it’s been.
Let’s call the age of the universe measured in this way T0. Let’s first do a simple case by assuming that the expansion has been at a constant rate ever since the expansion of the universe began. In this case, the time it has taken a galaxy to move a distance, d, away from the Milky Way (remember that at the beginning the galaxies were all together in a very tiny volume) is (as in our example)
where v is the velocity of the galaxy. If we can measure the speed with which galaxies are moving away, and also the distances between them, we can establish how long ago the expansion began.
Making such measurements should sound very familiar. This is just what Hubble and many astronomers after him needed to do in order to establish the Hubble law and the Hubble constant. We learned in Galaxies that a galaxy’s distance and its velocity in the expanding universe are related by
where H is the Hubble constant. Combining these two expressions gives us
We see, then, that the work of calculating this time was already done for us when astronomers measured the Hubble constant. The age of the universe estimated in this way turns out to be just the reciprocal of the Hubble constant (that is, 1/H). This age estimate is sometimes called the Hubble time. For a Hubble constant of 20 kilometers/second per million light-years, the Hubble time is about 15 billion years. (By the way, the unit used by astronomers for the Hubble constant is kilometers/second per million parsecs. In these units, the Hubble constant is equal to about 70 kilometers/second per million parsecs, again with an uncertainty of about 5%.)
To make numbers easier to remember, we have done some rounding here. Estimates for the Hubble constant are actually closer to 21 or 22 kilometers/second per million light-years, which would make the age closer to 14 billion years. But there is still about a 5% uncertainty in the Hubble constant, which means the age of the universe estimated in this way is also uncertain by about 5%.
To put these uncertainties in perspective, however, you should know that 50 years ago, the uncertainty was a factor of 2. Remarkable progress toward pinning down the Hubble constant has been made in the last couple of decades.
### The Role of Deceleration
The Hubble time is the right age for the universe only if the expansion rate has been constant throughout the time since the expansion of the universe began. Continuing with our end-of-the-semester-party analogy, this is equivalent to assuming that you traveled home from the party at a constant rate, when in fact this may not have been the case. At first, mad about having to leave, you may have driven fast, but then as you calmed down—and thought about police cars on the highway—you may have begun to slow down until you were driving at a more socially acceptable speed (such as 80 kilometers/hour). In this case, given that you were driving faster at the beginning, the trip home would have taken less than a half-hour.
In the same way, in calculating the Hubble time, we have assumed that the expansion rate has been constant throughout all of time. It turns out that this is not a good assumption. Earlier in their thinking about this, astronomers expected that the rate of expansion should be slowing down. We know that matter creates gravity, whereby all objects pull on all other objects. The mutual attraction between galaxies was expected to slow the expansion as time passed. This means that, if gravity were the only force acting (a big if, as we shall see in the next section), then the rate of expansion must have been faster in the past than it is today. In this case, we would say the universe has been decelerating since the beginning.
How much it has decelerated depends on the importance of gravity in slowing the expansion. If the universe were nearly empty, the role of gravity would be minor. Then the deceleration would be close to zero, and the universe would have been expanding at a constant rate. But in a universe with any significant density of matter, the pull of gravity means that the rate of expansion should be slower now than it used to be. If we use the current rate of expansion to estimate how long it took the galaxies to reach their current separations, we will overestimate the age of the universe—just as we may have overestimated the time it took for you to get home from the party.
### A Universal Acceleration
Astronomers spent several decades looking for evidence that the expansion was decelerating, but they were not successful. What they needed were 1) larger telescopes so that they could measure the redshifts of more distant galaxies and 2) a very luminous standard bulb (or standard candle), that is, some astronomical object with known luminosity that produces an enormous amount of energy and can be observed at distances of a billion light-years or more.
Recall that we discussed standard bulbs in the chapter on Galaxies. If we compare how luminous a standard bulb is supposed to be and how dim it actually looks in our telescopes, the difference allows us to calculate its distance. The redshift of the galaxy such a bulb is in can tell us how fast it is moving in the universe. So we can measure its distance and motion independently.
These two requirements were finally met in the 1990s. Astronomers showed that supernovae of type Ia (see The Death of Stars), with some corrections based on the shapes of their light curves, are standard bulbs. This type of supernova occurs when a white dwarf accretes enough material from a companion star to exceed the Chandrasekhar limit and then collapses and explodes. At the time of maximum brightness, these dramatic supernovae can briefly outshine the galaxies that host them, and hence, they can be observed at very large distances. Large 8- to 10-meter telescopes can be used to obtain the spectra needed to measure the redshifts of the host galaxies ().
The result of painstaking, careful study of these supernovae in a range of galaxies, carried out by two groups of researchers, was published in 1998. It was shocking—and so revolutionary that their discovery received the 2011 Nobel Prize in Physics. What the researchers found was that these type Ia supernovae in distant galaxies were fainter than expected from Hubble’s law, given the measured redshifts of their host galaxies. In other words, distances estimated from the supernovae used as standard bulbs disagreed with the distances measured from the redshifts.
If the universe were decelerating, we would expect the far-away supernovae to be brighter than expected. The slowing down would have kept them closer to us. Instead, they were fainter, which at first seemed to make no sense.
Before accepting this shocking development, astronomers first explored the possibility that the supernovae might not really be as useful as standard bulbs as they thought. Perhaps the supernovae appeared too faint because dust along our line of sight to them absorbed some of their light. Or perhaps the supernovae at large distances were for some reason intrinsically less luminous than nearby supernovae of type Ia.
A host of more detailed observations ruled out these possibilities. Scientists then had to consider the alternative that the distance estimated from the redshift was incorrect. Distances derived from redshifts assume that the Hubble constant has been truly constant for all time. We saw that one way it might not be constant is that the expansion is slowing down. But suppose neither assumption is right (steady speed or slowing down.)
Suppose, instead, that the universe is accelerating. If the universe is expanding faster now than it was billions of years ago, our motion away from the distant supernovae has sped up since the explosion occurred, sweeping us farther away from them. The light of the explosion has to travel a greater distance to reach us than if the expansion rate were constant. The farther the light travels, the fainter it appears. This conclusion would explain the supernova observations in a natural way, and this has now been substantiated by many additional observations over the last couple of decades. It really seems that the expansion of the universe is accelerating, a notion so unexpected that astronomers at first resisted considering it.
How can the expansion of the universe be speeding up? If you want to accelerate your car, you must supply energy by stepping on the gas. Similarly, energy must be supplied to accelerate the expansion of the universe. The discovery of the acceleration was shocking because scientists still have no idea what the source of the energy is. Scientists call whatever it is dark energy, which is a clear sign of how little we understand it.
Note that this new component of the universe is not the dark matter we talked about in earlier chapters. Dark energy is something else that we have also not yet detected in our laboratories on Earth.
What is dark energy? One possibility is that it is the cosmological constant, which is an energy associated with the vacuum of “empty” space itself. Quantum mechanics (the intriguing theory of how things behave at the atomic and subatomic levels) tells us that the source of this vacuum energy might be tiny elementary particles that flicker in and out of existence everywhere throughout the universe. Various attempts have been made to calculate how big the effects of this vacuum energy should be, but so far these attempts have been unsuccessful. In fact, the order of magnitude of theoretical estimates of the vacuum energy based on the quantum mechanics of matter and the value required to account for the acceleration of the expansion of the universe differ by an incredible factor of at least 10120 (that is a 1 followed by 120 zeros)! Various other theories have been suggested, but the bottom line is that, although there is compelling evidence that dark energy exists, we do not yet know the source of that energy.
Whatever the dark energy turns out to be, we should note that the discovery that the rate of expansion has not been constant since the beginning of the universe complicates the calculation of the age of the universe. Interestingly, the acceleration seems not to have started with the Big Bang. During the first several billion years after the Big Bang, when galaxies were close together, gravity was strong enough to slow the expansion. As galaxies moved farther apart, the effect of gravity weakened. Several billion years after the Big Bang, dark energy took over, and the expansion began to accelerate ().
Deceleration works to make the age of the universe estimated by the simple relation seem older than it really is, whereas acceleration works to make it seem younger. By happy coincidence, our best estimates of how much deceleration and acceleration occurred lead to an answer for the age very close to . The best current estimate is that the universe is 13.8 billion years old with an uncertainty of only about 100 million years.
Throughout this chapter, we have referred to the Hubble constant. We now know that the Hubble constant does change with time. It is, however, constant everywhere in the universe at any given time. When we say the Hubble constant is about 70 kilometers/second/million parsecs, we mean that this is the value of the Hubble constant at the current time.
### Comparing Ages
We now have one estimate for the age of the universe from its expansion. Is this estimate consistent with other observations? For example, are the oldest stars or other astronomical objects younger than 13.8 billion years? After all, the universe has to be at least as old as the oldest objects in it.
In our Galaxy and others, the oldest stars are found in the globular clusters (), which can be dated using the models of stellar evolution described in the chapter Stars from Adolescence to Old Age.
The accuracy of the age estimates of the globular clusters has improved markedly in recent years for two reasons. First, models of interiors of globular cluster stars have been improved, mainly through better information about how atoms absorb radiation as they make their way from the center of a star out into space. Second, observations from satellites have improved the accuracy of our measurements of the distances to these clusters. The conclusion is that the oldest stars formed about 12–13 billion years ago.
This age estimate has recently been confirmed by the study of the spectrum of uranium in the stars. The isotope uranium-238 is radioactive and decays (changes into another element) over time. (Uranium-238 gets its designation because it has 92 protons and 146 neutrons.) We know (from how stars and supernovae make elements) how much uranium-238 is generally made compared to other elements. Suppose we measure the amount of uranium relative to nonradioactive elements in a very old star and in our own Sun, and compare the abundances. With those pieces of information, we can estimate how much longer the uranium has been decaying in the very old star because we know from our own Sun how much uranium decays in 4.5 billion years.
The line of uranium is very weak and hard to make out even in the Sun, but it has now been measured in one extremely old star using the European Very Large Telescope (). Comparing the abundance with that in the solar system, whose age we know, astronomers estimate the star is 12.5 billion years old, with an uncertainty of about 3 billion years. While the uncertainty is large, this work is important confirmation of the ages estimated by studies of the globular cluster stars. Note that the uranium age estimate is completely independent; it does not depend on either the measurement of distances or on models of the interiors of stars.
As we shall see later in this chapter, the globular cluster stars probably did not form until the expansion of the universe had been underway for at least a few hundred million years. Accordingly, their ages are consistent with the 13.8 billion-year age estimated from the expansion rate.
### Key Concepts and Summary
Cosmology is the study of the organization and evolution of the universe. The universe is expanding, and this is one of the key observational starting points for modern cosmological theories. Modern observations show that the rate of expansion has not been constant throughout the life of the universe. Initially, when galaxies were close together, the effects of gravity were stronger than the effects of dark energy, and the expansion rate gradually slowed. As galaxies moved farther apart, the influence of gravity on the expansion rate weakened. Measurements of distant supernovae show that when the universe was about half its current age, dark energy began to dominate the rate of expansion and caused it to speed up. In order to estimate the age of the universe, we must allow for changes in the rate of expansion. After allowing for these effects, astronomers estimate that all of the matter within the observable universe was concentrated in an extremely small volume 13.8 billion years ago, a time we call the Big Bang. |
# The Big Bang
## A Model of the Universe
### Learning Objectives
By the end of this section, you will be able to:
1. Explain how the rate of expansion of the universe affects its evolution
2. Describe four possibilities for the evolution of the universe
3. Explain what is expanding when we say that the universe is expanding
4. Define critical density and the evidence that matter alone in the universe is much smaller than the critical density
5. Describe what the observations say about the likely long-term future of the universe
Let’s now use the results about the expansion of the universe to look at how these ideas might be applied to develop a model for the evolution of the universe as a whole. With this model, astronomers can make predictions about how the universe has evolved so far and what will happen to it in the future.
### The Expanding Universe
Every model of the universe must include the expansion we observe. Another key element of the models is that the cosmological principle (which we discussed in The Evolution and Distribution of Galaxies) is valid: on the large scale, the universe at any given time is the same everywhere (homogeneous and isotropic). As a result, the expansion rate must be the same everywhere during any epoch of cosmic time. If so, we don’t need to think about the entire universe when we think about the expansion, we can just look at any sufficiently large portion of it. (Some models for dark energy would allow the expansion rate to be different in different directions, and scientists are designing experiments to test this idea. However, until such evidence is found, we will assume that the cosmological principle applies throughout the universe.)
In Galaxies, we hinted that when we think of the expansion of the universe, it is more correct to think of space itself stretching rather than of galaxies moving through static space. Nevertheless, we have since been discussing the redshifts of galaxies as if they resulted from the motion of the galaxies themselves.
Now, however, it is time to finally put such simplistic notions behind us and take a more sophisticated look at the cosmic expansion. Recall from our discussion of Einstein’s theory of general relativity (in the chapter on Black Holes and Curved Spacetime) that space—or, more precisely, spacetime—is not a mere backdrop to the action of the universe, as Newton thought. Rather, it is an active participant—affected by and in turn affecting the matter and energy in the universe.
Since the expansion of the universe is the stretching of all spacetime, all points in the universe are stretching together. Thus, the expansion began everywhere at once. Unfortunately for tourist agencies of the future, there is no location you can visit where the stretching of space began or where we can say that the Big Bang happened.
To describe just how space stretches, we say the cosmic expansion causes the universe to undergo a uniform change in scale over time. By scale we mean, for example, the distance between two clusters of galaxies. It is customary to represent the scale by the factor R; if R doubles, then the distance between the clusters has doubled. Since the universe is expanding at the same rate everywhere, the change in R tells us how much it has expanded (or contracted) at any given time. For a static universe, R would be constant as time passes. In an expanding universe, R increases with time.
If it is space that is stretching rather than galaxies moving through space, then why do the galaxies show redshifts in their spectra? When you were young and naïve—a few chapters ago—it was fine to discuss the redshifts of distant galaxies as if they resulted from their motion away from us. But now that you are an older and wiser student of cosmology, this view will simply not do.
A more accurate view of the redshifts of galaxies is that the light waves are stretched by the stretching of the space they travel through. Think about the light from a remote galaxy. As it moves away from its source, the light has to travel through space. If space is stretching during all the time the light is traveling, the light waves will be stretched as well. A redshift is a stretching of waves—the wavelength of each wave increases (). Light from more distant galaxies travels for more time than light from closer ones. This means that the light has stretched more than light from closer ones and thus shows a greater redshift.
Thus, what the measured redshift of light from an object is telling us is how much the universe has expanded since the light left the object. If the universe has expanded by a factor of 2, then the wavelength of the light (and all electromagnetic waves from the same source) will have doubled.
### Models of the Expansion
Before astronomers knew about dark energy or had a good measurement of how much matter exists in the universe, they made speculative models about how the universe might evolve over time. The four possible scenarios are shown in . In this diagram, time moves forward from the bottom upward, and the scale of space increases by the horizontal circles becoming wider.
The simplest scenario of an expanding universe would be one in which R increases with time at a constant rate. But you already know that life is not so simple. The universe contains a great deal of mass and its gravity decelerates the expansion—by a large amount if the universe contains a lot of matter, or by a negligible amount if the universe is nearly empty. Then there is the observed acceleration, which astronomers blame on a kind of dark energy.
Let’s first explore the range of possibilities with models for different amounts of mass in the universe and for different contributions by dark energy. In some models—as we shall see—the universe expands forever. In others, it stops expanding and starts to contract. After looking at the extreme possibilities, we will look at recent observations that allow us to choose the most likely scenario.
We should perhaps pause for a minute to note how remarkable it is that we can do this at all. Our understanding of the principles that underlie how the universe works on the large scale and our observations of how the objects in the universe change with time allow us to model the evolution of the entire cosmos these days. It is one of the loftiest achievements of the human mind.
What astronomers look at in practice, to determine the kind of universe we live in, is the average density of the universe. This is the mass of matter (including the equivalent mass of energy)By equivalent mass we mean that which would result if the energy were turned into mass using Einstein’s formula, that would be contained in each unit of volume (say, 1 cubic centimeter) if all the stars, galaxies, and other objects were taken apart, atom by atom, and if all those particles, along with the light and other energy, were distributed throughout all of space with absolute uniformity. If the average density is low, there is less mass and less gravity, and the universe will not decelerate very much. It can therefore expand forever. Higher average density, on the other hand, means there is more mass and more gravity and that the stretching of space might slow down enough that the expansion will eventually stop. An extremely high density might even cause the universe to collapse again.
For a given rate of expansion, there is a critical density—the mass per unit volume that will be just enough to slow the expansion to zero at some time infinitely far in the future. If the actual density is higher than this critical density, then the expansion will ultimately reverse and the universe will begin to contract. If the actual density is lower, then the universe will expand forever.
These various possibilities are illustrated in . In this graph, one of the most comprehensive in all of science, we chart the development of the scale of space in the cosmos against the passage of time. Time increases to the right, and the scale of the universe, R, increases upward in the figure. Today, at the point marked “present” along the time axis, R is increasing in each model. We know that the galaxies are currently expanding away from each other, no matter which model is right. (The same situation holds for a baseball thrown high into the air. While it may eventually fall back down, near the beginning of the throw it moves upward most rapidly.)
The various lines moving across the graph correspond to different models of the universe. The straight dashed line corresponds to the empty universe with no deceleration; it intercepts the time axis at a time, T0 (the Hubble time), in the past. This is not a realistic model but gives us a measure to compare other models to. The curves below the dashed line represent models with no dark energy and with varying amounts of deceleration, starting from the Big Bang at shorter times in the past. The curve above the dashed line shows what happens if the expansion is accelerating. Let’s take a closer look at the future according to the different models.
Let’s start with curve 1 in . In this case, the actual density of the universe is higher than the critical density and there is no dark energy. This universe will stop expanding at some time in the future and begin contracting. This model is called a closed universe and corresponds to the universe on the left in . Eventually, the scale drops to zero, which means that space will have shrunk to an infinitely small size. The noted physicist John Wheeler called this the “big crunch,” because matter, energy, space, and time would all be crushed out of existence. Note that the “big crunch” is the opposite of the Big Bang—it is an implosion. The universe is not expanding but rather collapsing in upon itself.
Some scientists speculated that another Big Bang might follow the crunch, giving rise to a new expansion phase, and then another contraction—perhaps oscillating between successive Big Bangs and big crunches indefinitely in the past and future. Such speculation was sometimes referred to as the oscillating theory of the universe. The challenge for theorists was how to describe the transition from collapse (when space and time themselves disappear into the big crunch) to expansion. With the discovery of dark energy, however, it does not appear that the universe will experience a big crunch, so we can put worrying about it on the back burner.
If the density of the universe is less than the critical density (curve 2 in and the universe second from the left in ), gravity is never important enough to stop the expansion, and so the universe expands forever. Such a universe is infinite and this model is called an open universe. Time and space begin with the Big Bang, but they have no end; the universe simply continues expanding, always a bit more slowly as time goes on. Groups of galaxies eventually get so far apart that it would be difficult for observers in any of them to see the others. (See the feature box on What Might the Universe Be Like in the Distant Future? for more about the distant future in the closed and open universe models.)
At the critical density (curve 3), the universe can just barely expand forever. The critical-density universe has an age of exactly two-thirds T0, where T0 is the age of the empty universe. Universes that will someday begin to contract have ages less than two-thirds T0.
In an empty universe (the dashed line and the coasting universe in ), neither gravity nor dark energy is important enough to affect the expansion rate, which is therefore constant throughout all time.
In a universe with dark energy, the rate of the expansion will increase with time, and the expansion will continue at an ever-faster rate. Curve 4 in , which represents this universe, has a complicated shape. In the beginning, when the matter is all very close together, the rate of expansion is most influenced by gravity. Dark energy appears to act only over large scales and thus becomes more important as the universe grows larger and the matter begins to thin out. In this model, at first the universe slows down, but as space stretches, the acceleration plays a greater role and the expansion speeds up.
### The Cosmic Tug of War
We might summarize our discussion so far by saying that a “tug of war” is going on in the universe between the forces that push everything apart and the gravitational attraction of matter, which pulls everything together. If we can determine who will win this tug of war, we will learn the ultimate fate of the universe.
The first thing we need to know is the density of the universe. Is it greater than, less than, or equal to the critical density? The critical density today depends on the value of the expansion rate today, H0. If the Hubble constant is around 20 kilometers/second per million light-years, the critical density is about 10–26 kg/m3. Let’s see how this value compares with the actual density of the universe.
We can start our survey of how dense the cosmos is by ignoring the dark energy and just estimating the density of all matter in the universe, including ordinary matter and dark matter. Here is where the cosmological principle really comes in handy. Since the universe is the same all over (at least on large scales), we only need to measure how much matter exists in a (large) representative sample of it. This is similar to the way a representative survey of a few thousand people can tell us whom the millions of residents of the US prefer for president.
There are several methods by which we can try to determine the average density of matter in space. One way is to count all the galaxies out to a given distance and use estimates of their masses, including dark matter, to calculate the average density. Such estimates indicate a density of about 1 to kg/m3 (10 to 20% of critical), which by itself is too small to stop the expansion.
A lot of the dark matter lies outside the boundaries of galaxies, so this inventory is not yet complete. But even if we add an estimate of the dark matter outside galaxies, our total won’t rise beyond about 30% of the critical density. We’ll pin these numbers down more precisely later in this chapter, where we will also include the effects of dark energy.
In any case, even if we ignore dark energy, the evidence is that the universe will continue to expand forever. The discovery of dark energy that is causing the rate of expansion to speed up only strengthens this conclusion. Things definitely do not look good for fans of the closed universe (big crunch) model.
### Ages of Distant Galaxies
In the chapter on Galaxies, we discussed how we can use Hubble’s law to measure the distance to a galaxy. But that simple method only works with galaxies that are not too far away. Once we get to large distances, we are looking so far into the past that we must take into account changes in the rate of the expansion of the universe. Since we cannot measure these changes directly, we must assume one of the models of the universe to be able to convert large redshifts into distances.
This is why astronomers squirm when reporters and students ask them exactly how far away some newly discovered distant quasar or galaxy is. We really can’t give an answer without first explaining the model of the universe we are assuming in calculating it (by which time a reporter or student is long gone or asleep). Specifically, we must use a model that includes the change in the expansion rate with time. The key ingredients of the model are the amounts of matter, including dark matter, and the equivalent mass (according to E = mc2) of the dark energy along with the Hubble constant.
Elsewhere in this book, we have estimated the mass density of ordinary matter plus dark matter as roughly 0.3 times the critical density, and the mass equivalent of dark energy as roughly 0.7 times the critical density. We will refer to these values as the “standard model of the universe.” The latest (slightly improved) estimates for these values and the evidence for them will be given later in this chapter. Calculations also require the current value of the Hubble constant. For , we have adopted a Hubble constant of 67.3 kilometers/second/million parsecs (rather than rounding it to 70 kilometers/second/million parsecs), which is consistent with the 13.8 billion-year age of the universe estimated by the latest observations.
Once we assume a model, we can use it to calculate the age of the universe at the time an object emitted the light we see. As an example, lists the times that light was emitted by objects at different redshifts as fractions of the current age of the universe. The times are given for two very different models so you can get a feeling for the fact that the calculated ages are fairly similar. The first model assumes that the universe has a critical density of matter and no dark energy. The second model is the standard model described in the preceding paragraph. The first column in the table is the redshift, which is given by the equation z = Δλ/λ0 and is a measure of how much the wavelength of light has been stretched by the expansion of the universe on its long journey to us.
Notice that as we find objects with higher and higher redshifts, we are looking back to smaller and smaller fractions of the age of the universe. The highest observed redshifts as this book is being written are close to 12 (). As shows, we are seeing these galaxies as they were when the universe was only about 3% as old as it is now. They were already formed only about 700 million years after the Big Bang.
### Key Concepts and Summary
For describing the large-scale properties of the universe, a model that is isotropic and homogeneous (same everywhere) is a pretty good approximation of reality. The universe is expanding, which means that the universe undergoes a change in scale with time; space stretches and distances grow larger by the same factor everywhere at a given time. Observations show that the mass density of the universe is less than the critical density. In other words, there is not enough matter in the universe to stop the expansion. With the discovery of dark energy, which is accelerating the rate of expansion, the observational evidence is strong that the universe will expand forever. Observations tell us that the expansion started about 13.8 billion years ago. |
# The Big Bang
## The Beginning of the Universe
### Learning Objectives
By the end of this section, you will be able to:
1. Describe what the universe was like during the first few minutes after it began to expand
2. Explain how the first new elements were formed during the first few minutes after the Big Bang
3. Describe how the contents of the universe change as the temperature of the universe decreases
The best evidence we have today indicates that the first galaxies did not begin to form until a few hundred million years after the Big Bang. What were things like before there were galaxies and space had not yet stretched very significantly? Amazingly, scientists have been able to calculate in some detail what was happening in the universe in the first few minutes after the Big Bang.
### The History of the Idea
It is one thing to say the universe had a beginning (as the equations of general relativity imply) and quite another to describe that beginning. The Belgian priest and cosmologist Georges Lemaître was probably the first to propose a specific model for the Big Bang itself (). He envisioned all the matter of the universe starting in one great bulk he called the primeval atom, which then broke into tremendous numbers of pieces. Each of these pieces continued to fragment further until they became the present atoms of the universe, created in a vast nuclear fission. In a popular account of his theory, Lemaître wrote, “The evolution of the world could be compared to a display of fireworks just ended—some few red wisps, ashes, and smoke. Standing on a well-cooled cinder, we see the slow fading of the suns and we try to recall the vanished brilliance of the origin of the worlds.”
Physicists today know much more about nuclear physics than was known in the 1920s, and they have shown that the primeval fission model cannot be correct. Yet Lemaître’s vision was in some respects quite prophetic. We still believe that everything was together at the beginning; it was just not in the form of matter we now know. Basic physical principles tell us that when the universe was much denser, it was also much hotter, and that it cools as it expands, much as gas cools when sprayed from an aerosol can.
By the 1940s, scientists knew that fusion of hydrogen into helium was the source of the Sun’s energy. Fusion requires high temperatures, and the early universe must have been hot. Based on these ideas, American physicist George Gamow () suggested a universe with a different kind of beginning that involved nuclear fusion instead of fission. Ralph Alpher worked out the details for his PhD thesis, and the results were published in 1948. (Gamow, who had a quirky sense of humor, decided at the last minute to add the name of physicist Hans Bethe to their paper, so that the coauthors on this paper about the beginning of things would be Alpher, Bethe, and Gamow, a pun on the first three letters of the Greek alphabet: alpha, beta, and gamma.) Gamow’s universe started with fundamental particles that built up the heavy elements by fusion in the Big Bang.
Gamow’s ideas were close to our modern view, except we now know that the early universe remained hot enough for fusion for only a short while. Thus, only the three lightest elements—hydrogen, helium, and a small amount of lithium—were formed in appreciable abundances at the beginning. The heavier elements formed later in stars. Since the 1940s, many astronomers and physicists have worked on a detailed theory of what happened in the early stages of the universe.
### The First Few Minutes
Let’s start with the first few minutes following the Big Bang. Three basic ideas hold the key to tracing the changes that occurred during the time just after the universe began. The first, as we have already mentioned, is that the universe cools as it expands. shows how the temperature changes with the passage of time. Note that a huge span of time, from a tiny fraction of a second to billions of years, is summarized in this diagram. In the first fraction of a second, the universe was unimaginably hot. By the time 0.01 second had elapsed, the temperature had dropped to 100 billion (1011) K. After about 3 minutes, it had fallen to about 1 billion (109) K, still some 70 times hotter than the interior of the Sun. After a few hundred thousand years, the temperature was down to a mere 3000 K, and the universe has continued to cool since that time.
All of these temperatures but the last are derived from theoretical calculations since (obviously) no one was there to measure them directly. As we shall see in the next section, however, we have actually detected the feeble glow of radiation emitted at a time when the universe was a few hundred thousand years old. We can measure the characteristics of that radiation to learn what things were like long ago. Indeed, the fact that we have found this ancient glow is one of the strongest arguments in favor of the Big Bang model.
The second step in understanding the evolution of the universe is to realize that at very early times, it was so hot that it contained mostly radiation (and not the matter that we see today). The photons that filled the universe could collide and produce material particles; that is, under the conditions just after the Big Bang, energy could turn into matter (and matter could turn into energy). We can calculate how much mass is produced from a given amount of energy by using Einstein’s formula (see the chapter on The Sun: A Nuclear Powerhouse).
The idea that energy could turn into matter in the universe at large is a new one for many students, since it is not part of our everyday experience. That’s because, when we compare the universe today to what it was like right after the Big Bang, we live in cold, hard times. The photons in the universe today typically have far-less energy than the amount required to make new matter. In the discussion on the source of the Sun’s energy in The Sun: A Nuclear Powerhouse, we briefly mentioned that when subatomic particles of matter and antimatter collide, they turn into pure energy. But the reverse, energy turning into matter and antimatter, is equally possible. This process has been observed in particle accelerators around the world. If we have enough energy, under the right circumstances, new particles of matter (and antimatter) are indeed created —and the conditions were right during the first few minutes after the expansion of the universe began.
Our third key point is that the hotter the universe was, the more energetic were the photons available to make matter and antimatter (see ). To take a specific example, at a temperature of 6 billion (6 × 109) K, the collision of two typical photons can create an electron and its antimatter counterpart, a positron. If the temperature exceeds 1014 K, much more massive protons and antiprotons can be created.
### The Evolution of the Early Universe
Keeping these three ideas in mind, we can trace the evolution of the universe from the time it was about 0.01 second old and had a temperature of about 100 billion K. Why not begin at the very beginning? There are as yet no theories that allow us penetrate to a time before about 10–43 second (this number is a decimal point followed by 42 zeros and then a one). It is so small that we cannot relate it to anything in our everyday experience. When the universe was that young, its density was so high that the theory of general relativity is not adequate to describe it, and even the concept of time breaks down.
Scientists, by the way, have been somewhat more successful in describing the universe when it was older than 10–43 second but still less than about 0.01 second old. We will take a look at some of these ideas later in this chapter, but for now, we want to start with somewhat more familiar situations.
By the time the universe was 0.01 second old, it consisted of a soup of matter and radiation; the matter included protons and neutrons, leftovers from an even younger and hotter universe. Each particle collided rapidly with other particles. The temperature was no longer high enough to allow colliding photons to produce neutrons or protons, but it was sufficient for the production of electrons and positrons (). There was probably also a sea of exotic subatomic particles that would later play a role as dark matter. All the particles jiggled about on their own; it was still much too hot for protons and neutrons to combine to form the nuclei of atoms.
Think of the universe at this time as a seething cauldron, with photons colliding and interchanging energy, and sometimes being destroyed to create a pair of particles. The particles also collided with one another. Frequently, a matter particle and an antimatter particle met and turned each other into a burst of gamma-ray radiation.
Among the particles created in the early phases of the universe was the ghostly neutrino (see The Sun: A Nuclear Powerhouse), which today interacts only very rarely with ordinary matter. In the crowded conditions of the very early universe, however, neutrinos ran into so many electrons and positrons that they experienced frequent interactions despite their “antisocial” natures.
By the time the universe was a little more than 1 second old, the density had dropped to the point where neutrinos no longer interacted with matter but simply traveled freely through space. In fact, these neutrinos should now be all around us. Since they have been traveling through space unimpeded (and hence unchanged) since the universe was 1 second old, measurements of their properties would offer one of the best tests of the Big Bang model. Unfortunately, the very characteristic that makes them so useful—the fact that they interact so weakly with matter that they have survived unaltered for all but the first second of time—also renders them unable to be measured, at least with present techniques. Perhaps someday someone will devise a way to capture these elusive messengers from the past.
### Atomic Nuclei Form
When the universe was about 3 minutes old and its temperature was down to about 900 million K, protons and neutrons could combine. At higher temperatures, these atomic nuclei had immediately been blasted apart by interactions with high-energy photons and thus could not survive. But at the temperatures and densities reached between 3 and 4 minutes after the beginning, deuterium (a proton and neutron) lasted long enough that collisions could convert some of it into helium, (). In essence, the entire universe was acting the way centers of stars do today—fusing new elements from simpler components. In addition, a little bit of element 3, lithium, could also form.
This burst of cosmic fusion was only a brief interlude, however. By 4 minutes after the Big Bang, more helium was having trouble forming. The universe was still expanding and cooling down. After the formation of helium and some lithium, the temperature had dropped so low that the fusion of helium nuclei into still-heavier elements could not occur. No elements beyond lithium could form in the first few minutes. That 4-minute period was the end of the time when the entire universe was a fusion factory. In the cool universe we know today, the fusion of new elements is limited to the centers of stars and the explosions of supernovae.
Still, the fact that the Big Bang model allows the creation of a good deal of helium is the answer to a long-standing mystery in astronomy. Put simply, there is just too much helium in the universe to be explained by what happens inside stars. All the generations of stars that have produced helium since the Big Bang cannot account for the quantity of helium we observe. Furthermore, even the oldest stars and the most distant galaxies show significant amounts of helium. These observations find a natural explanation in the synthesis of helium by the Big Bang itself during the first few minutes of time. We estimate that 10 times more helium was manufactured in the first 4 minutes of the universe than in all the generations of stars during the succeeding 10 to 15 billion years.
### Learning from Deuterium
We can learn many things from the way the early universe made atomic nuclei. It turns out that all of the deuterium (a hydrogen nucleus with a neutron in it) in the universe was formed during the first 4 minutes. In stars, any region hot enough to fuse two protons to form a deuterium nucleus is also hot enough to change it further—either by destroying it through a collision with an energetic photon or by converting it into helium through nuclear reactions.
The amount of deuterium that can be produced in the first 4 minutes of creation depends on the density of the universe at the time deuterium was formed. If the density were relatively high, nearly all the deuterium would have been converted into helium through interactions with protons, just as it is in stars. If the density were relatively low, then the universe would have expanded and thinned out rapidly enough that some deuterium would have survived. The amount of deuterium we see today thus gives us a clue to the density of the universe when it was about 4 minutes old. Theoretical models can relate the density then to the density now; thus, measurements of the abundance of deuterium today can give us an estimate of the current density of the universe.
The measurements of deuterium indicate that the present-day density of ordinary matter—protons and neutrons—is about kg/m3. Deuterium can only provide an estimate of the density of ordinary matter because the abundance of deuterium is determined by the particles that interact to form it, namely protons and neutrons alone. From the abundance of deuterium, we know that not enough protons and neutrons are present, by a factor of about 20, to produce a critical-density universe.
We do know, however, that there are dark matter particles that add to the overall matter density of the universe, which is then higher than what is calculated for ordinary matter alone. Because dark matter particles do not affect the production of deuterium, measurement of the deuterium abundance cannot tell us how much dark matter exists. Dark matter is made of some exotic kind of particle, not yet detected in any earthbound laboratory. It is definitely not made of protons and neutrons like the readers of this book.
### Key Concepts and Summary
Lemaître, Alpher, and Gamow first worked out the ideas that are today called the Big Bang theory. The universe cools as it expands. The energy of photons is determined by their temperature, and calculations show that in the hot, early universe, photons had so much energy that when they collided with one another, they could produce material particles. As the universe expanded and cooled, protons and neutrons formed first, then came electrons and positrons. Next, fusion reactions produced deuterium, helium, and lithium nuclei. Measurements of the deuterium abundance in today’s universe show that the total amount of ordinary matter in the universe is only about 5% of the critical density. |
# The Big Bang
## The Cosmic Microwave Background
### Learning Objectives
By the end of this section, you will be able to:
1. Explain why we can observe the afterglow of the hot, early universe
2. Discuss the properties of this afterglow as we see it today, including its average temperature and the size of its temperature fluctuations
3. Describe open, flat, and curved universes and explain which type of universe is supported by observations
4. Summarize our current knowledge of the basic properties of the universe including its age and contents
The description of the first few minutes of the universe is based on theoretical calculations. It is crucial, however, that a scientific theory should be testable. What predictions does it make? And do observations show those predictions to be accurate? One success of the theory of the first few minutes of the universe is the correct prediction of the amount of helium in the universe.
Another prediction is that a significant milestone in the history of the universe occurred about 380,000 years after the Big Bang. Scientists have directly observed what the universe was like at this early stage, and these observations offer some of the strongest support for the Big Bang theory. To find out what this milestone was, let’s look at what theory tells us about what happened during the first few hundred thousand years after the Big Bang.
The fusion of helium and lithium was completed when the universe was about 4 minutes old. The universe then continued to resemble the interior of a star in some ways for a few hundred thousand years more. It remained hot and opaque, with radiation being scattered from one particle to another. It was still too hot for electrons to “settle down” and become associated with a particular nucleus; such free electrons are especially effective at scattering photons, thus ensuring that no radiation ever got very far in the early universe without having its path changed. In a way, the universe was like an enormous crowd right after a popular concert; if you get separated from a friend, even if he is wearing a flashing button, it is impossible to see through the dense crowd to spot him. Only after the crowd clears is there a path for the light from his button to reach you.
### The Universe Becomes Transparent
Not until a few hundred thousand years after the Big Bang, when the temperature had dropped to about 3000 K and the density of atomic nuclei to about 1000 per cubic centimeter, did the electrons and nuclei manage to combine to form stable atoms of hydrogen and helium (). With no free electrons to scatter photons, the universe became transparent for the first time in cosmic history. From this point on, matter and radiation interacted much less frequently; we say that they decoupled from each other and evolved separately. Suddenly, electromagnetic radiation could really travel, and it has been traveling through the universe ever since.
### Discovery of the Cosmic Background Radiation
If the model of the universe described in the previous section is correct, then—as we look far outward in the universe and thus far back in time—the first “afterglow” of the hot, early universe should still be detectable. Observations of it would be very strong evidence that our theoretical calculations about how the universe evolved are correct. As we shall see, we have indeed detected the radiation emitted at this photon decoupling time, when radiation began to stream freely through the universe without interacting with matter ().
The detection of this afterglow was initially an accident. In the late 1940s, Ralph Alpher and Robert Herman, working with George Gamow, realized that just before the universe became transparent, it must have been radiating like a blackbody at a temperature of about 3000 K—the temperature at which hydrogen atoms could begin to form. If we could have seen that radiation just after neutral atoms formed, it would have resembled radiation from a reddish star. It was as if a giant fireball filled the whole universe.
But that was nearly 14 billion years ago, and, in the meantime, the scale of the universe has increased a thousand fold. This expansion has increased the wavelength of the radiation by a factor of 1000 (see ). According to Wien’s law, which relates wavelength and temperature, the expansion has correspondingly lowered the temperature by a factor of 1000 (see the chapter on Radiation and Spectra). The cosmic background behaves like a blackbody and should therefore have a spectrum that obeys Wien’s Law.
Alpher and Herman predicted that the glow from the fireball should now be at radio wavelengths and should resemble the radiation from a blackbody at a temperature only a few degrees above absolute zero. Since the fireball was everywhere throughout the universe, the radiation left over from it should also be everywhere. If our eyes were sensitive to radio wavelengths, the whole sky would appear to glow very faintly. However, our eyes can’t see at these wavelengths, and at the time Alpher and Herman made their prediction, there were no instruments that could detect the glow. Over the years, their prediction was forgotten.
In the mid-1960s, in Holmdel, New Jersey, Arno Penzias and Robert Wilson of AT&T’s Bell Laboratories had built a delicate microwave antenna () to measure astronomical sources, including supernova remnants like Cassiopeia A (see the chapter on The Death of Stars). They were plagued with some unexpected background noise, just like faint static on a radio, which they could not get rid of. The puzzling thing about this radiation was that it seemed to be coming from all directions at once. This is very unusual in astronomy: after all, most radiation has a specific direction where it is strongest—the direction of the Sun, or a supernova remnant, or the disk of the Milky Way, for example.
Penzias and Wilson at first thought that any radiation appearing to come from all directions must originate from inside their telescope, so they took everything apart to look for the source of the noise. They even found that some pigeons had roosted inside the big horn-shaped antenna and had left (as Penzias delicately put it) “a layer of white, sticky, dielectric substance coating the inside of the antenna.” However, nothing the scientists did could reduce the background radiation to zero, and they reluctantly came to accept that it must be real, and it must be coming from space.
Penzias and Wilson were not cosmologists, but as they began to discuss their puzzling discovery with other scientists, they were quickly put in touch with a group of astronomers and physicists at Princeton University (a short drive away). These astronomers had—as it happened—been redoing the calculations of Alpher and Herman from the 1940s and also realized that the radiation from the decoupling time should be detectable as a faint afterglow of radio waves. The different calculations of what the observed temperature would be for this cosmic microwave background (CMB)Recall that microwaves are in the radio region of the electromagnetic spectrum. were uncertain, but all predicted less than 40 K.
Penzias and Wilson found the distribution of intensity at different radio wavelengths to correspond to a temperature of 3.5 K. This is very cold—closer to absolute zero than most other astronomical measurements—and a testament to how much space (and the waves within it) has stretched. Their measurements have been repeated with better instruments, which give us a reading of 2.73 K. So Penzias and Wilson came very close. Rounding this value, scientists often refer to “the 3-degree microwave background.”
Many other experiments on Earth and in space soon confirmed the discovery by Penzias and Wilson: The radiation was indeed coming from all directions (it was isotropic) and matched the predictions of the Big Bang theory with remarkable precision. Penzias and Wilson had inadvertently observed the glow from the primeval fireball. They received the Nobel Prize for their work in 1978. And just before his death in 1966, Lemaître learned that his “vanished brilliance” had been discovered and confirmed.
### Properties of the Cosmic Microwave Background
One issue that worried astronomers is that Penzias and Wilson were measuring the background radiation filling space through Earth’s atmosphere. What if that atmosphere is a source of radio waves or somehow affected their measurements? It would be better to measure something this important from space.
The first accurate measurements of the CMB were made with a satellite orbiting Earth. Named the Cosmic Background Explorer (COBE), it was launched by NASA in November 1989. The data it received quickly showed that the CMB closely matches that expected from a blackbody with a temperature of 2.73 K (). This is exactly the result expected if the CMB was indeed redshifted radiation emitted by a hot gas that filled all of space shortly after the universe began.
The first important conclusion from measurements of the CMB, therefore, is that the universe we have today has indeed evolved from a hot, uniform state. This observation also provides direct support for the general idea that we live in an evolving universe, since the universe is cooler today than it was in the beginning.
### Small Differences in the CMB
It was known even before the launch of COBE that the CMB is extremely isotropic. In fact, its uniformity in every direction is one of the best confirmations of the cosmological principle— that the universe is homogenous and isotropic.
According to our theories, however, the temperature could not have been perfectly uniform when the CMB was emitted. After all, the CMB is radiation that was scattered from the particles in the universe at the time of decoupling. If the radiation were completely smooth, then all those particles must have been distributed through space absolutely evenly. Yet it is those particles that have become all the galaxies and stars (and astronomy students) that now inhabit the cosmos. Had the particles been completely smoothly distributed, they could not have formed all the large-scale structures now present in the universe—the clusters and superclusters of galaxies discussed in the last few chapters.
The early universe must have had tiny density fluctuations from which such structures could evolve. Regions of higher-than-average density would have attracted additional matter and eventually grown into the galaxies and clusters that we see today. It turns out that these denser regions would appear to us to be colder spots, that is, they would have lower-than-average temperatures.
The reason that temperature and density are related can be explained this way. At the time of decoupling, photons in a slightly denser portion of space had to expend some of their energy to escape the gravitational force exerted by the surrounding gas. In losing energy, the photons became slightly colder than the overall average temperature at the time of decoupling. Vice versa, photons that were located in a slightly less dense portion of space lost less energy upon leaving it than other photons, thus appearing slightly hotter than average. Therefore, if the seeds of present-day galaxies existed at the time that the CMB was emitted, we should see some slight variations in the CMB temperature as we look in different directions in the sky.
Scientists working with the data from the COBE satellite did indeed detect very subtle temperature differences—about 1 part in 100,000—in the CMB. The regions of lower-than-average temperature come in a variety of sizes, but even the smallest of the colder areas detected by COBE is far too large to be the precursor of an individual galaxy, or even a supercluster of galaxies. This is because the COBE instrument had “blurry vision” (poor resolution) and could only measure large patches of the sky. We needed instruments with “sharper vision.”
The most detailed measurements of the CMB have been obtained by two satellites launched more recently than COBE. The results from the first of these satellites, the Wilkinson Microwave Anisotropy Probe (WMAP) spacecraft, were published in 2003. In 2015, measurements from the Planck satellite extended the WMAP measurements to even-higher spatial resolution and lower noise ().
Theoretical calculations show that the sizes of the hot and cold spots in the CMB depend on the geometry of the universe and hence on its total density. (It’s not at all obvious that it should do so, and it takes some pretty fancy calculations—way beyond the level of our text—to make the connection, but having such a dependence is very useful.) The total density we are discussing here includes both the amount of mass in the universe and the mass equivalent of the dark energy. That is, we must add together mass and energy: ordinary matter, dark matter, and the dark energy that is speeding up the expansion.
To see why this works, remember (from the chapter on Black Holes and Curved Spacetime) that with his theory of general relativity, Einstein showed that matter can curve space and that the amount of curvature depends on the amount of matter present. Therefore, the total amount of matter in the universe (including dark matter and the equivalent matter contribution by dark energy), determines the overall geometry of space. Just like the geometry of space around a black hole has a curvature to it, so the entire universe may have a curvature. Let’s take a look at the possibilities ().
If the density of matter is higher than the critical density, the universe will eventually collapse. In such a closed universe, two initially parallel rays of light will eventually meet. This kind of geometry is referred to as spherical geometry. If the density of matter is less than critical, the universe will expand forever. Two initially parallel rays of light will diverge, and this is referred to as hyperbolic geometry. In a critical-density universe, two parallel light rays never meet, and the expansion comes to a halt only at some time infinitely far in the future. We refer to this as a flat universe, and the kind of Euclidean geometry you learned in high school applies in this type of universe.
If the density of the universe is equal to the critical density, then the hot and cold spots in the CMB should typically be about a degree in size. If the density is greater than critical, then the typical sizes will be larger than one degree. If the universe has a density less than critical, then the structures will appear smaller. In , you can see the differences easily. WMAP and Planck observations of the CMB confirmed earlier experiments that we do indeed live in a flat, critical-density universe.
Key numbers from an analysis of the Planck data give us the best values currently available for some of the basic properties of the universe:
1. Age of universe: billion years (Note: That means we know the age of the universe to within 38 million years. Amazing!)
2. Hubble constant: kilometers/second/million parsecs (in the units we’ve been using, 20.65 kilometers/second/million light-years)
3. Fraction of universe’s content that is “dark energy”:
4. Fraction of the universe’s content that is matter:
Note that this value for the Hubble constant is slightly smaller than the value of 70 kilometers/second/million parsecs that we have adopted in this book. In fact, the value derived from measurements of redshifts is 73 kilometers/second/million parsecs. So precise is modern cosmology these days that scientists are working hard to resolve this discrepancy. The fact that the difference between these two independent measurements is so small is actually a remarkable achievement. Only a few decades ago, astronomers were arguing about whether the Hubble constant was around 50 kilometers/second/million parsecs or 100 kilometers/second/million parsecs.
Analysis of Planck data also shows that ordinary matter (mainly protons and neutrons) makes up 4.9% of the total density. Dark matter plus normal matter add up to 31.5% of the total density. Dark energy contributes the remaining 68.5%. The age of the universe at decoupling—that is, when the CMB was emitted—was 380,000 years.
Perhaps the most surprising result from the high-precision measurements by WMAP and the even higher-precision measurements from Planck is that there were no surprises. The model of cosmology with ordinary matter at about 5%, dark matter at about 25%, and dark energy about 70% has survived since the late 1990s when cosmologists were forced in that direction by the supernovae data. In other words, the very strange universe that we have been describing, with only about 5% of its contents being made up of the kinds of matter we are familiar with here on Earth, really seems to be the universe we live in.
After the CMB was emitted, the universe continued to expand and cool off. By 400 to 500 million years after the Big Bang, the very first stars and galaxies had already formed. Deep in the interiors of stars, matter was reheated, nuclear reactions were ignited, and the more gradual synthesis of the heavier elements that we have discussed throughout this book began.
We conclude this quick tour of our model of the early universe with a reminder. You must not think of the Big Bang as a localized explosion in space, like an exploding superstar. There were no boundaries and there was no single site where the explosion happened. It was an explosion of space (and time and matter and energy) that happened everywhere in the universe. All matter and energy that exist today, including the particles of which you are made, came from the Big Bang. We were, and still are, in the midst of a Big Bang; it is all around us.
### Key Concepts and Summary
When the universe became cool enough to form neutral hydrogen atoms, the universe became transparent to radiation. Scientists have detected the cosmic microwave background (CMB) radiation from this time during the hot, early universe. Measurements with the COBE satellite show that the CMB acts like a blackbody with a temperature of 2.73 K. Tiny fluctuations in the CMB show us the seeds of large-scale structures in the universe. Detailed measurements of these fluctuations show that we live in a critical-density universe and that the critical density is composed of 31% matter, including dark matter, and 69% dark energy. Ordinary matter—the kinds of elementary particles we find on Earth—make up only about 5% of the critical density. CMB measurements also indicate that the universe is 13.8 billion years old. |
# The Big Bang
## What Is the Universe Really Made Of?
### Learning Objectives
By the end of this section, you will be able to:
1. Specify what fraction of the density of the universe is contributed by stars and galaxies and how much ordinary matter (such as hydrogen, helium, and other elements we are familiar with here on Earth) makes up the overall density
2. Describe how ideas about the contents of the universe have changed over the last 50 years
3. Explain why it is so difficult to determine what dark matter really is
4. Explain why dark matter helped galaxies form quickly in the early universe
5. Summarize the evolution of the universe from the time the CMB was emitted to the present day
The model of the universe we described in the previous section is the simplest model that explains the observations. It assumes that general relativity is the correct theory of gravity throughout the universe. With this assumption, the model then accounts for the existence and structure of the CMB; the abundances of the light elements deuterium, helium, and lithium; and the acceleration of the expansion of the universe. All of the observations to date support the validity of the model, which is referred to as the standard (or concordance) model of cosmology.
and summarize the current best estimates of the contents of the universe. Luminous matter in stars and galaxies and neutrinos contributes about 1% of the mass required to reach critical density. Another 4% is mainly in the form of hydrogen and helium in the space between stars and in intergalactic space. Dark matter accounts for about an additional 27% of the critical density. The mass equivalent of dark energy (according to E = mc2) then supplies the remaining 68% of the critical density.
This table should shock you. What we are saying is that 95% of the stuff of the universe is either dark matter or dark energy—neither of which has ever been detected in a laboratory here on Earth. This whole textbook, which has focused on objects that emit electromagnetic radiation, has generally been ignoring 95% of what is out there. Who says there aren’t big mysteries yet to solve in science!
shows how our ideas of the composition of the universe have changed over just the past three decades. The fraction of the universe that we think is made of the same particles as astronomy students has been decreasing steadily.
### What Is Dark Matter?
Many astronomers find the situation we have described very satisfying. Several independent experiments now agree on the type of universe we live in and on the inventory of what it contains. We seem to be very close to having a cosmological model that explains nearly everything. Others are not yet ready to jump on the bandwagon. They say, “show me the 96% of the universe we can’t detect directly—for example, find me some dark matter!”
At first, astronomers thought that dark matter might be hidden in objects that appear dark because they emit no light (e.g., black holes) or that are too faint to be observed at large distances (e.g., planets or white dwarfs). However, these objects would be made of ordinary matter, and the deuterium abundance tells us that no more than 5% of the critical density consists of ordinary matter.
Another possible form that dark matter can take is some type of elementary particle that we have not yet detected here on Earth—a particle that has mass and exists in sufficient abundance to contribute 23% of the critical density. Some physics theories predict the existence of such particles. One class of these particles has been given the name WIMPs, which stands for weakly interacting massive particles. Since these particles do not participate in nuclear reactions leading to the production of deuterium, the deuterium abundance puts no limits on how many WIMPs might be in the universe. (A number of other exotic particles have also been suggested as prime constituents of dark matter, but we will confine our discussion to WIMPs as a useful example.)
If large numbers of WIMPs do exist, then some of them should be passing through our physics laboratories right now. The trick is to catch them. Since by definition they interact only weakly (infrequently) with other matter, the chances that they will have a measurable effect are small. We don’t know the mass of these particles, but various theories suggest that it might be a few to a few hundred times the mass of a proton. If WIMPs are 60 times the mass of a proton, there would be about 10 million of them passing through your outstretched hand every second—with absolutely no effect on you. If that seems too mind-boggling, bear in mind that neutrinos interact weakly with ordinary matter, and yet we were able to “catch” them eventually.
Despite the challenges, more than 30 experiments designed to detect WIMPS are in operation or in the planning stages. Predictions of how many times WIMPs might actually collide with the nucleus of an atom in the instrument designed to detect them are in the range of 1 event per year to 1 event per 1000 years per kilogram of detector. The detector must therefore be large. It must be shielded from radioactivity or other types of particles, such as neutrons, passing through it, and hence these detectors are placed in deep mines. The energy imparted to an atomic nucleus in the detector by collision with a WIMP will be small, and so the detector must be cooled to a very low temperature.
The WIMP detectors are made out of crystals of germanium, silicon, or xenon. The detectors are cooled to a few thousandths of a degree—very close to absolute zero. That means that the atoms in the detector are so cold that they are scarcely vibrating at all. If a dark matter particle collides with one of the atoms, it will cause the whole crystal to vibrate and the temperature therefore to increase ever so slightly. Some other interactions may generate a detectable flash of light.
A different kind of search for WIMPs is being conducted at the Large Hadron Collider (LHC) at CERN, Europe’s particle physics lab near Geneva, Switzerland. In this experiment, protons collide with enough energy potentially to produce WIMPs. The LHC detectors cannot detect the WIMPs directly, but if WIMPs are produced, they will pass through the detectors, carrying energy away with them. Experimenters will then add up all the energy that they detect as a result of the collisions of protons to determine if any energy is missing.
So far, none of these experiments has detected WIMPs. Will the newer experiments pay off? Or will scientists have to search for some other explanation for dark matter? Only time will tell ().
### Dark Matter and the Formation of Galaxies
As elusive as dark matter may be in the current-day universe, galaxies could not have formed quickly without it. Galaxies grew from density fluctuations in the early universe, and some had already formed only about 400–500 million years after the Big Bang. The observations with WMAP, Planck, and other experiments give us information on the size of those density fluctuations. It turns out that the density variations we observe are too small to have formed galaxies so soon after the Big Bang. In the hot, early universe, energetic photons collided with hydrogen and helium, and kept them moving so rapidly that gravity was still not strong enough to cause the atoms to come together to form galaxies. How can we reconcile this with the fact that galaxies did form and are all around us?
Our instruments that measure the CMB give us information about density fluctuations only for ordinary matter, which interacts with radiation. Dark matter, as its name indicates, does not interact with photons at all. Dark matter could have had much greater variations in density and been able to come together to form gravitational “traps” that could then have begun to attract ordinary matter immediately after the universe became transparent. As ordinary matter became increasingly concentrated, it could have turned into galaxies quickly thanks to these dark matter traps.
For an analogy, imagine a boulevard with traffic lights every half mile or so. Suppose you are part of a motorcade of cars accompanied by police who lead you past each light, even if it is red. So, too, when the early universe was opaque, radiation interacted with ordinary matter, imparting energy to it and carrying it along, sweeping past the concentrations of dark matter. Now suppose the police leave the motorcade, which then encounters some red lights. The lights act as traffic traps; approaching cars now have to stop, and so they bunch up. Likewise, after the early universe became transparent, ordinary matter interacted with radiation only occasionally and so could fall into the dark matter traps.
### The Universe in a Nutshell
In the previous sections of this chapter, we traced the evolution of the universe progressively further back in time. Astronomical discovery has followed this path historically, as new instruments and new techniques have allowed us to probe ever closer to the beginning of time. The rate of expansion of the universe was determined from measurements of nearby galaxies. Determinations of the abundances of deuterium, helium, and lithium based on nearby stars and galaxies were used to put limits on how much ordinary matter is in the universe. The motions of stars in galaxies and of galaxies within clusters of galaxies could only be explained if there were large quantities of dark matter. Measurements of supernovae that exploded when the universe was about half as old as it is now indicated that the rate of expansion of the universe has sped up since those explosions occurred. Observations of extremely faint galaxies show that galaxies had begun to form when the universe was only 400–500 million years old. And observations of the CMB confirmed early theories that the universe was initially very hot.
But all this moving further and further backward in time might have left you a bit dizzy. So now let’s instead show how the universe evolves as time moves forward.
summarizes the entire history of the observable universe from the beginning in a single diagram. The universe was very hot when it began to expand. We have fossil remnants of the very early universe in the form of neutrons, protons, electrons, and neutrinos, and the atomic nuclei that formed when the universe was 3–4 minutes old: deuterium, helium, and a small amount of lithium. Dark matter also remains, but we do not yet know what form it is in.
The universe gradually cooled; when it was about 380,000 years old, and at a temperature of about 3000 K, electrons combined with protons to form hydrogen atoms. At this point, as we saw, the universe became transparent to light, and astronomers have detected the CMB emitted at this time. The universe still contained no stars or galaxies, and so it entered what astronomers call “the dark ages” (since stars were not lighting up the darkness). During the next several hundred million years, small fluctuations in the density of the dark matter grew, forming gravitational traps that concentrated the ordinary matter, which began to form galaxies about 400–500 million years after the Big Bang.
By the time the universe was about a billion years old, it had entered its own renaissance: it was again blazing with radiation, but this time from newly formed stars, star clusters, and small galaxies. Over the next several billion years, small galaxies merged to form the giants we see today. Clusters and superclusters of galaxies began to grow, and the universe eventually began to resemble what we see nearby.
Astronomers are now building giant new telescopes, both in space and on the ground, to explore further back in time. In 2022, the 6.5-meter James Webb Space Telescope (see ) was put into operation. With it, astronomers can detect distant galaxies whose great redshifts have moved much of the radiation they give off to the infrared. The predictions are that with this powerful infrared instrument, we should be able to look back far enough to analyze in detail the formation of the first galaxies—only a few hundred million years after the expansion of the universe began 13.8 billion years ago.
### Key Concepts and Summary
Twenty-seven percent of the critical density of the universe is composed of dark matter. To explain so much dark matter, some physics theories predict that additional types of particles should exist. One type has been given the name of WIMPs (weakly interacting massive particles), and scientists are now conducting experiments to try to detect them in the laboratory. Dark matter plays an essential role in forming galaxies. Since, by definition, these particles interact only very weakly (if at all) with radiation, they could have congregated while the universe was still very hot and filled with radiation. They would thus have formed gravitational traps that quickly attracted and concentrated ordinary matter after the universe became transparent, and matter and radiation decoupled. This rapid concentration of matter enabled galaxies to form by the time the universe was only 400–500 million years old. |
# The Big Bang
## The Inflationary Universe
### Learning Objectives
By the end of this section, you will be able to:
1. Describe two important properties of the universe that the simple Big Bang model cannot explain
2. Explain why these two characteristics of the universe can be accounted for if there was a period of rapid expansion (inflation) of the universe just after the Big Bang
3. Name the four forces that control all physical processes in the universe
The hot Big Bang model that we have been describing is remarkably successful. It accounts for the expansion of the universe, explains the observations of the CMB, and correctly predicts the abundances of the light elements. As it turns out, this model also predicts that there should be exactly three types of neutrinos in nature, and this prediction has been confirmed by experiments with high-energy accelerators. We can’t relax just yet, however. This standard model of the universe doesn’t explain all the observations we have made about the universe as a whole.
### Problems with the Standard Big Bang Model
There are a number of characteristics of the universe that can only be explained by considering further what might have happened before the emission of the CMB. One problem with the standard Big Bang model is that it does not explain why the density of the universe is equal to the critical density. The mass density could have been, after all, so low and the effects of dark energy so high that the expansion would have been too rapid to form any galaxies at all. Alternatively, there could have been so much matter that the universe would have already begun to contract long before now. Why is the universe balanced so precisely on the knife edge of the critical density?
Another puzzle is the remarkable uniformity of the universe. The temperature of the CMB is the same to about 1 part in 100,000 everywhere we look. This sameness might be expected if all the parts of the visible universe were in contact at some point in time and had the time to come to the same temperature. In the same way, if we put some ice into a glass of lukewarm water and wait a while, the ice will melt and the water will cool down until they are the same temperature.
However, if we accept the standard Big Bang model, all parts of the visible universe were not in contact at any time. The fastest that information can go from one point to another is the speed of light. There is a maximum distance that light can have traveled from any point since the time the universe began—that’s the distance light could have covered since then. This distance is called that point’s horizon distance because anything farther away is “below its horizon”—unable to make contact with it. One region of space separated by more than the horizon distance from another has been completely isolated from it through the entire history of the universe.
If we measure the CMB in two opposite directions in the sky, we are observing regions that were significantly beyond each other’s horizon distance at the time the CMB was emitted. We can see both regions, but they can never have seen each other. Why, then, are their temperatures so precisely the same? According to the standard Big Bang model, they have never been able to exchange information, and there is no reason they should have identical temperatures. (It’s a little like seeing the clothes that all the students wear at two schools in different parts of the world become identical, without the students ever having been in contact.) The only explanation we could suggest was simply that the universe somehow started out being absolutely uniform (which is like saying all students were born liking the same clothes). Scientists are always uncomfortable when they must appeal to a special set of initial conditions to account for what they see.
### The Inflationary Hypothesis
Some physicists suggested that these fundamental characteristics of the cosmos—its flatness and uniformity—can be explained if shortly after the Big Bang (and before the emission of the CMB), the universe experienced a sudden increase in size. A model universe in which this rapid, early expansion occurs is called an inflationary universe. The inflationary universe is identical to the Big Bang universe for all time after the first 10–30 second. Prior to that, the model suggests that there was a brief period of extraordinarily rapid expansion or inflation, during which the scale of the universe increased by a factor of about 1030 times more than predicted by standard Big Bang models ().
Prior to (and during) inflation, all the parts of the universe that we can now see were so small and close to each other that they could exchange information, that is, the horizon distance included all of the universe that we can now observe. Before (and during) inflation, there was adequate time for the observable universe to homogenize itself and come to the same temperature. Then, inflation expanded those regions tremendously, so that many parts of the universe are now beyond each other’s horizon.
Another appeal of the inflationary model is its prediction that the density of the universe should be exactly equal to the critical density. To see why this is so, remember that curvature of spacetime is intimately linked to the density of matter. If the universe began with some curvature of its spacetime, one analogy for it might be the skin of a balloon. The period of inflation was equivalent to blowing up the balloon to a tremendous size. The universe became so big that from our vantage point, no curvature should be visible (). In the same way, Earth’s surface is so big that it looks flat to us no matter where we are. Calculations show that a universe with no curvature is one that is at critical density. Universes with densities either higher or lower than the critical density would show marked curvature. But we saw that the observations of the CMB in , which show that the universe has critical density, rule out the possibility that space is significantly curved.
### Grand Unified Theories
While inflation is an intriguing idea and widely accepted by researchers, we cannot directly observe events so early in the universe. The conditions at the time of inflation were so extreme that we cannot reproduce them in our laboratories or high-energy accelerators, but scientists have some ideas about what the universe might have been like. These ideas are called grand unified theories or GUTs.
In GUT models, the forces that we are familiar with here on Earth, including gravity and electromagnetism, behaved very differently in the extreme conditions of the early universe than they do today. In physical science, the term force is used to describe anything that can change the motion of a particle or body. One of the remarkable discoveries of modern science is that all known physical processes can be described through the action of just four forces: gravity, electromagnetism, the strong nuclear force, and the weak nuclear force ().
Gravity is perhaps the most familiar force, and certainly appears strong if you jump off a tall building. However, the force of gravity between two elementary particles—say two protons—is by far the weakest of the four forces. Electromagnetism—which includes both magnetic and electrical forces, holds atoms together, and produces the electromagnetic radiation that we use to study the universe—is much stronger, as you can see in . The weak nuclear force is only weak in comparison to its strong “cousin,” but it is in fact much stronger than gravity.
Both the weak and strong nuclear forces differ from the first two forces in that they act only over very small distances—those comparable to the size of an atomic nucleus or less. The weak force is involved in radioactive decay and in reactions that result in the production of neutrinos. The strong force holds protons and neutrons together in an atomic nucleus.
Physicists have wondered why there are four forces in the universe—why not 300 or, preferably, just one? An important hint comes from the name electromagnetic force. For a long time, scientists thought that the forces of electricity and magnetism were separate, but James Clerk Maxwell (see the chapter on Radiation and Spectra) was able to unify these forces—to show that they are aspects of the same phenomenon. In the same way, many scientists (including Einstein) have wondered if the four forces we now know could also be unified. Physicists have actually developed GUTs that unify three of the four forces (but not gravity).
In these theories, the strong, weak, and electromagnetic forces are not three independent forces but instead are different manifestations or aspects of what is, in fact, a single force. The theories predict that at high enough temperatures, there would be only one force. At lower temperatures (like the ones in the universe today), however, this single force has changed into three different forces (). Just as different gases or liquids freeze at different temperatures, we can say that the different forces “froze out” of the unified force at different temperatures. Unfortunately, the temperatures at which the three forces acted as one force are so high that they cannot be reached in any laboratory on Earth. Only the early universe, at times prior to 10–35 second, was hot enough to unify these forces.
Many physicists think that gravity was also unified with the three other forces at still higher temperatures, and scientists have tried to develop a theory that combines all four forces. For example, in string theory, the point-like particles of matter that we have discussed in this book are replaced by one-dimensional objects called strings. In this theory, infinitesimal strings, which have length but not height or width, are the building blocks used to construct all the forms of matter and energy in the universe. These strings exist in 11-dimensional space (not the 4-dimensional spacetime with which we are familiar). The strings vibrate in the various dimensions, and depending on how they vibrate, they are seen in our world as matter or gravity or light. As you can imagine, the mathematics of string theory is very complex, and the theory remains untested by experiments. Even the largest particle accelerators on Earth do not achieve high enough energy to show whether string theory applies to the real world.
String theory is interesting to scientists because it is currently the only approach that seems to have the potential of combining all four forces to produce what physicists have termed the Theory of Everything.This name became the title of a film about physicist Stephen Hawking in 2014. Theories of the earliest phases of the universe must take both quantum mechanics and gravity into account, but at the simplest level, gravity and quantum mechanics are incompatible. General relativity, our best theory of gravity, says that the motions of objects can be predicted exactly. Quantum mechanics says you can only calculate the probability (chance) that an object will do something. String theory is an attempt to resolve this paradox. The mathematics that underpins string theory is elegant and beautiful, but it remains to be seen whether it will make predictions that can be tested by observations in yet-to-be-developed, high-energy accelerators on Earth or by observations of the early universe.
The earliest period in the history of the universe from time zero to 10–43 second is called the Planck time. The universe was unimaginably hot and dense, and theorists believe that at this time, quantum effects of gravity dominated physical interactions—and, as we have just discussed, we have no tested theory of quantum gravity. Inflation is hypothesized to have occurred somewhat later, when the universe was between perhaps 10–35 and 10–33 second old and the temperature was 1027 to 1028 K. This rapid expansion took place when three forces (electromagnetic, strong, and weak) are thought to have been unified, and this is when GUTs are applicable.
After inflation, the universe continued to expand (but more slowly) and to cool. An important milestone was reached when the temperature was down to 1015 K and the universe was 10–10 second old. Under these conditions, all four forces were separate and distinct. High-energy particle accelerators can achieve similar conditions, and so theories of the history of the universe from this point on have a sound basis in experiments.
As yet, we have no direct evidence of what the conditions were during the inflationary epoch, and the ideas presented here are speculative. Researchers are trying to devise some experimental tests. For example, the quantum fluctuations in the very early universe would have caused variations in density and produced gravitational waves that may have left a detectable imprint on the CMB. Detection of such an imprint will require observations with equipment whose sensitivity is improved from what we have today. Ultimately, however, it may provide confirmation that we live in a universe that once experienced an epoch of rapid inflation.
If you are typical of the students who read this book, you may have found this brief discussion of dark matter, inflation, and cosmology a bit frustrating. We have offered glimpses of theories and observations, but have raised more questions than we have answered. What is dark matter? What is dark energy? Inflation explains the observations of flatness and uniformity of the university, but did it actually happen? These ideas are at the forefront of modern science, where progress almost always leads to new puzzles, and much more work is needed before we can see clearly. Bear in mind that less than a century has passed since Hubble demonstrated the existence of other galaxies. The quest to understand just how the universe of galaxies came to be will keep astronomers busy for a long time to come.
### Key Concepts and Summary
The Big Bang model does not explain why the CMB has the same temperature in all directions. Neither does it explain why the density of the universe is so close to critical density. These observations can be explained if the universe experienced a period of rapid expansion, which scientists call inflation, about 10–35 second after the Big Bang. New grand unified theories (GUTs) are being developed to describe physical processes in the universe before and at the time that inflation occurred. |
# The Big Bang
## The Anthropic Principle
### Learning Objectives
By the end of this section, you will be able to:
1. Name some properties of the universe that, if different, would have precluded the development of humans
Despite our uncertainties, we must admit that the picture we have developed about the evolution of our universe is a remarkable one. With new telescopes, we have begun to collect enough observational evidence that we can describe how the universe evolved from a mere fraction of a second after the expansion began. Although this is an impressive achievement, there are still some characteristics of the universe that we cannot explain. And yet, it turns out that if these characteristics were any different, we would not be here to ask about them. Let’s look at some of these “lucky accidents,” beginning with the observations of the cosmic microwave background (CMB).
### Lucky Accidents
As we described in this chapter, the CMB is radiation that was emitted when the universe was a few hundred thousand years old. Observations show that the temperature of the radiation varies from one region to another, typically by about 10 millionths of a degree, and these temperature differences signal small differences in density. But suppose the tiny, early fluctuations in density had been much smaller. Then calculations show that the pull of gravity near them would have been so small that no galaxies would ever have formed.
What if the fluctuations in density had been much larger? Then it is possible that very dense regions would have condensed, and these would simply have collapsed directly to black holes without ever forming galaxies and stars. Even if galaxies had been able to form in such a universe, space would have been filled with intense X-rays and gamma rays, and it would have been difficult for life forms to develop and survive. The density of stars within galaxies would be so high that interactions and collisions among them would be frequent. In such a universe, any planetary systems could rarely survive long enough for life to develop.
So for us to be here, the density fluctuations need to be “just right”—not too big and not too small.
Another lucky accident is that the universe is finely balanced between expansion and contraction. It is expanding, but very slowly. If the expansion had been at a much higher rate, all of the matter would have thinned out before galaxies could form. If everything were expanding at a much slower rate, then gravity would have “won.” The expansion would have reversed and all of the matter would have recollapsed, probably into a black hole—again, no stars, no planets, no life.
The development of life on Earth depends on still-luckier coincidences. Had matter and antimatter been present initially in exactly equal proportions, then all matter would have been annihilated and turned into pure energy. We owe our existence to the fact that there was slightly more matter than antimatter. (After most of the matter made contact with an equal amount of antimatter, turning into energy, a small amount of additional matter must have been present. We are all descendants of that bit of “unbalanced” matter.)
If nuclear fusion reactions occurred at a somewhat faster rate than they actually do, then at the time of the initial fireball, all of the matter would have been converted from hydrogen into helium into carbon and all the way into iron (the most stable nucleus). That would mean that no stars would have formed, since the existence of stars depends on there being light elements that can undergo fusion in the main-sequence stage and make the stars shine. In addition, the structure of atomic nuclei had to be just right to make it possible for three helium atoms to come together easily to fuse carbon, which is the basis of life. If the triple-alpha process we discussed in the chapter on Stars from Adolescence to Old Age were too unlikely, not enough carbon would have formed to lead to biology as we know it. At the same time, it had to be hard enough to fuse carbon into oxygen that a large amount of carbon survived for billions of years.
There are additional factors that have contributed to life like us being possible. Neutrinos have to interact with matter at just the right, albeit infrequent, rate. Supernova explosions occur when neutrinos escape from the cores of collapsing stars, deposit some of their energy in the surrounding stellar envelope, and cause it to blow out and away into space. The heavy elements that are ejected in such explosions are essential ingredients of life here on Earth. If neutrinos did not interact with matter at all, they would escape from the cores of collapsing stars without causing the explosion. If neutrinos interacted strongly with matter, they would remain trapped in the stellar core. In either case, the heavy elements would remain locked up inside the collapsing star.
If gravity were a much stronger force than it is, stars could form with much smaller masses, and their lifetimes would be measured in years rather than billions of years. Chemical processes, on the other hand, would not be sped up if gravity were a stronger force, and so there would be no time for life to develop while stars were so short-lived. Even if life did develop in a stronger-gravity universe, life forms would have to be tiny or they could not stand up or move around.
### What Had to Be, Had to Be
In summary, we see that a specific set of rules and conditions in the universe has allowed complexity and life on Earth to develop. As yet, we have no theory to explain why this “right” set of conditions occurred. For this reason, many scientists are beginning to accept an idea we call the anthropic principle—namely, that the physical laws we observe must be what they are precisely because these are the only laws that allow for the existence of humans.
Some scientists speculate that our universe is but one of countless universes, each with a different set of physical laws—an idea that is sometimes referred to as the multiverse. Some of those universes might be stillborn, collapsing before any structure forms. Others may expand so quickly that they remain essentially featureless with no stars and galaxies. In other words, there may be a much larger multiverse that contains our own universe and many others. This multiverse (existing perhaps in more dimensions that we can become aware of) is infinite and eternal; it generates many, many inflating regions, each of which evolves into a separate universe, which may be completely unlike any of the other separate universes. Our universe is then the way it is because it is the only way it could be and have humans like ourselves in it to discover its properties and ask such questions.
It is difficult to know how to test these ideas since we can never make contact with any other universe. For most scientists, our discussion in this section borders on the philosophical and metaphysical. Perhaps in the future our understanding of physics will develop to the point that we can know why the gravitational constant is as strong as it is, why the universe is expanding at exactly the rate it is, and why all of the other “lucky accidents” happened—why they were inevitable and could be no other way. Then this anthropic idea would no longer be necessary. No one knows, however, whether we will ever have an explanation for why this universe works the way it does.
We have come a long way in our voyage through the universe. We have learned a remarkable amount about how and when the cosmos came to be, but the question of why the universe is the way it is remains as elusive as ever.
### Key Concepts and Summary
Recently, many cosmologists have noted that the existence of humans depends on the fact that many properties of the universe—the size of density fluctuations in the early universe, the strength of gravity, the structure of atoms—were just right. The idea that physical laws must be the way they are because otherwise we could not be here to measure them is called the anthropic principle. Some scientists speculate that there may be a multiverse of universes, in which ours is just one.
### For Further Exploration
### Articles
The January 2021 issue of Astronomy magazine is devoted to our modern understanding of the beginning and end of the universe.
Kruesi, L. “Cosmology: 5 Things You Need to Know.” Astronomy (May 2007): 28. Five questions students often ask, and how modern cosmologists answer them.
Kruesi, L. “How Planck Has Redefined the Universe.” Astronomy (October 2013): 28. Good review of what this space mission has told us about the CMB and the universe.
Lineweaver, C. & Davis, T. “Misconceptions about the Big Bang.” Scientific American (March 2005): 36. Some basic ideas about modern cosmology clarified, using general relativity.
Nadis, S. “Sizing Up Inflation.” Sky & Telescope (November 2005): 32. Nice review of the origin and modern variants on the inflationary idea.
Nadis, S. “How We Could See Another Universe.” Astronomy (June 2009): 24. On modern ideas about multiverses and how such bubbles of space-time might collide.
Nadis, S. “Dark Energy’s New Face: How Exploding Stars Are Changing our View.” Astronomy (July 2012): 45. About our improving understanding of the complexities of type Ia supernovae.
Naze, Y. “The Priest, the Universe, and the Big Bang.” Astronomy (November 2007): 40. On the life and work of Georges Lemaître.
Panek, R. “Going Over to the Dark Side.” Sky & Telescope (February 2009): 22. A history of the observations and theories about dark energy.
Pendrick, D. “Is the Big Bang in Trouble?” Astronomy (April 2009): 48. This sensationally titled article is really more of a quick review of how modern ideas and observations are fleshing out the Big Bang hypothesis (and raising questions.)
Reddy, F. “How the Universe Will End.” Astronomy (September 2014): 38. Brief discussion of local and general future scenarios.
Riess, A. and Turner, M. “The Expanding Universe: From Slowdown to Speedup.” Scientific American (September 2008): 62.
Turner, M. “The Origin of the Universe.” Scientific American (September 2009): 36. An introduction to modern cosmology.
### Websites
Cosmology Primer: https://preposterousuniverse.com/cosmologyprimer/. Caltech Astrophysicist Sean Carroll offers a non-technical site with brief overviews of many key topics in modern cosmology.
How Big Is the Universe?: http://www.pbs.org/wgbh/nova/space/how-big-universe.html. A clear essay by a noted astronomer Brent Tully summarizes some key ideas in cosmology and introduces the notion of the acceleration of the universe.
Universe 101: WMAP Mission Introduction to the Universe: http://map.gsfc.nasa.gov/universe/. Concise NASA primer on cosmological ideas from the WMAP mission team.
Cosmic Times Project: http://cosmictimes.gsfc.nasa.gov/. James Lochner and Barbara Mattson have compiled a rich resource of twentieth-century cosmology history in the form of news reports on key events, from NASA’s Goddard Space Flight Center.
### Videos
The Day We Found the Universe: https://www.youtube.com/watch?v=HV23qWIieBw. Distinguished science writer Marcia Bartusiak discusses Hubble’s work and the discovery of the expansion of the cosmos.
Images of the Infant Universe: https://www.youtube.com/watch?v=x0AqCwElyUk. Lloyd Knox’s public talk on the latest discoveries about the CMB and what they mean for cosmology (1:16:00).
Runaway Universe: https://www.youtube.com/watch?v=kNYVFrnmcOU. Roger Blandford (Stanford Linear Accelerator Center) public lecture on the discovery and meaning of cosmic acceleration and dark energy (1:08:08).
From the Big Bang to the Nobel Prize and on to the James Webb Space Telescope and the Discovery of Alien Life: http://svs.gsfc.nasa.gov/vis/a010000/a010300/a010370/index.html. John Mather, NASA Goddard (1:01:02). His Nobel Prize talk from Dec. 8, 2006 can be found at http://www.nobelprize.org/mediaplayer/index.php?id=74&view=1.
Supernovae and the Discovery of the Accelerating Universe: https://www.youtube.com/watch?v=_D6cwrl0CxA. A public lecture by Nobel Laureate Adam Riess in 2019 (58 min).
### Collaborative Group Activities
1. This chapter deals with some pretty big questions and ideas. Some belief systems teach us that there are questions to which “we were not meant to know” the answers. Other people feel that if our minds and instruments are capable of exploring a question, then it becomes part of our birthright as thinking human beings. Have your group discuss your personal reactions to discussing questions like the beginning of time and space, and the ultimate fate of the universe. Does it make you nervous to hear about scientists discussing these issues? Or is it exciting to know that we can now gather scientific evidence about the origin and fate of the cosmos? (In discussing this, you may find that members of your group strongly disagree; try to be respectful of others’ points of view.)
2. A popular model of the universe in the 1950s and 1960s was the so-called steady-state cosmology. In this model, the universe was not only the same everywhere and in all directions (homogeneous and isotropic), but also the same at all times. We know the universe is expanding and the galaxies are thinning out, and so this model hypothesized that new matter was continually coming into existence to fill in the space between galaxies as they moved farther apart. If so, the infinite universe did not have to have a sudden beginning, but could simply exist forever in a steady state. Have your group discuss your reaction to this model. Do you find it more appealing philosophically than the Big Bang model? Can you cite some evidence that indicates that the universe was not the same billions of years ago as it is now—that it is not in a steady state?
3. One of the lucky accidents that characterizes our universe is the fact that the time scale for the development of intelligent life on Earth and the lifetime of the Sun are comparable. Have your group discuss what would happen if the two time scales were very different. Suppose, for example, that the time for intelligent life to evolve was 10 times greater than the main-sequence lifetime of the Sun. Would our civilization have ever developed? Now suppose the time for intelligent life to evolve is ten times shorter than the main-sequence lifetime of the Sun. Would we be around? (This latter discussion requires considerable thought, including such ideas as what the early stages in the Sun’s life were like and how much the early Earth was bombarded by asteroids and comets.)
4. The grand ideas discussed in this chapter have a powerful effect on the human imagination, not just for scientists, but also for artists, composers, dramatists, and writers. Here we list just a few of these responses to cosmology. Each member of your group can select one of these, learn more about it, and then report back, either to the group or to the whole class.
5. When Einstein learned about Hubble’s work showing that the universe of galaxies is expanding, he called his introduction of the cosmological constant into his general theory of relativity his “biggest blunder.” Can your group think of other “big blunders” from the history of astronomy, where the thinking of astronomers was too conservative and the universe turned out to be more complicated or required more “outside-the-box” thinking?
### Review Questions
### Thought Questions
### Figuring for Yourself
|
# Life in the Universe
## Thinking Ahead
As we have learned more about the universe, we have naturally wondered whether there might be other forms of life out there. The ancient question, “Are we alone in the universe?” connects us to generations of humans before us. While in the past, this question was in the realm of philosophy or science fiction, today we have the means to seek an answer through scientific inquiry. In this chapter, we will consider how life began on Earth, whether the same processes could have led to life on other worlds, and how we might seek evidence of life elsewhere. This is the science of astrobiology.
The search for life on other planets is not the same as the search for intelligent life, which (if it exists) is surely much rarer. Learning more about the origin, evolution, and properties of life on Earth aids us in searching for evidence of all kinds of life beyond that on our planet. |
# Life in the Universe
## The Cosmic Context for Life
### Learning Objectives
By the end of this section, you will be able to:
1. Describe the chemical and environmental conditions that make Earth hospitable to life
2. Discuss the assumption underlying the Copernican principle and outline its implications for modern-day astronomers
3. Understand the questions underlying the Fermi paradox
We saw that the universe was born in the Big Bang about 14 billion years ago. After the initial hot, dense fireball of creation cooled sufficiently for atoms to exist, all matter consisted of hydrogen and helium (with a very small amount of lithium). As the universe aged, processes within stars created the other elements, including those that make up Earth (such as iron, silicon, magnesium, and oxygen) and those required for life as we know it, such as carbon, oxygen, and nitrogen. These and other elements combined in space to produce a wide variety of compounds that form the basis of life on Earth. In particular, life on Earth is based on the presence of a key unit known as an organic molecule, a molecule that contains carbon. Especially important are the hydrocarbons, chemical compounds made up entirely of hydrogen and carbon, which serve as the basis for our biological chemistry, or biochemistry. While we do not understand the details of how life on Earth began, it is clear that to make creatures like us possible, events like the ones we described must have occurred, resulting in what is called the chemical evolution of the universe.
### What Made Earth Hospitable to Life?
About 5 billion years ago, a cloud of gas and dust in this cosmic neighborhood began to collapse under its own weight. Out of this cloud formed the Sun and its planets, together with all the smaller bodies, such as comets, that also orbit the Sun (). The third planet from the Sun, as it cooled, eventually allowed the formation of large quantities of liquid water on its surface.
The chemical variety and moderate conditions on Earth eventually led to the formation of molecules that could make copies of themselves (reproduce), which is essential for beginning life. Over the billions of years of Earth history, life evolved and became more complex. The course of evolution was punctuated by occasional planet-wide changes caused by collisions with some of the smaller bodies that did not make it into the Sun or one of its accompanying worlds. As we saw in the chapter on Earth as a Planet, mammals may owe their domination of Earth’s surface to just such a collision 65 million years ago, which led to the extinction of the dinosaurs (along with the majority of other living things). The details of such mass extinctions are currently the focus of a great deal of scientific interest.
Through many twisting turns, the course of evolution on Earth produced a creature with self-consciousness, able to ask questions about its own origins and place in the cosmos (). Like most of Earth, this creature is composed of atoms that were forged in earlier generations of stars—in this case, assembled into both its body and brain. We might say that through the thoughts of human beings, the matter in the universe can become aware of itself.
Think about those atoms in your body for a minute. They are merely on loan to you from the lending library of atoms that make up our local corner of the universe. Atoms of many kinds circulate through your body and then leave it—with each breath you inhale and exhale and the food you eat and excrete. Even the atoms that take up more permanent residence in your tissues will not be part of you much longer than you are alive. Ultimately, you will return your atoms to the vast reservoir of Earth, where they will be incorporated into other structures and even other living things in the millennia to come.
This picture of cosmic evolution, of our descent from the stars, has been obtained through the efforts of scientists in many fields over many decades. Some of its details are still tentative and incomplete, but we feel reasonably confident in its broad outlines. It is remarkable how much we have been able to learn in the short time we have had the instruments to probe the physical nature of the universe.
### The Copernican Principle
Our study of astronomy has taught us that we have always been wrong in the past whenever we have claimed that Earth is somehow unique. Galileo, using the newly invented technology of the telescope, showed us that Earth is not the center of the solar system, but merely one of a number of objects orbiting the Sun. Our study of the stars has demonstrated that the Sun itself is a rather undistinguished star, halfway through its long main-sequence stage like so many billions of others. There seems nothing special about our position in the Milky Way Galaxy either, and nothing surprising about our Galaxy’s position in either its own group or its supercluster.
The discovery of planets around other stars confirms our idea that the formation of planets is a natural consequence of the formation of stars. We have identified thousands of exoplanets—planets orbiting around other stars, from huge ones orbiting close to their stars (informally called “hot Jupiters”) down to planets smaller than Earth. A steady stream of exoplanet discoveries is leading to the conclusion that earthlike planets occur frequently—enough that there are likely many billions of “exo-Earths” in our own Milky Way Galaxy alone. From a planetary perspective, Earth-size planets are not unusual.
Philosophers of science sometimes call the idea that there is nothing special about our place in the universe the Copernican principle. Given all of the above, most scientists would be surprised if life were limited to our planet and had started nowhere else. There are billions of stars in our Galaxy old enough for life to have developed on a planet around them, and there are billions of other galaxies as well. Astronomers and biologists have long conjectured that a series of events similar to those on the early Earth probably led to living organisms on many planets around other stars, and possibly even on other planets in our solar system, such as Mars.
The real scientific issue (which we do not currently know the answer to) is whether organic biochemistry is likely or unlikely in the universe at large. Are we a fortunate and exceedingly rare outcome of chemical evolution, or is organic biochemistry a regular part of the chemical evolution of the cosmos? We do not yet know the answer to this question, but data, even an exceedingly small amount (like finding “unrelated to us” living systems on a world like Europa), will help us arrive at it.
### So Where Are They?
If the Copernican principle is applied to life, then biology may be rather common among planets. Taken to its logical limit, the Copernican principle also suggests that intelligent life like us might be common. Intelligence like ours has some very special properties, including an ability to make progress through the application of technology. Organic life around other (older) stars may have started a billion years earlier than we did on Earth, so they may have had a lot more time to develop advanced technology such as sending information, probes, or even life-forms between stars.
Faced with such a prospect, physicist Enrico Fermi asked a question several decades ago that is now called the Fermi paradox: where are they? If life and intelligence are common and have such tremendous capacity for growth, why is there not a network of galactic civilizations whose presence extends even into a “latecomer” planetary system like ours?
Several solutions have been suggested to the Fermi paradox. Perhaps life is common but intelligence (or at least technological civilization) is rare. Perhaps such a network will come about in the future but has not yet had the time to develop. Maybe there are invisible streams of data flowing past us all the time that we are not advanced enough or sensitive enough to detect. Maybe advanced species make it a practice not to interfere with immature, developing consciousness such as our own. Or perhaps civilizations that reach a certain level of technology then self-destruct, meaning there are no other civilizations now existing in our Galaxy. We do not yet know whether any advanced life is out there and, if it is, why we are not aware of it. Still, you might want to keep these issues in mind as you read the rest of this chapter.
### Key Concepts and Summary
Life on Earth is based on the presence of a key unit known as an organic molecule, a molecule that contains carbon, especially complex hydrocarbons. Our solar system formed about 5 billion years ago from a cloud of gas and dust enriched by several generations of heavier element production in stars. Life is made up of chemical combinations of these elements made by stars. The Copernican principle, which suggests that there is nothing special about our place in the universe, implies that if life could develop on Earth, it should be able to develop in other places as well. The Fermi paradox asks why, if life is common, more advanced life-forms have not contacted us. |
# Life in the Universe
## Astrobiology
### Learning Objectives
By the end of this section, you will be able to:
1. Describe the chemical building blocks required for life
2. Describe the molecular systems and processes driving the origin and evolution of life
3. Describe the characteristics of a habitable environment
4. Describe some of the extreme conditions on Earth, and explain how certain organisms have adapted to these conditions
Scientists today take a multidisciplinary approach to studying the origin, evolution, distribution, and ultimate fate of life in the universe; this field of study is known as astrobiology. You may also sometimes hear this field referred to as exobiology or bioastronomy. Astrobiology brings together astronomers, planetary scientists, chemists, geologists, and biologists (among others) to work on the same problems from their various perspectives.
Among the issues that astrobiologists explore are the conditions in which life arose on Earth and the reasons for the extraordinary adaptability of life on our planet. They are also involved in identifying habitable worlds beyond Earth and in trying to understand in practical terms how to look for life on those worlds. Let’s look at some of these issues in more detail.
### The Building Blocks of Life
While no unambiguous evidence for life has yet been found anywhere beyond Earth, life’s chemical building blocks have been detected in a wide range of extraterrestrial environments. Meteorites (which you learned about in Cosmic Samples and the Origin of the Solar System) have been found to contain two kinds of substances whose chemical structures mark them as having an extraterrestrial origin—amino acids and sugars. Amino acids are organic compounds that are the molecular building blocks of proteins. Proteins are key biological molecules that provide the structure and function of the body’s tissues and organs and essentially carry out the “work” of the cell. When we examine the gas and dust around comets, we also find a number of organic molecules—compounds that on Earth are associated with the chemistry of life.
Expanding beyond our solar system, one of the most interesting results of modern radio astronomy has been the discovery of organic molecules in giant clouds of gas and dust between stars. More than 100 different molecules have been identified in these reservoirs of cosmic raw material, including formaldehyde, alcohol, and others we know as important stepping stones in the development of life on Earth. Using radio telescopes and radio spectrometers, astronomers can measure the abundances of various chemicals in these clouds. We find organic molecules most readily in regions where the interstellar dust is most abundant, and it turns out these are precisely the regions where star formation (and probably planet formation) happen most easily ().
Clearly the early Earth itself produced some of the molecular building blocks of life. Since the early 1950s, scientists have tried to duplicate in their laboratories the chemical pathways that led to life on our planet. In a series of experiments known as the Miller-Urey experiments, pioneered by Stanley Miller and Harold Urey at the University of Chicago, biochemists have simulated conditions on early Earth and have been able to produce some of the fundamental building blocks of life, including those that form proteins and other large biological molecules known as nucleic acids (which we will discuss shortly).
Although these experiments produced encouraging results, there are some problems with them. The most interesting chemistry from a biological perspective takes place with hydrogen-rich or reducing gases, such as ammonia and methane. However, the early atmosphere of Earth was probably dominated by carbon dioxide (as Venus’ and Mars’ atmospheres still are today) and may not have contained an abundance of reducing gases comparable to that used in Miller-Urey type experiments. Hydrothermal vents—seafloor systems in which ocean water is superheated and circulated through crustal or mantle rocks before reemerging into the ocean—have also been suggested as potential contributors of organic compounds on the early Earth, and such sources would not require Earth to have an early reducing atmosphere.
Both earthly and extraterrestrial sources may have contributed to Earth’s early supply of organic molecules, although we have more direct evidence for the latter. It is even conceivable that life itself originated elsewhere and was seeded onto our planet—although this, of course, does not solve the problem of how that life originated to begin with.
### The Origin and Early Evolution of Life
The carbon compounds that form the chemical basis of life may be common in the universe, but it is still a giant step from these building blocks to a living cell. Even the simplest molecules of the genes (the basic functional units that carry the genetic, or hereditary, material in a cell) contain millions of molecular units, each arranged in a precise sequence. Furthermore, even the most primitive life required two special capabilities: a means of extracting energy from its environment, and a means of encoding and replicating information in order to make faithful copies of itself. Biologists today can see ways that either of these capabilities might have formed in a natural environment, but we are still a long way from knowing how the two came together in the first life-forms.
We have no solid evidence for the pathway that led to the origin of life on our planet except for whatever early history may be retained in the biochemistry of modern life. Indeed, we have very little direct evidence of what Earth itself was like during its earliest history—our planet is so effective at resurfacing itself through plate tectonics (see the chapter on Earth as a Planet) that very few rocks remain from this early period. In the earlier chapter on Cratered Worlds, you learned that Earth was subjected to a heavy bombardment—a period of large impact events—some 3.8 to 4.1 billion years ago. Large impacts would have been energetic enough to heat-sterilize the surface layers of Earth, so that even if life had begun by this time, it might well have been wiped out.
When the large impacts ceased, the scene was set for a more peaceful environment on our planet. If the oceans of Earth contained accumulated organic material from any of the sources already mentioned, the ingredients were available to make living organisms. We do not understand in any detail the sequence of events that led from molecules to biology, but there is fossil evidence of microbial life in 3.5-billion-year-old rocks, and possible (debated) evidence for life as far back as 3.8 billion years.
Life as we know it employs two main molecular systems: the functional molecules known as proteins, which carry out the chemical work of the cell, and information-containing molecules of DNA (deoxyribonucleic acid) that store information about how to create the cell and its chemical and structural components. The origin of life is sometimes considered a “chicken and egg problem” because, in modern biology, neither of these systems works without the other. It is our proteins that assemble DNA strands in the precise order required to store information, but the proteins are created based on information stored in DNA. Which came first? Some origin of life researchers believe that prebiotic chemistry was based on molecules that could both store information and do the chemical work of the cell. It has been suggested that RNA (ribonucleic acid), a molecule that aids in the flow of genetic information from DNA to proteins, might have served such a purpose. The idea of an early “RNA world” has become increasingly accepted, but a great deal remains to be understood about the origin of life.
Perhaps the most important innovation in the history of biology, apart from the origin of life itself, was the discovery of the process of photosynthesis, the complex sequence of chemical reactions through which some living things can use sunlight to manufacture products that store energy (such as carbohydrates), releasing oxygen as one by-product. Previously, life had to make do with sources of chemical energy available on Earth or delivered from space. But the abundant energy available in sunlight could support a larger and more productive biosphere, as well as some biochemical reactions not previously possible for life. One of these was the production of oxygen (as a waste product) from carbon dioxide, and the increase in atmospheric levels of oxygen about 2.4 billion years ago means that oxygen-producing photosynthesis must have emerged and become globally important by this time. In fact, it is likely that oxygen-producing photosynthesis emerged considerably earlier.
Some forms of chemical evidence contained in ancient rocks, such as the solid, layered rock formations known as stromatolites, are thought to be the fossils of oxygen-producing photosynthetic bacteria in rocks that are almost 3.5 billion years old (). It is generally thought that a simpler form of photosynthesis that does not produce oxygen (and is still used by some bacteria today) probably preceded oxygen-producing photosynthesis, and there is strong fossil evidence that one or the other type of photosynthesis was functioning on Earth at least as far back as 3.4 billion years ago.
The free oxygen produced by photosynthesis began accumulating in our atmosphere about 2.4 billion years ago. The interaction of sunlight with oxygen can produce ozone (which has three atoms of oxygen per molecule, as compared to the two atoms per molecule in the oxygen we breathe), which accumulated in a layer high in Earth’s atmosphere. As it does on Earth today, this ozone provided protection from the Sun’s damaging ultraviolet radiation. This allowed life to colonize the landmasses of our planet instead of remaining only in the ocean.
The rise in oxygen levels was deadly to some microbes because, as a highly reactive chemical, it can irreversibly damage some of the biomolecules that early life had developed in the absence of oxygen. For other microbes, it was a boon: combining oxygen with organic matter or other reduced chemicals generates a lot of energy—you can see this when a log burns, for example—and many forms of life adopted this way of living. This new energy source made possible a great proliferation of organisms, which continued to evolve in an oxygen-rich environment.
The details of that evolution are properly the subject of biology courses, but the process of evolution by natural selection (survival of the fittest) provides a clear explanation for the development of Earth’s remarkable variety of life-forms. It does not, however, directly solve the mystery of life’s earliest beginnings. We hypothesize that life will arise whenever conditions are appropriate, but this hypothesis is just another form of the Copernican principle. We now have the potential to address this hypothesis with observations. If a second example of life is found in our solar system or a nearby star, it would imply that life emerges commonly enough that the universe is likely filled with biology. To make such observations, however, we must first decide where to focus our search.
### Habitable Environments
Among the staggering number of objects in our solar system, Galaxy, and universe, some may have conditions suitable for life, while others do not. Understanding what conditions and features make a habitable environment—an environment capable of hosting life—is important both for understanding how widespread habitable environments may be in the universe and for focusing a search for life beyond Earth. Here, we discuss habitability from the perspective of the life we know. We will explore the basic requirements of life and, in the following section, consider the full range of environmental conditions on Earth where life is found. While we can’t entirely rule out the possibility that other life-forms might have biochemistry based on alternatives to carbon and liquid water, such life “as we don’t know it” is still completely speculative. In our discussion here, we are focusing on habitability for life that is chemically similar to that on Earth.
Life requires a solvent (a liquid in which chemicals can dissolve) that enables the construction of biomolecules and the interactions between them. For life as we know it, that solvent is water, which has a variety of properties that are critical to how our biochemistry works. Water is abundant in the universe, but life requires that water be in liquid form (rather than ice or gas) in order to properly fill its role in biochemistry. That is the case only within a certain range of temperatures and pressures—too high or too low in either variable, and water takes the form of a solid or a gas. Identifying environments where water is present within the appropriate range of temperature and pressure is thus an important first step in identifying habitable environments. Indeed, a “follow the water” strategy has been, and continues to be, a key driver in the exploration of planets both within and beyond our solar system.
Our biochemistry is based on molecules made of carbon, hydrogen, nitrogen, oxygen, phosphorus, and sulfur. Carbon is at the core of organic chemistry. Its ability to form four bonds, both with itself and with the other elements of life, allows for the formation of a vast number of potential molecules on which to base biochemistry. The remaining elements contribute structure and chemical reactivity to our biomolecules, and form the basis of many of the interactions among them. These “biogenic elements,” sometimes referred to with the acronym CHNOPS (carbon, hydrogen, nitrogen, oxygen, phosphorus, and sulfur), are the raw materials from which life is assembled, and an accessible supply of them is a second requirement of habitability.
As we learned in previous chapters on nuclear fusion and the life story of the stars, carbon, nitrogen, oxygen, phosphorus, and sulfur are all formed by fusion within stars and then distributed out into their galaxy as those stars die. But how they are distributed among the planets that form within a new star system, in what form, and how chemical, physical, and geological processes on those planets cycle the elements into structures that are accessible to biology, can have significant impacts on the distribution of life. In Earth’s oceans, for example, the abundance of phytoplankton (simple organisms that are the base of the ocean food chain) in surface waters can vary by a thousand-fold because the supply of nitrogen differs from place to place (). Understanding what processes control the accessibility of elements at all scales is thus a critical part of identifying habitable environments.
With these first two requirements, we have the elemental raw materials of life and a solvent in which to assemble them into the complicated molecules that drive our biochemistry. But carrying out that assembly and maintaining the complicated biochemical machinery of life takes energy. You fulfill your own requirement for energy every time you eat food or take a breath, and you would not live for long if you failed to do either on a regular basis. Life on Earth makes use of two main types of energy: for you, these are the oxygen in the air you breathe and the organic molecules in your food. But life overall can use a much wider array of chemicals and, while all animals require oxygen, many bacteria do not. One of the earliest known life processes, which still operates in some modern microorganisms, combines hydrogen and carbon dioxide to make methane, releasing energy in the process. There are microorganisms that “breathe” metals that would be toxic to us, and even some that breathe in sulfur and breathe out sulfuric acid. Plants and photosynthetic microorganisms have also evolved mechanisms to use the energy in light directly.
Water in the liquid phase, the biogenic elements, and energy are the fundamental requirements for habitability. But are there additional environmental constraints? We consider this in the next section.
### Life in Extreme Conditions
At a chemical level, life consists of many types of molecules that interact with one another to carry out the processes of life. In addition to water, elemental raw materials, and energy, life also needs an environment in which those complicated molecules are stable (don’t break down before they can do their jobs) and their interactions are possible. Your own biochemistry works properly only within a very narrow range of about 10 °C in body temperature and two-tenths of a unit in blood pH (pH is a numerical measure of acidity, or the amount of free hydrogen ions). Beyond those limits, you are in serious danger.
Life overall must also have limits to the conditions in which it can properly work but, as we will see, they are much broader than human limits. The resources that fuel life are distributed across a very wide range of conditions. For example, there is abundant chemical energy to be had in hot springs that are essentially boiling acid (see ). This provides ample incentive for evolution to fill as much of that range with life as is biochemically possible. An organism (usually a microbe) that tolerates or even thrives under conditions that most of the life around us would consider hostile, such as very high or low temperature or acidity, is known as an extremophile (where the suffix -phile means “lover of”). Let’s have a look at some of the conditions that can challenge life and the organisms that have managed to carve out a niche at the far reaches of possibility.
Both high and low temperatures can cause a problem for life. As a large organism, you are able to maintain an almost constant body temperature whether it is colder or warmer in the environment around you. But this is not possible at the tiny size of microorganisms; whatever the temperature in the outside world is also the temperature of the microbe, and its biochemistry must be able to function at that temperature. High temperatures are the enemy of complexity—increasing thermal energy tends to break apart big molecules into smaller and smaller bits, and life needs to stabilize the molecules with stronger bonds and special proteins. But this approach has its limits.
Nevertheless, as noted earlier, high-temperature environments like hot springs and hydrothermal vents often offer abundant sources of chemical energy and therefore drive the evolution of organisms that can tolerate high temperatures (see ); such an organism is called a thermophile. Currently, the high temperature record holder is a methane-producing microorganism that can grow at 122 °C, where the pressure also is so high that water still does not boil. That’s amazing when you think about it. We cook our food—meaning, we alter the chemistry and structure of its biomolecules—by boiling it at a temperature of 100 °C. In fact, food begins to cook at much lower temperatures than this. And yet, there are organisms whose biochemistry remains intact and operates just fine at temperatures 20 degrees higher.
Cold can also be a problem, in part because it slows down metabolism to very low levels, but also because it can cause physical changes in biomolecules. Cell membranes—the molecular envelopes that surround cells and allow their exchange of chemicals with the world outside—are basically made of fatlike molecules. And just as fat congeals when it cools, membranes crystallize, changing how they function in the exchange of materials in and out of the cell. Some cold-adapted cells (called psychrophiles) have changed the chemical composition of their membranes in order to cope with this problem; but again, there are limits. Thus far, the coldest temperature at which any microbe has been shown to reproduce is about –25 ºC.
Conditions that are very acidic or alkaline can also be problematic for life because many of our important molecules, like proteins and DNA, are broken down under such conditions. For example, household drain cleaner, which does its job by breaking down the chemical structure of things like hair clogs, is a very alkaline solution. The most acid-tolerant organisms (acidophiles) are capable of living at pH values near zero—about ten million times more acidic than your blood (). At the other extreme, some alkaliphiles can grow at pH levels of about 13, which is comparable to the pH of household bleach and almost a million times more alkaline than your blood.
High levels of salts in the environment can also cause a problem for life because the salt blocks some cellular functions. Humans recognized this centuries ago and began to salt-cure food to keep it from spoiling—meaning, to keep it from being colonized by microorganisms. Yet some microbes have evolved to grow in water that is saturated in sodium chloride (table salt)—about ten times as salty as seawater ().
Very high pressures can literally squeeze life’s biomolecules, causing them to adopt more compact forms that do not work very well. But we still find life—not just microbial, but even animal life—at the bottoms of our ocean trenches, where pressures are more than 1000 times atmospheric pressure. Many other adaptions to environmental “extremes” are also known. There is even an organism, Deinococcus radiodurans, that can tolerate ionizing radiation (such as that released by radioactive elements) a thousand times more intense than you would be able to withstand. It is also very good at surviving extreme desiccation (drying out) and a variety of metals that would be toxic to humans.
From many such examples, we can conclude that life is capable of tolerating a wide range of environmental extremes—so much so that we have to work hard to identify places where life can’t exist. A few such places are known—for example, the waters of hydrothermal vents at over 300 °C appear too hot to support any life—and finding these places helps define the possibility for life elsewhere. The study of extremophiles over the last few decades has expanded our sense of the range of conditions life can survive and, in doing so, has made many scientists more optimistic about the possibility that life might exist beyond Earth.
### Key Concepts and Summary
The study of life in the universe, including its origin on Earth, is called astrobiology. Life as we know it requires water, certain elemental raw materials (carbon, hydrogen, nitrogen, oxygen, phosphorus, and sulfur), energy, and an environment in which the complex chemistry of life is stable. Carbon-based (or organic) molecules are abundant in space and may also have been produced by processes on Earth. Life appears to have spread around our planet within 400 million years after the end of heavy bombardment, if not sooner. The actual origin of life—the processes leading from chemistry to biology—is not completely understood. Once life took hold, it evolved to use many energy sources, including first a range of different chemistries and later light, and diversified across a range of environmental conditions that humans consider “extreme.” This proliferation of life into so many environmental niches, so relatively soon after our planet became habitable, has served to make many scientists optimistic about the chances that life could exist elsewhere. |
# Life in the Universe
## Searching for Life beyond Earth
### Learning Objectives
By the end of this section, you will be able to:
1. Outline what we have learned from exploration of the environment on Mars
2. Identify where in the solar system life is most likely sustainable and why
3. Describe some key missions and their findings in our search for life beyond our solar system
4. Explain the use of biomarkers in the search for evidence of life beyond our solar system
Astronomers and planetary scientists continue to search for life in the solar system and the universe at large. In this section, we discuss two kinds of searches. First is the direct exploration of planets within our own solar system, especially Mars and some of the icy moons of the outer solar system. Second is the even more difficult task of searching for evidence of life—a biomarker—on planets circling other stars. In the next section, we will examine SETI, the search for extraterrestrial intelligence. As you will see, the approaches taken in these three cases are very different, even though the goal of each is the same: to determine if life on Earth is unique in the universe.
### Life on Mars
The possibility that Mars hosts, or has hosted, life has a rich history dating back to the “canals” that some people claimed to see on the martian surface toward the end of the nineteenth century and the beginning of the twentieth. With the dawn of the space age came the possibility to address this question up close through a progression of missions to Mars that began with the first successful flyby of a robotic spacecraft in 1964 and have led to the deployment of capable rovers, like Curiosity and Perseverance, with instruments to look for organic chemistry.
The earliest missions to Mars provided some hints that liquid water—one of life’s primary requirements—may once have flowed on the surface, and later missions have strengthened this conclusion. The NASA Viking landers, whose purpose was to search directly for evidence of life on Mars, arrived on Mars in 1976. Viking’s onboard instruments found no organic molecules (the stuff of which life is made), and no evidence of biological activity in the martian soils it analyzed.
This result is not particularly surprising because, despite the evidence of flowing liquid water in the past, liquid water on the surface of Mars is generally not stable today. Over much of Mars, temperatures and pressures at the surface are so low that pure water would either freeze or boil away (under very low pressures, water will boil at a much lower temperature than usual). To make matters worse, unlike Earth, Mars does not have a magnetic field and ozone layer to protect the surface from harmful solar ultraviolet radiation and energetic particles. However, Viking’s analyses of the soil said nothing about whether life may have existed in Mars’ distant past, when liquid water was more abundant. We do know that water in the form of ice exists in abundance on Mars, not so deep beneath its surface. Water vapor is also a constituent of the atmosphere of Mars.
Since the visit of Viking, our understanding of Mars has deepened spectacularly. Orbiting spacecraft have provided ever-more detailed images of the surface and detected the presence of minerals that could have formed only in the presence of liquid water. Two bold surface missions, the Mars Exploration Rovers Spirit and Opportunity (2004), followed by the much larger Curiosity Rover (2012), confirmed these remote-sensing data. All three rovers found abundant evidence for a past history of liquid water, revealed not only from the mineralogy of rocks they analyzed, but also from the unique layering of rock formations.
Curiosity has gone a step beyond evidence for water and confirmed the existence of habitable environments on ancient Mars. “Habitable” means not only that liquid water was present, but that life’s requirements for energy and elemental raw materials could also have been met. The strongest evidence of an ancient habitable environment came from analyzing a very fine-grained rock called a mudstone—a rock type that is widespread on Earth but was unknown on Mars until Curiosity found it (see ). The mudstone can tell us a great deal about the wet environments in which they formed. The Perseverance rover is collecting samples of sedimentary rock in a former lakebed, to later return to Earth for laboratory analysis.
Five decades of robotic exploration have allowed us to develop a picture of how Mars evolved through time. Early Mars had epochs of warmer and wetter conditions that would have been conducive to life at the surface. However, Mars eventually lost much of its early atmosphere and the surface water began to dry up. As that happened, the ever-shrinking reservoirs of liquid water on the martian surface became saltier and more acidic, until the surface finally had no significant liquid water and was bathed in harsh solar radiation. The surface thus became uninhabitable, but this might not be the case for the planet overall.
Reservoirs of ice and liquid water could still exist underground, where pressure and temperature conditions make it stable. There is recent evidence to suggest that liquid water (probably very salty water) can occasionally (and briefly) flow on the surface even today. Thus, Mars might even have habitable conditions in the present day, but of a much different sort than we normally think of on Earth.
Our study of Mars reveals a planet with a fascinating history—one that saw its ability to host surface life dwindle billions of years ago, but perhaps allowing life to adapt and survive in favorable environmental niches. Even if life did not survive, we expect that we might find evidence of life if it ever took hold on Mars. If it is there, it is hidden in the crust, and we are still learning how best to decipher that evidence.
### Life in the Outer Solar System
The massive gas and ice giant planets of the outer solar system—Jupiter, Saturn, Uranus, and Neptune—are almost certainly not habitable for life as we know it, but some of their moons might be (see ). Although these worlds in the outer solar system contain abundant water, they receive so little warming sunlight in their distant orbits that it was long believed they would be “geologically dead” balls of hard-frozen ice and rock. But, as we saw in the chapter on Rings, Moons, and Pluto, missions to the outer solar system have found something much more interesting.
Jupiter’s moon Europa revealed itself to the Voyager and Galileo missions as an active world whose icy surface apparently conceals an ocean with a depth of tens to perhaps a hundred kilometers. As the moon orbits Jupiter, the planet’s massive gravity creates tides on Europa—just as our own Moon’s gravity creates our ocean tides—and the friction of all that pushing and pulling generates enough heat to keep the water in liquid form (). Similar tides act upon other moons if they orbit close to the planet. Scientists now think that six or more of the outer solar system’s icy moons may harbor liquid water oceans for the same reason. Among these, Europa and Enceladus, a moon of Saturn, have thus far been of greatest interest to astrobiologists.
Europa has probably had an ocean for most or all of its history, but habitability requires more than just liquid water. Life also requires energy, and because sunlight does not penetrate below the kilometers-thick ice crust of Europa, this would have to be chemical energy. One of Europa’s key attributes from an astrobiology perspective is that its ocean is most likely in direct contact with an underlying rocky mantle, and the interaction of water and rocks—especially at high temperatures, as within Earth’s hydrothermal vent systems—yields a reducing chemistry (where molecules tend to give up electrons readily) that is like one half of a chemical battery. To complete the battery and provide energy that could be used by life requires that an oxidizing chemistry (where molecules tend to accept electrons readily) also be available. On Earth, when chemically reducing vent fluids meet oxygen-containing seawater, the energy that becomes available often supports thriving communities of microorganisms and animals on the sea floor, far from the light of the Sun.
The Galileo mission found that Europa’s icy surface does contain an abundance of oxidizing chemicals. This means that availability of energy to support life depends very much on whether the chemistry of the surface and the ocean can mix, despite the kilometers of ice in between. That Europa’s ice crust appears geologically “young” (only tens of millions of years old, on average) and that it is active makes it tantalizing to think that such mixing might indeed occur. Understanding whether and how much exchange occurs between the surface and ocean of Europa will be a key science objective of future missions to Europa, and a major step forward in understanding whether this moon could be a cradle of life.
In 2005, the Cassini mission performed a close flyby of a small (500-kilometer diameter) moon of Saturn, Enceladus (), and made a remarkable discovery. Plumes of gas and icy material were venting from the moon’s south polar region at a collective rate of about 250 kilograms of material per second. Several observations, including the discovery of salts associated with the icy material, suggest that their source is a liquid water ocean beneath tens of kilometers of ice. Although it remains to be shown definitively whether the ocean is local or global, transient or long-lived, it does appear to be in contact, and to have reacted, with a rocky interior. As on Europa, this is probably a necessary—though not sufficient—condition for habitability. What makes Enceladus so enticing to planetary scientists, though, are those plumes of material that seem to come directly from its ocean: samples of the interior are there for the taking by any spacecraft sent flying through. For a future mission, such samples could yield evidence not only of whether Enceladus is habitable but, indeed, of whether it is home to life.
Saturn’s big moon Titan is very different from both Enceladus and Europa (see ). Although it may host a liquid water layer deep within its interior, it is the surface of Titan and its unusual chemistry that makes this moon such an interesting place. Titan’s thick atmosphere—the only one among moons in the solar system—is composed mostly of nitrogen but also of about 5% methane. In the upper atmosphere, the Sun’s ultraviolet light breaks apart and recombines these molecules into more complex organic compounds that are collectively known as tholins. The tholins shroud Titan in an orange haze, and imagery from Cassini and from the Huygens probe that descended to Titan’s surface show that heavier particles appear to accumulate on the surface, even forming “dunes” that are cut and sculpted by flows of liquid hydrocarbons (such as liquid methane). Some scientists see this organic chemical factory as a natural laboratory that may yield some clues about the solar system’s early chemistry—perhaps even chemistry that could support the origin of life.
### Habitable Planets Orbiting Other Stars
One of the most exciting developments in astronomy during the last two decades is the ability to detect exoplanets—planets orbiting other stars. As we saw in the chapter on the formation of stars and planets, since the discovery of the first exoplanet in 1995, there have been thousands of confirmed detections, and many more candidates that are not yet confirmed. These include several dozen possibly habitable exoplanets. Such numbers finally allow us to make some predictions about exoplanets and their life-hosting potential. The majority of stars with mass similar to the Sun appear to host at least one planet, with multi-planet systems like our own not unusual. How many of these planets might be habitable, and how could we search for life there?
In evaluating the prospect for life in distant planetary systems, astrobiologists have developed the idea of a habitable zone—a region around a star where suitable conditions might exist for life. This concept focuses on life’s requirement for liquid water, and the habitable zone is generally thought of as the range of distances from the central star in which water could be present in liquid form at a planet’s surface. In our own solar system, for example, Venus has surface temperatures far above the boiling point of water and Mars has surface temperatures that are almost always below the freezing point of water. Earth, which orbits between the two, has a surface temperature that is “just right” to keep much of our surface water in liquid form.
Whether surface temperatures are suitable for maintaining liquid water depends on a planet’s “radiation budget” —how much starlight energy it absorbs and retains—and whether or how processes like winds and ocean circulation distribute that energy around the planet. How much stellar energy a planet receives, in turn, depends on how much and what sort of light the star emits and how far the planet is from that star,The amount of starlight received per unit area of a planet’s surface (per square meter, for example) decreases with the square of the distance from the star. Thus, when the orbital distance doubles, the illumination decreases by 4 times (2 how much it reflects back to space, and how effectively the planet’s atmosphere can retain heat through the greenhouse effect (see Earth as a Planet). All of these can vary substantially, and all matter a lot. For example, Venus receives about twice as much starlight per square meter as Earth but, because of its dense cloud cover, also reflects about twice as much of that light back to space as Earth does. Mars receives only about half as much starlight as Earth, but also reflects only about half as much. Thus, despite their differing orbital distances, the three planets actually absorb comparable amounts of sunlight energy. Why, then, are they so dramatically different?
As we learned in several chapters about the planets, some of the gases that make up planetary atmospheres are very effective at trapping infrared light—the very range of wavelengths at which planets radiate thermal energy back out to space—and this can raise the planet’s surface temperature quite a bit more than would otherwise be the case. This is the same “greenhouse effect” that is of such concern for global warming on our planet. Earth’s natural greenhouse effect, which comes mostly from water vapor and carbon dioxide in the atmosphere, raises our average surface temperature by about 33 °C over the value it would have if there were no greenhouse gases in the atmosphere. Mars has a very thin atmosphere and thus very little greenhouse warming (about 2 °C worth), while Venus has a massive carbon dioxide atmosphere that creates very strong greenhouse warming (about 510 °C worth). These worlds are much colder and much hotter, respectively, than Earth would be if moved into their orbits. Thus, we must consider the nature of any atmosphere as well as the distance from the star in evaluating the range of habitability.
Of course, as we have learned, stars also vary widely in the intensity and spectrum (the wavelengths of light) they emit. Some are much brighter and hotter (bluer), while others are significantly dimmer and cooler (redder), and the distance of the habitable zone varies accordingly. For example, the habitable zone around M-dwarf stars is 3 to 30 times closer in than for G-type (Sun-like) stars. There is a lot of interest in whether such systems could be habitable because—although they have some potential downsides for supporting life—M-dwarf stars are by far the most numerous and long-lived in our Galaxy.
The luminosity of stars like the Sun also increases over their main-sequence lifetime, and this means that the habitable zone migrates outward as a star system ages. Calculations indicate that the power output of the Sun, for example, has increased by at least 30% over the past 4 billion years. Thus, Venus was once within the habitable zone, while Earth received a level of solar energy insufficient to keep the modern Earth (with its present atmosphere) from freezing over. In spite of this, there is plenty of geological evidence that liquid water was present on Earth’s surface billions of years ago. The phenomenon of increasing stellar output and an outwardly migrating habitable zone has led to another concept: the continuously habitable zone is defined by the range of orbits that would remain within the habitable zone during the entire lifetime of the star system. As you might imagine, the continuously habitable zone is quite a bit narrower than the habitable zone is at any one time in a star’s history. The nearest star to the Sun, Proxima Centauri, is an M star that has a planet with a mass of at least 1.3 Earth masses, taking about 11 days to orbit. At the distance for such a quick orbit (0.05 AU), the planet may be in the habitable zone of its star, although whether conditions on such a planet near such a star are hospitable for life is a matter of great scientific debate.
Even when planets orbit within the habitable zone of their star, it is no guarantee that they are habitable. For example, Venus today has virtually no water, so even if it were suddenly moved to a “just right” orbit within the habitable zone, a critical requirement for life would still be lacking.
Scientists are working to understand all the factors that define the habitable zone and the habitability of planets orbiting within that zone because this will be our primary guide in targeting exoplanets on which to seek evidence of life. As technology for detecting exoplanets has advanced, so too has our potential to find Earth-size worlds within the habitable zones of their parent stars. Of the confirmed or candidate exoplanets known at the time of writing, nearly 300 are considered to be orbiting within the habitable zone and more than 10% of those are roughly Earth-size.
### Biomarkers
Our observations suggest increasingly that Earth-size planets orbiting within the habitable zone may be common in the Galaxy—current estimates suggest that more than 40% of stars have at least one. But are any of them inhabited? With no ability to send probes there to sample, we will have to derive the answer from the light and other radiation that come to us from these faraway systems (). What types of observations might constitute good evidence for life?
To be sure, we need to look for robust biospheres (atmospheres, surfaces, and/or oceans) capable of creating planet-scale change. Earth hosts such a biosphere: the composition of our atmosphere and the spectrum of light reflected from our planet differ considerably from what would be expected in the absence of life. Presently, Earth is the only body in our solar system for which this is true, despite the possibility that habitable conditions might prevail in the subsurface of Mars or inside the icy moons of the outer solar system. Even if life exists on these worlds, it is very unlikely that it could yield planet-scale changes that are both telescopically observable and clearly biological in origin.
What makes Earth “special” among the potentially habitable worlds in our solar system is that it has a photosynthetic biosphere. This requires the presence of liquid water at the planet’s surface, where organisms have direct access to sunlight. The habitable zone concept focuses on this requirement for surface liquid water—even though we know that subsurface habitable conditions could prevail at more distant orbits—exactly because these worlds would have biospheres detectable at a distance.
Indeed, plants and photosynthetic microorganisms are so abundant at Earth’s surface that they affect the color of the light that our planet reflects out into space—we appear greener in visible wavelengths and reflect more near-infrared light than we otherwise would. Moreover, photosynthesis has changed Earth’s atmosphere at a large scale—more than 20% of our atmosphere comes from the photosynthetic waste product, oxygen. Such high levels would be very difficult to explain in the absence of life. Other gases, such as nitrous oxide and methane, when found simultaneously with oxygen, have also been suggested as possible indicators of life. When sufficiently abundant in an atmosphere, such gases could be detected by their effect on the spectrum of light that a planet emits or reflects. (As we saw in the chapter on exoplanets, astronomers today are beginning to have the capability of detecting the spectrum of the atmospheres of some planets orbiting other stars.)
Astronomers have thus concluded that, at least initially, a search for life outside our solar system should focus on exoplanets that are as much like Earth as possible—roughly Earth-size planets orbiting in the habitable zone—and look for the presence of gases in the atmosphere or colors in the visible spectrum that are hard to explain except by the presence of biology. Simple, right? In reality, the search for exoplanet life poses many challenges.
As you might imagine, this task is more challenging for planetary systems that are farther away and, in practical terms, this will limit our search to the habitable worlds closest to our own. Should we become limited to a very small number of nearby targets, it will also become important to consider the habitability of planets orbiting the M-dwarfs we discussed above.
If we manage to separate out a clean signal from the planet and find some features in the light spectrum that might be indicative of life, we will need to work hard to think of any nonbiological process that might account for them. “Life is the hypothesis of last resort,” noted astronomer Carl Sagan—meaning that we must exhaust all other explanations for what we see before claiming to have found evidence of extraterrestrial biology. This requires some understanding of what processes might operate on worlds that we will know relatively little about; what we find on Earth can serve as a guide but also has potential to lead us astray ().
Recall, for example, that it would be extremely difficult to account for the abundance of oxygen in Earth’s atmosphere except by the presence of biology. But it has been hypothesized that oxygen could build up to substantial levels on planets orbiting M-dwarf stars through the action of ultraviolet radiation on the atmosphere—with no need for biology. It will be critical to understand where such “false positives” might exist in carrying out our search.
We need to understand that we might not be able to detect biospheres even if they exist. Life has flourished on Earth for perhaps 3.5 billion years, but the atmospheric “biosignatures” that, today, would supply good evidence for life to distant astronomers have not been present for all of that time. Oxygen, for example, accumulated to detectable levels in our atmosphere only a little over 2 billion years ago. Could life on Earth have been detected before that time? Scientists are working actively to understand what additional features might have provided evidence of life on Earth during that early history, and thereby help our chances of finding life beyond.
### Key Concepts and Summary
The search for life beyond Earth offers several intriguing targets. Mars appears to have been more similar to Earth during its early history than it is now, with evidence for liquid water on its ancient surface and perhaps even now below ground. The accessibility of the martian surface to our spacecraft offers the exciting potential to directly examine ancient and modern samples for evidence of life. In the outer solar system, the moons Europa and Enceladus likely host vast sub-ice oceans that may directly contact the underlying rocks—a good start in providing habitable conditions—while Titan offers a fascinating laboratory for understanding the sorts of organic chemistry that might ultimately provide materials for life. And the last decade of research on exoplanets leads us to believe that there may be billions of habitable planets in the Milky Way Galaxy. Study of these worlds offers the potential to find biomarkers indicating the presence of life. |
# Life in the Universe
## The Search for Extraterrestrial Intelligence
### Learning Objectives
By the end of this section, you will be able to:
1. Explain why spaceships from extraterrestrial civilizations are unlikely to have visited us
2. List efforts by humankind to communicate with other civilizations via messages on spacecraft
3. Understand the various SETI programs scientists are undertaking
Given all the developments discussed in this chapter, it seems likely that life could have developed on many planets around other stars. Even if that life is microbial, we saw that we may soon have ways to search for chemical biosignatures. This search is of fundamental importance for understanding biology, but it does not answer the question, “Are we alone?” that we raised at the beginning of this chapter. When we ask this question, many people think of other intelligent creatures, perhaps beings that have developed technology similar to our own. If any intelligent, technical civilizations have arisen, as has happened on Earth in the most recent blink of cosmic time, how could we make contact with them?
This problem is similar to making contact with people who live in a remote part of Earth. If students in the United States want to converse with students in Australia, for example, they have two choices. Either one group gets on an airplane and travels to meet the other, or they communicate by sending a message remotely. Given how expensive airline tickets are, most students would probably select the message route.
In the same way, if we want to get in touch with intelligent life around other stars, we can travel, or we can try to exchange messages. Because of the great distances involved, interstellar space travel would be very slow and prohibitively expensive. The fastest spacecraft the human species has built so far would take almost 80,000 years to get to the nearest star. While we could certainly design a faster craft, the more quickly we require it to travel, the greater the energy cost involved. To reach neighboring stars in less than a human life span, we would have to travel close to the speed of light. In that case, however, the expense would become truly astronomical.
### Interstellar Travel
Bernard Oliver, an engineer with an abiding interest in life elsewhere, made a revealing calculation about the costs of rapid interstellar space travel. Since we do not know what sort of technology we (or other civilizations) might someday develop, Oliver considered a trip to the nearest star (and back again) in a spaceship with a “perfect engine”—one that would convert its fuel into energy with 100% efficiency. Even with a perfect engine, the energy cost of a single round-trip journey at 70% the speed of light turns out to be equivalent to several hundred thousand years’ worth of total U.S. electrical energy consumption. The cost of such travel is literally out of this world.
This is one reason astronomers are so skeptical about claims that UFOs are spaceships from extraterrestrial civilizations. Given the distance and energy expense involved, it seems unlikely that the dozens of UFOs (and even UFO abductions) claimed each year could be visitors from other stars so fascinated by Earth civilization that they are willing to expend fantastically large amounts of energy or time to reach us. Nor does it seem credible that these visitors have made this long and expensive journey and then systematically avoided contacting our governments or political and intellectual leaders.
Not every UFO report has been explained (in many cases, the observations are sketchy or contradictory). But investigation almost always converts them to IFOs (identified flying objects) or NFOs (not-at-all flying objects). While some are hoaxes, others are natural phenomena, such as bright planets, ball lightning, fireballs (bright meteors), or even flocks of birds that landed in an oil slick to make their bellies reflective. Still others are human craft, such as private planes with some lights missing, or secret military aircraft. It is also interesting that the group of people who most avidly look at the night sky, the amateur astronomers, have never reported UFO sightings. Further, not a single UFO has ever left behind any physical evidence that can be tested in a laboratory and shown to be of nonterrestrial origin.
Another common aspect of belief that aliens are visiting Earth comes from people who have difficulty accepting human accomplishments. There are many books and TV shows, for example, that assert that humans could not have built the great pyramids of Egypt, and therefore they must have been built by aliens. The huge statues (called Moai) on Easter Island are also sometimes claimed to have been built by aliens. Some people even think that the accomplishments of space exploration today are based on alien technology.
However, the evidence from archaeology and history is clear: ancient monuments were built by ancient people, whose brains and ingenuity were every bit as capable as ours are today, even if they didn’t have electronic textbooks like you do.
### Messages on Spacecraft
While space travel by living creatures seems very difficult, robot probes can travel over long distances and over long periods of time. Five spacecraft—two Pioneers, two Voyagers, and New Horizons—are now leaving the solar system. At their coasting speeds, they will take hundreds of thousands or millions of years to get anywhere close to another star. On the other hand, they were the first products of human technology to go beyond our home system, so we wanted to put messages on board to show where they came from.
Each Pioneer carries a plaque with a pictorial message engraved on a gold-anodized aluminum plate (). The Voyagers, launched in 1977, have audio and video records attached, which allowed the inclusion of over 100 photographs and a selection of music from around the world. Given the enormous space between stars in our section of the Galaxy, it is very unlikely that these messages will ever be received by anyone. They are more like a note in a bottle thrown into the sea by a shipwrecked sailor, with no realistic expectation of its being found soon but a slim hope that perhaps someday, somehow, someone will know of the sender’s fate.
### Communicating with the Stars
If direct visits among stars are unlikely, we must turn to the alternative for making contact: exchanging messages. Here the news is a lot better. We already use a messenger—light or, more generally, electromagnetic waves—that moves through space at the fastest speed in the universe. Traveling at 300,000 kilometers per second, light reaches the nearest star in only 4 years and does so at a tiny fraction of the cost of sending material objects. These advantages are so clear and obvious that we assume they will occur to any other species of intelligent beings that develop technology.
However, we have access to a wide spectrum of electromagnetic radiation, ranging from the longest-wavelength radio waves to the shortest-wavelength gamma rays. Which would be the best for interstellar communication? It would not be smart to select a wavelength that is easily absorbed by interstellar gas and dust, or one that is unlikely to penetrate the atmosphere of a planet like ours. Nor would we want to pick a wavelength that has lots of competition for attention in our neighborhood.
One final criterion makes the selection easier: we want the radiation to be inexpensive enough to produce in large quantities. When we consider all these requirements, radio waves turn out to be the best answer. Being the lowest-frequency (and lowest-energy) band of the spectrum, they are not very expensive to produce, and we already use them extensively for communications on Earth. They are not significantly absorbed by interstellar dust and gas. With some exceptions, they easily pass through Earth’s atmosphere and through the atmospheres of the other planets we are acquainted with.
### The Cosmic Haystack
Having made the decision that radio is the most likely means of communication among intelligent civilizations, we still have many questions and a daunting task ahead of us. Shall we send a message, or try to receive one? Obviously, if every civilization decides to receive only, then no one will be sending, and everyone will be disappointed. On the other hand, it may be appropriate for us to begin by listening, since we are likely to be among the most primitive civilizations in the Galaxy who are interested in exchanging messages.
We do not make this statement to insult the human species (which, with certain exceptions, we are rather fond of). Instead, we base it on the fact that humans have had the ability to receive (or send) a radio message across interstellar distances for only a few decades. Compared to the ages of the stars and the Galaxy, this is a mere instant. If there are civilizations out there that are ahead of us in development by even a short time (in the cosmic sense), they are likely to have a technology head start of many, many years.
In other words, we, who have just started, may well be the “youngest” species in the Galaxy with this capability (see the discussion in ). Just as the youngest members of a community are often told to be quiet and listen to their elders for a while before they say something foolish, so may we want to begin our exercise in extraterrestrial communication by listening.
Even restricting our activities to listening, however, leaves us with an array of challenging questions. For example, if an extraterrestrial civilization’s signal is too weak to be detected by our present-day radio telescopes, we will not detect them. In addition, it would be very expensive for an extraterrestrial civilization to broadcast on a huge number of channels. Most likely, they select one or a few channels for their particular message. Communicating on a narrow band of channels also helps distinguish an artificial message from the radio static that comes from natural cosmic processes. But the radio band contains an astronomically large number of possible channels. How can we know in advance which one they have selected, and how they have coded their message into the signal?
summarizes these and other factors that scientists must grapple with when trying to tune in to radio messages from distant civilizations. Because their success depends on either guessing right about so many factors or searching through all the possibilities for each factor, some scientists have compared their quest to looking for a needle in a haystack. Thus, they like to say that the list of factors in defines the cosmic haystack problem.
### Radio Searches
Although the cosmic haystack problem seems daunting, many other research problems in astronomy also require a large investment of time, equipment, and patient effort. And, of course, if we don’t search, we’re sure not to find anything.
The very first search was conducted by astronomer Frank Drake in 1960, using the 85-foot antenna at the National Radio Astronomy Observatory (). Called Project Ozma, after the queen of the exotic Land of Oz in the children’s stories of L. Frank Baum, his experiment involved looking at about 7200 channels and two nearby stars over a period of 200 hours. Although he found nothing, Drake demonstrated that we had the technology to do such a search, and set the stage for the more sophisticated projects that followed.
Receivers are constantly improving, and the sensitivity of SETI programs—SETI stands for the search for extraterrestrial intelligence—is advancing rapidly. Equally important, modern electronics and software allow simultaneous searches on millions of frequencies (channels). If we can thus cover a broad frequency range, the cosmic haystack problem of guessing the right frequency largely goes away. One powerful telescope array (funded with an initial contribution from Microsoft founder Paul Allen) that is built for SETI searches is the Allen Telescope in Northern California. Other radio telescopes being used for such searches have included the giant Arecibo radio dish in Puerto Rico (which, sadly, collapsed due to storm damage in late 2020), the recently completed, and even larger, FAST dish in China, and the Green Bank Telescope in West Virginia, which is the largest steerable radio telescope in the world.
In 2015, Silicon Valley investor and philanthropist Yuri Milner donated 100 million dollars to the University of California, Berkeley, to enhance the SETI endeavor for ten years. The project, called Breakthrough: Listen, is enlisting more telescopes around the world in the search and is developing sophisticated artificial intelligence programs to scour the incoming signals for intelligent messages. The aim is to search more stars and more channels than any SETI project so far.
What kind of signals do we hope to pick up? We on Earth are inadvertently sending out a flood of radio signals, dominated by military radar systems. This is a kind of leakage signal, similar to the wasted light energy that is beamed upward by poorly designed streetlights and advertising signs. Could we detect a similar leakage of radio signals from another civilization? The answer is just barely, but only for the nearest stars. For the most part, therefore, current radio SETI searches are looking for beacons, assuming that civilizations might be intentionally drawing attention to themselves or perhaps sending a message to another world or outpost that lies in our direction. Our prospects for success depend on how often civilizations arise, how long they last, and how patient they are about broadcasting their locations to the cosmos.
### SETI outside the Radio Realm
For the reasons discussed above, most SETI programs search for signals at radio wavelengths. But in science, if there are other approaches to answering an unsolved question, we don’t want to neglect them. So astronomers have been thinking about other ways we could pick up evidence for the existence of technologically advanced civilizations.
Recently, technology has allowed astronomers to expand the search into the domain of visible light. You might think that it would be hopeless to try to detect a flash of visible light from a planet given the brilliance of the star it orbits. This is why we usually cannot measure the reflected light of planets around other stars. The feeble light of the planet is simply swamped by the “big light” in the neighborhood. So another civilization would need a mighty strong beacon to compete with their star.
However, in recent years, human engineers have learned how to make flashes of light brighter than the Sun. The trick is to “turn on” the light for a very brief time, so that the costs are manageable. But ultra-bright, ultra-short laser pulses (operating for periods of a billionth of a second) can pack a lot of energy and can be coded to carry a message. We also have the technology to detect such short pulses—not with human senses, but with special detectors that can be “tuned” to hunt automatically for such short bursts of light from nearby stars.
Why would any civilization try to outshine its own star in this way? It turns out that the cost of sending an ultra-short laser pulse in the direction of a few promising stars can be less than the cost of sweeping a continuous radio message across the whole sky. Or perhaps they, too, have a special fondness for light messages because one of their senses evolved using light. Several programs are now experimenting with “optical SETI” searches, which can be done with only a modest telescope. (The term optical here means using visible light.)
If we let our imaginations expand, we might think of other for technosignatures—signs of technology from other civilizations. For example, what if a truly advanced civilization should decide to (or need to) renovate its planetary system to maximize the area for life? It could do so by breaking apart some planets or moons and building a ring of solid material that surrounds or encloses the star and intercepts some or all of its light. This huge artificial ring or sphere might glow very brightly at infrared wavelengths, as the starlight it receives is eventually converted to heat and re-radiated into space. That infrared radiation could be detected by our instruments, and searches for such infrared sources are also underway ().
### Should We Transmit in Addition to Listening?
Our planet has some leakage of radio waves into space, from FM radio, television, military radars, and communication between Earth and our orbiting spacecraft. However, such leakage radiation is still quite weak, and therefore difficult to detect at the distances of the stars, at least with the radio technology we have. So at the present time our attempts to communicate with other civilizations that may be out there mostly involve trying to receive messages, but not sending any ourselves.
Some scientists, however, think that it is inconsistent to search for beacons from other civilizations without announcing our presence in a similar way. (We discussed earlier the problem that if every other civilization confined itself to listening, no one would ever get in touch.) So, should we be making regular attempts at sending easily decoded messages into space? Some scientists warn that our civilization is too immature and defenseless to announce ourselves at this early point in our development. The decision whether to transmit or not turns out to be an interesting reflection of how we feel about ourselves and our place in the universe.
Discussions of transmission also raise the question of who should speak for planet Earth. Today, anyone and everyone can broadcast radio signals, and many businesses, religious groups, and governments do. It would be a modest step for the same organizations to use or build large radio telescopes and begin intentional transmissions that are much stronger than the signals that leak from Earth today. And if we intercept a signal from an alien civilization, then the issue arises whether to reply.
Who should make the decision about whether, when, and how humanity announces itself to the cosmos? Is there freedom of speech when it comes to sending radio messages to other civilizations? Do all the nations of Earth have to agree before we send a signal strong enough that it has a serious chance of being received at the distances of the stars? How our species reaches a decision about these kinds of questions may well be a test of whether or not there is intelligent life on Earth.
### Conclusion
Whether or not we ultimately turn out to be the only intelligent species in our part of the Galaxy, our exploration of the cosmos will surely continue. An important part of that exploration will still be the search for biomarkers from inhabited planets that have not produced technological creatures that send out radio signals. After all, creatures like butterflies and dolphins may never build radio antennas, but we are happy to share our planet with them and would be delighted to find their counterparts on other worlds.
Whether or not life exists elsewhere is just one of the unsolved problems in astronomy that we have discussed in this book. A humble acknowledgment of how much we have left to learn about the universe is one of the fundamental hallmarks of science. This should not, however, prevent us from feeling exhilarated about how much we have already managed to discover, and feeling curious about what else we might find out in the years to come.
Our progress report on the ideas of astronomy ends here, but we hope that your interest in the universe does not. We hope you will keep up with developments in astronomy through media and online, or by going to an occasional public lecture by a local scientist. Who, after all, can even guess all the amazing things that future research projects will reveal about both the universe and our connection with it?
### Key Concepts and Summary
Some astronomers are engaged in the search for extraterrestrial intelligent life (SETI). Because other planetary systems are so far away, traveling to the stars is either very slow or extremely expensive (in terms of energy required). Despite many UFO reports and tremendous media publicity, there is no evidence that any of these are related to extraterrestrial visits. Scientists have determined that the best way to communicate with any intelligent civilizations out there is by using electromagnetic waves, and radio waves seem best suited to the task. So far, they have only begun to comb the many different possible stars, frequencies, signal types, and other factors that make up what we call the cosmic haystack problem. Some astronomers are also undertaking searches for brief, bright pulses of visible light and infrared signatures of huge construction projects by advanced civilizations. If we do find a signal someday, deciding whether to answer and what to answer may be two of the greatest challenges humanity will face.
### For Further Exploration
### Articles
### Astrobiology
Chyba, C. “The New Search for Life in the Universe.” Astronomy (May 2010): 34. An overview of astrobiology and the search for life out there in general, with a brief discussion of the search for intelligence.
Dorminey, B. “A New Way to Search for Life in Space.” Astronomy (June 2014): 44. Finding evidence of photosynthesis on other worlds.
McKay, C., & Garcia, V. “How to Search for Life on Mars.” Scientific American (June 2014): 44–49. Experiments future probes could perform.
Reed, N. “Why We Haven’t Found Another Earth Yet.” Astronomy (February 2016): 25. On the search for smaller earthlike planets in their star’s habitable zones, and where we stand.
Shapiro, R. “A Simpler Origin of Life.” Scientific American (June 2007): 46. New ideas about what kind of molecules formed first so life could begin.
Simpson, S. “Questioning the Oldest Signs of Life.” Scientific American (April 2003): 70. On the difficulty of interpreting biosignatures in rocks and the implications for the search for life on other worlds.
### SETI
Chandler, D. “The New Search for Alien Intelligence.” Astronomy (September 2013): 28. Review of various ways of finding other civilizations out there, not just radio wave searches.
Crawford, I. “Where Are They?” Scientific American (July 2000): 38. On the Fermi paradox and its resolutions, and on galactic colonization models.
Folger, T. “Contact: The Day After.” Scientific American (January 2011): 40–45. Journalist reports on efforts to prepare for ET signals; protocols and plans for interpreting messages; and discussions of active SETI.
Kuhn, J., et al. “How to Find ET with Infrared Light.” Astronomy (June 2013): 30. On tracking alien civilizations by the heat they put out.
Lubick, N. “An Ear to the Stars.” Scientific American (November 2002): 42. Profile of SETI researcher Jill Tarter.
Nadis, S. “How Many Civilizations Lurk in the Cosmos?” Astronomy (April 2010): 24. New estimates for the terms in the Drake equation.
Shostak, S. “Closing in on E.T.” Sky & Telescope (November 2010): 22. Nice summary of current and proposed efforts to search for intelligent life out there.
### Websites
### Astrobiology
Astrobiology Web: http://astrobiology.com/. A news site with good information and lots of material.
Exploring Life’s Origins: http://exploringorigins.org/index.html. A website for the Exploring Origins Project, part of the multimedia exhibit of the Boston Museum of Science. Explore the origin of life on Earth with an interactive timeline, gain a deeper knowledge of the role of RNA, “build” a cell, and explore links to learn more about astrobiology and other related information.
History of Astrobiology: https://astrobiology.nasa.gov/about/history-of-astrobiology/. By Marc Kaufman, on the NASA Astrobiology site.
Life, Here and Beyond: https://astrobiology.nasa.gov/about/. By Marc Kaufman, on the NASA Astrobiology site.
### SETI
Berkeley SETI Research Center: https://seti.berkeley.edu/. The University of California group has received a $100 million grant from a Russian-American billionaire to begin the Breakthrough: Listen project, a major step forward in the number of stars and number of radio channels being searched.
Fermi Paradox: https://www.seti.org/fermi-paradox-0. If the Galaxy is teeming with advanced intelligent life, physicist Fermi asked, why is no one visiting us? This is an introduction; the much longer Wikipedia page on this topic (https://en.wikipedia.org/wiki/Fermi_paradox) has more detailed ideas.
Planetary Society: http://www.planetary.org/explore/projects/seti/. This advocacy group for exploration has several pages devoted to the search for life.
Reading list: http://bit.ly/ufoskeptic. If you would like to see the perspective of scientists and other skeptical investigators on UFO controversies, check out this reading list.
SETI Institute: http://www.seti.org. A key organization in the search for life in the universe; the institute’s website is full of information and videos about both astrobiology and SETI.
SETI: http://www.skyandtelescope.com/tag/seti/. Sky & Telescope magazine offers good articles on this topic.
### Videos
### Astrobiology
Copernicus Complex: Are We Special in the Cosmos?: https://www.youtube.com/watch?v=ERp0AHYRm_Q. A video of a popular-level talk by Caleb Scharf of Columbia University (1:18:54).
Life at the Edge: Life in Extreme Environments on Earth and the Search for Life in the Universe: https://www.youtube.com/watch?v=91JQmTn0SF0. A video of a 2009 nontechnical lecture by Lynn Rothschild of NASA Ames Research Center (1:31:21).
Saturn’s Moon Titan: A World with Rivers, Lakes, and Possibly Even Life: https://www.youtube.com/watch?v=bbkTJeHoOKY. A video of a 2011 talk by Chris McKay of NASA Ames Research Center (1:23:33).
### SETI
Allen Telescope Array: The Newest Pitchfork for Exploring the Cosmic Haystack: https://www.youtube.com/watch?v=aqsI1HZCgUM. A 2013 popular-level lecture by Jill Tarter of the SETI Institute (1:45:55).
Search for Extra-Terrestrial Intelligence: Necessarily a Long-Term Strategy: http://www.longnow.org/seminars/02004/jul/09/the-search-for-extra-terrestrial-intelligence-necessarily-a-long-term-strategy/. 2004 talk by Jill Tarter at the Long Now Foundation (1:21:13).
The Search for Extra-Terrestrial Life with New Generation Technology: https://www.youtube.com/watch?v=R1ndk08vZqM. A briefing in 2020 with Jill Tarter, Andrew Siemion, and Victoria Meadows on how scientists are currently searching for life, including intelligent life.
Search for Intelligent Life Among the Stars: New Strategies: https://www.youtube.com/watch?v=m9WxW2ktcKU. A 2010 nontechnical talk by Seth Shostak of the SETI Institute (1:29:58).
The Breakthrough: Listen Initiative—Our Boldest Effort to Answer our Oldest Question: https://www.youtube.com/watch?v=vQ2sKwwhRgI. A talk by Andrew Siemion at Harvard, with some nontechnical and some more technical sections.
### Collaborative Group Activities
1. If one of the rocks from Mars examined by a future mission to the red planet does turn out to have unambiguous signs of ancient life that formed on Mars, what does your group think would be the implications of such a discovery for science and for our view of life elsewhere? Would such a discovery have any long-term effects on your own thinking?
2. Suppose we receive a message from an intelligent civilization around another star. What does your group think the implications of this discovery would be? How would your own thinking or personal philosophy be affected by such a discovery?
3. A radio message has been received from a civilization around a star 40 light-years away, which contains (in pictures) quite a bit of information about the beings that sent the message. The president of the United States has appointed your group a high-level commission to advise whether humanity should answer the message (which was not particularly directed at us, but comes from a beacon that, like a lighthouse, sweeps out a circle in space). How would you advise the president? Does your group agree on your answer or do you also have a minority view to present?
4. If there is no evidence that UFOs are extraterrestrial visitors, why does your group think that television shows, newspapers, and movies spend so much time and effort publicizing the point of view that UFOs are craft from other worlds? Make a list of reasons. Who stands to gain by exaggerating stories of unknown lights in the sky or simply fabricating stories that alien visitors are already here?
5. Does your group think scientists should simply ignore all the media publicity about UFOs or should they try to respond? If so, how should they respond? Does everyone in the group agree?
6. Suppose your group is the team planning to select the most important sights and sounds of Earth to record and put on board the next interstellar spacecraft. What pictures (or videos) and sounds would you include to represent our planet to another civilization?
7. Let’s suppose Earth civilization has decided to broadcast a message announcing our existence to other possible civilizations among the stars. Your group is part of a large task force of scientists, communications specialists, and people from the humanities charged with deciding the form and content of our message. What would you recommend? Make a list of ideas.
8. Think of examples of contact with aliens you have seen in movies and on TV. Discuss with your group how realistic these have been, given what you have learned in this class. Was the contact in person (through traveling) or using messages? Why do you think Hollywood does so many shows and films that are not based on our scientific understanding of the universe?
9. Go through the Drake equation with your group and decide on values for each factor in the estimate. (If you disagree on what a factor should be within the group, you can have a “minority report.”) Based on the factors, how many intelligent, communicating civilizations do you estimate to be thriving in our Galaxy right now?
### Review Questions
### Thought Questions
### Figuring for Yourself
|
# Setting the Stage
## Unit Introduction
Welcome to Principles of Marketing! Some people may mistakenly believe that marketing skills can only be applied to marketing tasks, but the fact is that marketing isn’t only for marketers. Studying marketing is essential in almost any career field, because it teaches you the basic principles that connect people, brands, and businesses.
This textbook is divided into three units:
1. Unit 1: Setting the Stage
2. Unit 2: Understanding the Marketplace
3. Unit 3: Product, Promotion, Price, and Place
In this first section, we’re going to set the stage for the remainder of this textbook, by first exploring marketing as a discipline and understanding the concept of customer value. Then we’ll analyze the role of strategic planning in marketing, because strategy defines how you communicate that customer value to others. |
# Understanding the Marketplace
## Unit Introduction
Welcome to Unit 2 of Principles of Marketing. In Unit 1, the stage was set for studying marketing. Unit 2 discusses the analytical tools and frameworks to understand a broad range of customers (whether consumers or businesses) and categorize them into target markets. It then reviews marketing research techniques used to gather data and make sound marketing decisions. Finally, the last two chapters of this unit emphasize the challenges of expanding to international markets and reaching culturally and demographically diverse segments in domestic markets. |
# Product, Promotion, Price, and Place
## Unit Introduction
In this last unit, we will be exploring next-level marketing concepts. We will look at product marketing, services marketing, pricing, integrated marketing communications, the promotion mix, social media marketing, distribution, retailing and wholesaling, and sustainability.
Enjoy the topics and their corresponding examples! |
# Wstęp do psychologii
## Wprowadzenie
Clive Wearing (ur. 1938), uznany muzyk, utracił umiejętność tworzenia nowych wspomnień w wyniku choroby, na którą zapadł w wieku 46 lat. O ile mężczyzna nadal potrafi bezbłędnie grać na pianinie, to nie jest w stanie zapamiętać, co jadł na śniadanie zaledwie kilka godzin wcześniej (Sacks, 2007). James Wannerton przeżywa doznania zmysłowe powiązane z dźwiękiem słów. Imię jego byłej dziewczyny smakuje według niego jak rabarbar (Mundasad, 2013). John Nash (1928-2015) to wybitny matematyk i laureat nagrody Nobla. Mimo piastowania funkcji profesora na (MIT) zwykł opowiadać innym, że w artykułach publikowanych w „” zakodowane są wiadomości od istot pozaziemskich skierowane do niego. Naukowiec zaczął również słyszeć głosy i stał się podejrzliwy wobec otaczających go ludzi. Wkrótce po tym u Nasha zdiagnozowano schizofrenię i został on przyjęty do państwowego szpitala psychiatrycznego (O’Connor i Robertson, 2002). Nash był bohaterem filmu z 2001 roku pt. Piękny umysł. Dlaczego te wszystkie osoby miały takie doświadczenia? Jak działa ludzki mózg? Jakie powiązania istnieją między wewnętrznymi procesami zachodzącymi w mózgu a zachowaniami danej osoby? Podręcznik Psychologia omawia szereg sposobów, w jakie dziedzina psychologii bada tego typu problemy.
### References
American Board of Forensic Psychology. (2014). Brochure. Pobrane z: http://www.abfp.com/brochure.asp.
American Psychological Association. (2014). Pobrane z: www.apa.org.
American Psychological Association. (2014). Graduate training and career possibilities in exercise and sport psychology. Pobrane z: http://www.apadivisions.org/division-47/about/resources/training.aspx?item=1.
American Psychological Association. (2019). Maime Phipps Clark, PhD, and Kenneth Clark, PhD. Pobrane z: https://www.apa.org/pi/oema/resources/ethnicity-health/psychologists/clark.
American Psychological Association. (2011). Psychology as a career. Pobrane z: http://www.apa.org/education/undergrad/psych-career.aspx.
Ashliman, D. L. (2001). Cupid and Psyche. In Folktexts: A library of folktales, folklore, fairy tales, and mythology. Pobrane z: http://www.pitt.edu/~dash/cupid.html.
Betancourt, H., & López, S. R. (1993). The study of culture, ethnicity, and race in American psychology. American Psychologist, 48, 629–637.
Black, S. R., Spence, S. A., Omari, S. R. (2004). Contributions of African Americans to the field of psychology. Journal of Black Studies, 35, 40–64.
Bulfinch, T. (1855). The age of fable: Or, stories of gods and heroes. Boston, MA: Chase, Nichols and Hill.
Buss, D. M. (1989). Sex differences in human mate preferences: Evolutionary hypotheses tested in 37 cultures. Behavioral and Brain Sciences, 12, 1–49.
Carlson, N. R. (2013). Physiology of Behavior (11th ed.). Boston, MA: Pearson.
Confer, J. C., Easton, J. A., Fleischman, D. S., Goetz, C. D., Lewis, D. M. G., Perilloux, C., Buss, D. M. (2010). Evolutionary psychology. Controversies, questions, prospects, and limitations. American Psychologist, 65, 100–126.
Crawford, M., Marecek, J. (1989). Psychology reconstructs the female 1968–1988. Psychology of Women Quarterly, 13, 147–165.
Danziger, K. (1980). The history of introspection reconsidered. Journal of the History of the Behavioral Sciences, 16, 241–262.
Darwin, C. (1871). The descent of man and selection in relation to sex. London: John Murray.
Darwin, C. (1872). The expression of the emotions in man and animals. London: John Murray.
DeAngelis, T. (2010). Fear not. gradPSYCH Magazine, 8, 38.
Department of Health and Human Services. (n.d.). Projected future growth of the older population. Pobrane z: http://www.aoa.gov/Aging_Statistics/future_growth/future_growth.aspx#age.
Endler, J. A. (1986). Natural Selection in the Wild. Princeton, NJ: Princeton University Press.
Fogg, N. P., Harrington, P. E., Harrington, T. F., & Shatkin, L. (2012). College majors handbook with real career paths and payoffs (3rd ed.). St. Paul, MN: JIST Publishing.
Franko, D. L., et al. (2012). Racial/ethnic differences in adults in randomized clinical trials of binge eating disorder. Journal of Consulting and Clinical Psychology, 80, 186–195.
Friedman, H. (2008), Humanistic and positive psychology: The methodological and epistemological divide. The Humanistic Psychologist, 36, 113–126.
Główny Urząd Statystyczny. Ludność. stan i struktura ludności oraz ruch naturalny w przekroju terytorialnym (stan w dniu 31.12.2019). Publikacja 30.04.2020.
Gordon, O. E. (1995). A brief history of psychology. Pobrane z: http://www.psych.utah.edu/gordon/Classes/Psy4905Docs/PsychHistory/index.html#maptop.
Green, C. D. (2001). Classics in the history of psychology. Pobrane z: http://psychclassics.yorku.ca/Krstic/marulic.htm.
Greengrass, M. (2004). 100 years of B.F. Skinner. Monitor on Psychology, 35, 80.
Hock, R. R. (2009). Social psychology. Forty studies that changed psychology: Explorations into the history of psychological research (pp. 308–317). Upper Saddle River, NJ: Pearson.
Hoffman, C. (2012). Careers in clinical, counseling, or school psychology; mental health counseling; clinical social work; marriage & family therapy and related professions. Pobrane z: http://www.indiana.edu/~psyugrad/advising/docs/Careers%20in%20Mental%20Health%20Counseling.pdf.
Ignaszak, M. (2016). Jak zostać psychologiem klinicznym? Pobrane z: http://pytaniaiodpowiedzi.pl/jak-zostac-psychologiem-klinicznym/.
Jang, K. L., Livesly, W. J., Vernon, P. A. (1996). Heritability of the Big Five personality dimensions and their facets: A twin study. Journal of Personality, 64, 577–591.
Knekt, P. P., Lindfors, O., Härkänen, T., Välikoski, M., Virtala, E., Laaksonen, M. A., Marttunen, M., Kaipainen, M., Renlund, C.; Helsinki Psychotherapy Study Group. (2008). Randomized trial on the effectiveness of long- and short-term psychodynamic psychotherapy and solution-focused therapy on psychiatric symptoms during a 3-year follow-up. Psychological Medicine: A Journal of Research In Psychiatry And The Allied Sciences, 38, 689–703.
Landers, R. N. (2011, June 14). Grad school: Should I get a PhD or Master’s in I/O psychology? [Web log post]. Pobrane z: http://neoacademic.com/2011/06/14/grad-school-should-i-get-a-ph-d-or-masters-in-io-psychology/#.UuKKLftOnGg.
Macdonald, C. (2013). Health psychology center presents: What is health psychology? Pobrane z: http://healthpsychology.org/what-is-health-psychology/.
McCrae, R. R., Costa, P. T. (2008). Empirical and theoretical status of the five-factor model of personality traits. W: G. J. Boyle, G. Matthews, D. H. Saklofske (red.). The Sage handbook of personality theory and assessment. Vol. 1.Personality theories and models. London: Sage.
Michalski, D., Kohout, J., Wicherski, M., Hart, B. (2011). 2009 Doctorate Employment Survey. APA Center for Workforce Studies. Pobrane z: http://www.apa.org/workforce/publications/09-doc-empl/index.aspx.
Miller, G. A. (2003). The cognitive revolution: A historical perspective. Trends in Cognitive Sciences, 7, 141–144.
Ministerstwo Nauki i Szkolnictwa Wyższego, Biuletyn Informacji Publicznej (2019). Pobrane z: http://www.bip.nauka.gov.pl/komunikaty-rzecznika-prasowego-mnisw/znamy-ranking-najpopularniejszych-kierunkow-studiow-w-roku-akademickim-2018-2019.html.
Munakata, Y., McClelland, J. L., Johnson, M. H., Siegler, R. S. (1997). Rethinking infant knowledge: Toward an adaptive process account of successes and failures in object permanence tasks. Psychological Review, 104, 689–713.
Mundasad, S. (2013). Word-taste synaesthesia: Tasting names, places, and Anne Boleyn. Pobrane z: http://www.bbc.co.uk/news/health-21060207
Munsey, C. (2009). More states forgo a postdoc requirement. Monitor on Psychology, 40, 10.
Najpopularniejsze kierunki studiów 2019.Rzeczpospolita, Pobrane z: https://www.rp.pl/Edukacja-i-wychowanie/307129976-Najpopularniejsze-kierunki-studiow-2019.html.
National Association of School Psychologists. (n.d.). Becoming a nationally certified school psychologist (NCSP). Pobrane z: http://www.nasponline.org/CERTIFICATION/becomeNCSP.aspx.
Nicolas, S., & Ferrand, L. (1999). Wundt’s laboratory at Leipzig in 1891. History of Psychology, 2, 194–203.
Norcross, J. C. (n.d.) Clinical versus counseling psychology: What’s the diff? Pobrane z: http://www.csun.edu/~hcpsy002/Clinical%20Versus%20Counseling%20Psychology.pdf.
Norcross, J. C., Castle, P. H. (2002). Appreciating the PsyD: The facts. Eye on Psi Chi, 7, 22–26.
O'Connor, J. J., Robertson, E. F. (2002) John Forbes Nash. Press.
O’Hara, M. (n.d.). Historic review of humanistic psychology. Pobrane z: http://www.ahpweb.org/index.php?option=com_k2&view=item&layout=item&id=14&Itemid=24.
Person, E. S. (1980). Sexuality as the mainstay of identity: Psychoanalytic perspectives. Signs, 5, 605–630.
Rantanen, J., Metsäpelto, R. L., Feldt, T., Pulkkinen, L., Kokko, K. (2007). Long-term stability in the Big Five personality traits in adulthood. Scandinavian Journal of Psychology, 48, 511–518.
Riggio, R. E. (2013). What is industrial/organizational psychology? Psychology Today. Pobrane z: http://www.psychologytoday.com/blog/cutting-edge-leadership/201303/what-is-industrialorganizational-psychology.
Sacks, O. (2007). A neurologists notebook: The abyss, music and amnesia. The New Yorker. Pobrane z: http://www.newyorker.com/reporting/2007/09/24/070924fa_fact_sacks?currentPage=all.
Schnyder, U., Bryant, R. A., Ehlers, A., Foa, E. B., Hasan, A., Mwiti, G., Kristensen, Ch. H., Neuner, F., Oe, M., Yule, W. (2016). Culture-sensitive psychotraumatology. European Journal of Psychotraumatology, 7, doi: 10.3402/ejpt.v7.31179.
Shedler, J. (2010). The efficacy of psychodynamic psychotherapy. American Psychologist, 65(2), 98–109.
Soldz, S., Vaillant, G. E. (1999). The Big Five personality traits and the life course: A 45-year longitudinal study. Journal of Research in Personality, 33, 208–232.
Thorne, B. M., Henley, T. B. (2005). Connections in the history and systems of psychology (3rd ed.). Boston, MA: Houghton Mifflin Company.
Ustawa z dnia 8 czerwca 2001 „o zawodzie psychologa i samorządzie zawodowym psychologów. Pobrane z: http://prawo.sejm.gov.pl/isap.nsf/DocDetails.xsp?id=WDU20010730763.
Ustawa z dnia 11 września 2015 r. o zdrowiu publicznym. Pobrane z: http://prawo.sejm.gov.pl/isap.nsf/DocDetails.xsp?id=WDU20150001916.
Watson, J. B. (1913). Psychology as the behaviorist views it. Psychological Review, 20, 158-177.
Weisstein, N. (1993). Psychology constructs the female: Or, the fantasy life of the male psychologist (with some attention to the fantasies of his friends, the male biologist and the male anthropologist). Feminism and Psychology, 3, 195–210.
Westen, D. (1998). The scientific legacy of Sigmund Freud, toward a psychodynamically informed psychological science. Psychological Bulletin, 124, 333–371.
Vogels, S. R. (2014). The Milgram experiment: Its impact and interpretation. Social Cosmos, 5(1), 15 - 21.
Volkmann-Raue, S, Luck, H. E. (2014). Najwybitniejsze kobiety w psychologii XX wieku. Gdańsk: GWP Gdańskie Wydawnictwo Psychologiczne. |
# Wstęp do psychologii
## Czym jest psychologia
Skąd się bierze kreatywność? Dlaczego niektórzy zostają dotknięci bezdomnością? Czym są uprzedzenia i dyskryminacja? Co to jest świadomość? Psycholodzy zajmują się poszukiwaniem odpowiedzi na tego typu pytania, prowadząc badania naukowe nad umysłowością i zachowaniami. Pierwszym krokiem metody naukowej jest postawienie hipotezy będącej próbą wyjaśnienia badanego zagadnienia. Hipoteza powinna wpisywać się w teorię naukową, która jest aktualnym i zweryfikowanym licznymi badaniami zbiorem ustaleń dotyczących określonego obszaru wiedzy. Badacz następnie przeprowadza obserwację lub eksperyment, mające sprawdzić trafność hipotezy. Wynik i analiza badań są publikowane lub prezentowane podczas konferencji naukowej po to, by inni badacze mogli, po pierwsze: zreplikować wyniki otrzymane przez badacza (i tym samym sprawdzić poprawność procesu badawczego), a po drugie: by mogli wykorzystać je w swoich badaniach. Naukowcy badają to, co jest mierzalne. Na przykład hipoteza, że ptak śpiewa, ponieważ jest szczęśliwy, nie może być sprawdzona w sposób naukowy, ponieważ nie potrafimy zmierzyć poziomu szczęścia ptaka. Należy wówczas zadać inne pytanie, na przykład o aktywność określonego obszaru mózgu ptaka, ponieważ ją potrafimy zmierzyć dostępnymi metodami. Jeśli tę samą hipotezę zastosujemy do ludzi („śpiewają, gdy czują się szczęśliwi”), będzie ona dobrym punktem wyjścia do badania naukowego, ponieważ możemy o poczuciu szczęścia porozmawiać z badaną jednostką.
Metody naukowe pozwalają zbadać wyłącznie zjawiska mierzalne, nie ma zaś możliwości zdobycia wiedzy na temat wartości czy moralności. To jeden z powodów, dla których naukowe rozumienie umysłu podlega ograniczeniom – wszak myśli, czy też sposobu ich przeżywania, nie da się bezpośrednio „złapać” ani zmierzyć. Metoda naukowa opiera się na metodzie empirycznej. Metoda empiryczna (ang. ) polega na obserwacji i prowadzeniu eksperymentów; w odróżnieniu od metod opartych wyłącznie na formach argumentacji logicznej lub teorii ukutych przez wcześniejszych badaczy (obecnych np. w takich naukach jak logika, matematyka etc.).
Psychologia została uznana za niezależną dziedzinę nauki pod koniec XIX wieku. Wcześniej zagadnienia dotyczące funkcjonowania umysłu były domeną filozofii. W związku z tym, że u źródeł każdego zachowania leży uwarunkowanie biologiczne, określone obszary psychologii zalicza się do nauk przyrodniczych, takich jak biologia. Żaden organizm biologiczny nie funkcjonuje samodzielnie, w izolacji od otoczenia, a na nasze zachowanie wpływ mają interakcje z innymi. Dlatego też psychologię zalicza się również do nauk społecznych.
### Dlaczego warto uczyć się psychologii?
Niekiedy studenci po raz pierwszy wybierają zajęcia z psychologii, bo są zainteresowani pomocą innym i chcą dowiedzieć się więcej o sobie samych - dlaczego zachowują się w określony sposób. Inni studenci decydują się na takie zajęcia, bo są zobowiązani do zaliczenia puli zajęć ogólnouniwersyteckich. Wiele osób psychologia tak wciąga, że ostatecznie wybierają ją jako główny przedmiot swoich studiów.
Studia psychologiczne od wielu lat cieszą się w Polsce niesłabnącą popularnością. W 2019 roku o przyjęcie na studia z psychologii na Uniwersytecie Warszawskim ubiegało się 2,4 tys. kandydatów, o jedno miejsce rywalizowało 15 osób. Dla porównania, na Uniwersytecie Jagiellońskim było 1799 kandydatów (osiem osób na miejsce), na Uniwersytecie Łódzkim 1100 (11 osób na miejsce), na Uniwersytecie Adama Mickiewicza w Poznaniu 1705 osób (11 osób na miejsce) („Rzeczpospolita”, 2019). Zgodnie z danymi Ministerstwa Nauki i Szkolnictwa Wyższego (2019) psychologia uplasowała się na trzecim miejscu jako najchętniej wybierany kierunek (po informatyce i zarządzaniu).
Wykształcenie psychologiczne przydaje się w wielu obszarach. Studenci psychologii zdobywają umiejętność krytycznego myślenia i praktycznego stosowania metod naukowych. Myślenie krytyczne to umiejętność zdystansowanego podejścia i wykorzystania wiedzy naukowej w analizie informacji. Ocena wartości informacji – jej wiarygodności i przydatności – to niezwykle ważna umiejętność we współczesnym świecie obfitującym w mnogość (jeśli nie nadmiar) danych. Część tych informacji jest niedopowiedziana albo celowo przeinaczona (tzw. ) dla wywołania określonego efektu u odbiorcy (np. niepewności) i uzyskania określonych celów (politycznych, marketingowych etc.).
Umiejętność myślenia krytycznego pozwala spojrzeć na dane zagadnienie sceptycznie, rozpoznać sprzeczności poprzez wykorzystanie logiki, zadawanie odpowiednich pytań i obserwację.
Dzięki nauce psychologii studenci są w stanie zrozumieć złożone czynniki wpływające na nasze zachowanie. Są oni w stanie rozróżnić wpływ genów, środowiska i doświadczenia na zachowanie człowieka. Tym samym mogą sprawdzić się jako przyszli specjaliści w wielu dziedzinach: marketingu, pomocy psychologicznej, pracy wychowawczej, resocjalizacyjnej itd.
### Podsumowanie
Termin „psychologia” wywodzi się z wyrazów psyche (oznaczającego duszę) i logos (oznaczającego naukę o danej dziedzinie). W związku z tym psychologię definiuje się jako naukę o umyśle i zachowaniach. Studenci psychologii uczą się myślenia krytycznego, poznają działanie i zastosowanie w praktyce metod naukowych oraz są w stanie zauważyć różnorodność ludzkich zachowań i ich przyczyny.
### Review Questions
### Critical Thinking Questions
### Personal Application Question
|
# Wstęp do psychologii
## Historia psychologii
Psychologia to stosunkowo młoda dziedzina nauki, której eksperymentalne korzenie sięgają XIX wieku. Jak już wspomniano, każdy, kto był zainteresowany zgłębianiem tematów związanych z umysłem przed XIX wiekiem, czynił to w obszarze filozofii. Za ojców psychologii jako odrębnej dziedziny naukowej i dyscypliny akademickiej wyodrębnionej z filozofii uznaje się Wilhelma Maximiliana Wundta (1832-1920) i Williama Jamesa (1842-1910). W tym rozdziale prezentujemy przegląd paradygmatów, które wywarły wpływ na psychologię od czasów Wundta i Jamesa po dzień dzisiejszy.
### Wundt i strukturalizm
Wilhelm Wundt to niemiecki naukowiec, którego jako pierwszego człowieka w historii nazwano psychologiem. W 1873 roku opublikował swoją słynną książkę pt. Zasady psychologii fizycznej, a w 1879 roku założył na Uniwersytecie w Lipsku pionierskie laboratorium psychologiczne. Wundt postrzegał psychologię jako dziedzinę nauki przyrodniczej zajmującą się badaniem świadomego doświadczenia i uważał, że celem psychologii było rozpoznanie składników świadomości oraz zbadanie sposobu, w jaki składniki te łączą się, by stać się świadomie przeżywanym przez daną osobę doświadczeniem.
Wundt stosował metodę introspekcji (samoobserwacji) (ang. ) (nazywając ją „wewnętrzną percepcją”), czyli procesu, w którym dana osoba relacjonuje swoje własne doświadczenia w sposób najbardziej obiektywny z możliwych, traktując ludzki umysł tak, jak traktuje się każdy inny aspekt natury podlegający naukowej obserwacji.
Wundt starał się uczynić z introspekcji (z natury subiektywnej) metodę naukową, tj. używał bodźców powtarzalnych (w założeniu miały wywoływać za każdym razem takie samo doświadczenie u osoby badanej), a uczestnikami jego badań były osoby wyszkolone w obserwacji własnych przeżyć wewnętrznych. Wundt mierzył m.in. czas reakcji badanych (Danzinger, 1980) – dziś nazwalibyśmy to zbieraniem obserwowalnych danych.
Ponadto był orędownikiem poglądu, że osoby badane powinny mieć prawo do świadomego udziału w badaniu (Danzinger, 1980) – tzn. znać jego założenia i przebieg. Jest to warunek etyczny prowadzenia badań naukowych, obowiązujący również współcześnie. Postulował także, że badania psychologiczne (zrozumienie natury ludzkiej) powinny ujmować kontekst kulturowy i tradycje, w jakich wychowywał się i wzrastał dany człowiek. Ukoronowaniem tych poglądów, tożsamych z podejściem współczesnej psychologii kulturowej, było 10-tomowe dzieło Völkerpsychologie. Eine Untersuchung der Entwicklungsgesetze von Sprache, Mythos und Sitte (Psychologia ludów. Badanie praw rozwoju języka, mitów i obyczajów , 1900 do 1920).
Wundt, a potem jego uczeń, Edward Titchener (1867-1927), rozwinęli swoje poglądy na psychikę w duchu strukturalizmu (ang. ) – stanowiska metodologicznego zakładającego, że do zrozumienia zjawisk potrzebne jest uchwycenie struktury, w której one występują, lub budowa takiego modelu, który wyjaśnia ich rolę w ich środowisku. Co ważne, zarówno Wundt, jak i Titchener koncentrowali się raczej na składowych procesów umysłowych niż na ich funkcji. Strukturalizm wyróżniał trzy podstawowe elementy procesów psychicznych pojawiające się w świadomości człowieka: wrażenia (zmysłowe reakcje na bodźce docierające do organizmu), wyobrażenia (obrazy tworzone w umysłach), afekty (uczucia towarzyszące wrażeniom lub wyobrażeniom).
W laboratorium na Uniwersytecie w Lipsku Wundt wraz ze studentami () prowadzili doświadczenia dotyczące m.in. czasów reakcji na bodziec. Osoba badana, często umieszczona w innym pomieszczeniu niż badacz, poddawana była działaniu określonego bodźca (światło, obraz lub dźwięk). Reakcję na bodziec badany miał sygnalizować wciśnięciem przycisku, a specjalna aparatura mierzyła czas reakcji. Wundt był w stanie zmierzyć czas reakcji z dokładnością do jednej tysięcznej sekundy (Nicolas i Ferrand, 1999).
Mimo wysiłków Wundta do wyszkolenia badaczy do stosowania procesu introspekcji, proces ten pozostawał w znacznej mierze działaniem subiektywnym i wielokrotnie dochodziło do różnic zdań między członkami zespołu.
### James i funkcjonalizm
William James (1842-1910) był pierwszym amerykańskim psychologiem, który przyjął inną perspektywę na temat tego, co powinno być przedmiotem zainteresowania psychologii jako nauki (). Jamesowi znana była teoria ewolucji i selekcji naturalnej Darwina, którą potraktował jako wyjaśnienie charakterystyki danego organizmu. Kluczem do zrozumienia tej teorii było założenie, że proces selekcji naturalnej prowadzi do przetrwania organizmów, które mają zdolność adaptacji do określonych warunków panujących w ich środowisku (oraz adekwatnego zachowania). Proces adaptacji polega na tym, że dana cecha organizmu spełnia funkcję umożliwiającą mu przetrwanie i rozmnażanie, ponieważ została ona wyłoniona w drodze selekcji naturalnej. Zdaniem Jamesa, celem psychologii było badanie funkcji zachowania w świecie. Tym samym, jego podejście zostało nazwane funkcjonalizmem (ang. ). Przedmiotem rozważań funkcjonalizmu był sposób, w jaki aktywność umysłowa pomaga organizmowi dostosować się do swojego środowiska. Bardziej zatem skupiał się na roli danego procesu psychicznego niż na jego składowych (w odróżnieniu od Wundta i strukturalizmu).
Funkcjonalizm ma też drugie, bardziej subtelne znaczenie: funkcjonalistów bardziej interesowało działanie całego umysłu, a nie jego poszczególnych części. Podobnie jak Wundt, James także uważał, że introspekcja może być metodą, dzięki której da się zbadać aktywność umysłową, jednak James zdecydował się na zastosowanie także bardziej obiektywnych metod badawczych, m.in. wykorzystywał w swoich badaniach urządzenia rejestrujące oraz badania konkretnych wyników aktywności umysłowej, anatomii i fizjologii (Gordon, 1995). Podejście naukowe Jamesa dobrze ilustruje ten cytat:
Innymi słowy, podobnie jak dzieje się to we współczesnej metodologii badań psychologicznych, James starał się przekładać pojęcia psychologiczne (strach) na obiektywne, obserwowalne i mierzalne dane (reakcje fizjologiczne).
### Freud i teoria psychoanalityczna
Prawdopodobnie jedną z najbardziej wpływowych, a zarazem znanych postaci w historii psychologii jest Zygmunt Freud (1856–1939) (). Freud był austriackim neurologiem zafascynowanym pacjentami cierpiącymi na „histerię” i nerwice. Histerią nazywano dawniej dolegliwości obejmujące szereg objawów, od fizycznych po psychiczne, z których żaden nie był wywołany żadną konkretną chorobą fizyczną (dziś u tych osób zdiagnozowalibyśmy prawdopodobnie zaburzenia psychosomatyczne). Freud ukuł teorię, że wiele problemów jego pacjentów miało swój początek w ich nieświadomości.
Zdaniem Freuda nieświadomość była zbiorem uczuć i popędów, z których człowiek nie zdaje sobie sprawy. Pozyskanie dostępu do nieświadomości miało w związku z tym kluczowe znaczenie terapeutyczne dla pacjentów. Freud uważał, że można uzyskać wgląd do nieświadomości przez analizę marzeń sennych, badanie pierwszych skojarzeń przychodzących na myśl człowiekowi w określonych tematach oraz pozornie omyłkowych przejęzyczeń. Teoria psychoanalityczna (ang. ) koncentruje się na roli nieświadomości człowieka, jak również na jego doświadczeniach z dzieciństwa, i to właśnie ta perspektywa zdominowała obszar psychologii klinicznej na kolejnych kilka dekad (Thorne i Henley, 2005).
Idee propagowane przez Freuda miały ogromny wpływ na rozwój psychologii, a temat ten zostanie omówiony szerzej w rozdziałach poświęconych rozwojowi psychologicznemu człowieka, teorii osobowości oraz psychoterapii.
Współcześnie właściwie żadna z uznanych szkół psychoterapii nie podważa wpływu doświadczeń z wczesnego dzieciństwa na rozwój psychiki (a w konsekwencji na dalsze funkcjonowanie człowieka), jak również na istnienie pewnych nieuświadomionych struktur psychiki (np. schematów, zasad na życie, skryptów rodzinnych). Jednak nie każda forma psychoterapii zajmuje się analizą i przepracowywaniem dzieciństwa pacjenta. Psychoanaliza, podczas której pacjent opowiada psychoterapeucie o swoich doświadczeniach i o sobie, nie została wymyślona przez Freuda, ale był on popularyzatorem tej metody psychoterapeutycznej. Wiele z pozostałych teorii stworzonych przez Freuda budzi jednak kontrowersje. Zdaniem Drew Westena (1998), profesora psychologii na Uniwersytecie w Michigan, znaczna część krytyki koncentruje się na podważaniu starszych pism Freuda, bez uwzględniania jego późniejszych książek i wypowiedzi. Westen uważa, że krytycy zdają się nie dostrzegać sukcesu, jakim cieszyły się ogólne teorie, które Freud stworzył lub rozwinął. Wymienia tu znaczenie wpływu doświadczeń z dzieciństwa na decyzje podejmowane przez człowieka w życiu dorosłym, roli nieświadomości, która w opozycji do świadomej motywacji kieruje naszym zachowaniem, faktu, że motywacje mogą być ambiwalentne i wywoływać wewnętrzne konflikty mające wpływ na zachowanie, skutki reprezentacji mentalnej nas samych i innych ludzi, jakimi kierujemy się w naszych interakcjach ze światem zewnętrznym, czy rozwoju osobowości człowieka na przestrzeni lat życia.
Skuteczność współczesnych wersji Freudowskiego podejścia klinicznego została empirycznie potwierdzona (Knekt et al., 2008; Shedler, 2010). Niektóre bieżące nurty psychoterapii (np. terapia psychoanalityczna, terapia psychodynamiczna) uwzględniają analizę nieświadomych poglądów pacjenta na siebie i na relacje, wykorzystując w tym celu charakterystykę relacji terapeutycznej (tj. relacji pomiędzy pacjentem a psychoterapeutą). Znaczenie historyczne Freuda i jego wpływ na rozwój praktyki klinicznej zasługują na uwzględnienie go w omówieniu rozwoju nurtów w psychologii na przestrzeni dziejów.
### Wertheimer, Koffka, Köhler, i psychologia
Max Wertheimer (1880–1943), Kurt Koffka (1886–1941) i Wolfgang Köhler (1887–1967) to trzej niemieccy psychologowie, którzy w latach 20. i na początku 30. XX wieku wyemigrowali z nazistowskich Niemiec do Stanów Zjednoczonych ze względu na coraz częstsze represje. Przypisuje się im zapoznanie psychologów amerykańskich z teorią psychologii Gestalt. Słowo Gestalt tłumaczy się mniej więcej jako „całość”. Nurt psychologiczny Gestalt, przeciwnie niż wcześniej prezentowane, ujmuje psychikę i funkcjonowanie człowieka całościowo. Doświadczenie zmysłowe da się oczywiście rozłożyć na poszczególne części składowe (jak chcieli strukturaliści czy fundamentaliści), ale sposób postrzegania danej sytuacji przez człowieka wynika z działania tych wszystkich składowych w całości, a nie oddzielnie. Na przykład piosenka składa się z pojedynczych nut granych przez różne instrumenty, ale prawdziwy charakter utworu odbierany jest w kontekście powiązań tych nut, czyli melodii, rytmu i harmonii, które łącznie tworzą (Thorne i Henley, 2005).
Niestety, wspomniani psychologowie Gestalt byli zmuszeni porzucić znaczną część swoich badań, a po przeprowadzce do Stanów Zjednoczonych nie mieli możliwości kontynuowania ich na szerszą skalę. To właśnie te czynniki, wraz z rozwojem podejścia behawioralnego (które jest omówione jako następne) w Stanach Zjednoczonych, miały wpływ na to, że teoria psychologii Gestalt nie zyskała takiego rozgłosu i uznania w Stanach Zjednoczonych, jakimi cieszyły się w ojczyźnie Wertheimera, Koffki i Köhlera (Thorne i Henley, 2005).
Mimo to kilka teorii wywodzących się z psychologii Gestalt nadal ma się dobrze. Dotyczy to m.in. założenia, że jednostka jest pewną całością, a nie sumą indywidualnie wymierzonych części, stało się ono jednym z najważniejszych fundamentów teorii humanizmu wyłonionej pod koniec XX wieku. Idee psychologii Gestalt nadal wywierają wpływ na badania doznań i percepcji.
Strukturalizm, Freud i psychologowie nurtu Gestalt zajmowali się w taki czy inny sposób opisywaniem i próbą zrozumienia doświadczeń wewnętrznych człowieka. Jednak inni badacze podważali teorię, że doświadczenie wewnętrzne może stanowić przedmiot pracy badawczej, i skupili się wyłącznie na badaniu zachowania jako realnego i dającego się zaobserwować wyniku procesów mentalnych. Mowa o behawiorystach.
### Pawłow, Watson, Skinner i behawioryzm
Jedne z pierwszych badań behawioralnych zachowań zostały przeprowadzone przez rosyjskiego fizjologa Iwana Pawłowa (1849–1936). Przedmiotem zainteresowań badawczych Pawłowa była fizjologia wydzielania śliny u psów. W trakcie prowadzenia badań zaobserwował, że można sprawić, by psy zaczynały wydzielać ślinę nie tylko w trakcie posiłku, ale także w reakcji na bodziec obojętny, który posiłek poprzedzał (dzwonek, lampkę).
Tym samym Pawłow opisał formę uczenia się zachowań zwaną „odruchem bezwarunkowym”, w którym zwierzę lub człowiek prezentował odruchowe (automatyczne i fizjologiczne) reakcje na pewne bodźce, a z czasem uczył się reagować w taki sam sposób na inny bodziec powiązany przez badacza z bodźcem pierwotnym (np. dzwonek poprzedzający jedzenie). Odruch ślinienia się mógł zostać wywołany innym bodźcem (pierwotnie obojętnym), takim jak konkretny dźwięk, który był odtwarzany wielokrotnie w powiązaniu z bezwarunkowym bodźcem w postaci jedzenia. Po nauczeniu się przez zwierzę reakcji ślinienia na drugi bodziec (dźwięk), można było zaniechać wywoływania reakcji przez bodziec bezwarunkowy (jedzenie). Pierwotnie obojętny bodziec (dźwięk) stawał się bodźcem warunkowym, a wywoływana przez niego reakcja (ślinienie) - reakcją warunkową. Idea „warunkowania klasycznego” Pawłowa jest jedną z form uczenia się, którymi zajmują się behawioryści.
John Broadus Watson (1878–1958) to amerykański psycholog, którego najbardziej znane osiągnięcia datuje się na początki XX wieku, gdy pracował on na (). O ile Wundt i James w swoich badaniach zajmowali się możliwościami zrozumienia świadomego doświadczenia, o tyle Watson uważał, że badanie świadomości z założenia jest obarczone błędem. Obiektywna analiza umysłu była jego zdaniem niemożliwa. Watson twierdził, że psychologia, wbrew swojej nazwie, powinna badać to, co dostępne obserwacji, czyli zachowanie i jego zewnętrzne przyczyny. Psychika była dla Watsona niedostępną „czarną skrzynką”, a radykalni behawioryści odmawiali jej w ogóle znaczenia. Watson postanowił skupić się bezpośrednio na zachowaniach, które można zaobserwować, i opracowaniu sposobów ich kontroli. To podejście polegające na obserwacji i kontroli zachowań nazwano behawioryzmem (ang. ).
Jednym z głównych obszarów badawczych behawiorystów było wyuczone zachowanie i jego interakcje z wrodzonymi cechami danego organizmu. W doświadczeniach behawioralnych często wykorzystywano zwierzęta, kierując się założeniem, że to, co odkryto w badaniach nad zachowaniem zwierząt, będzie miało w pewnym stopniu odzwierciedlenie w zachowaniach człowieka.
Klasycznym już cytatem Watsona jest zdanie pochodzące z jego publikacji:
Ilustruje ono podstawowe przekonania Watsona nt. kluczowej roli zachowania oraz możliwości jego dowolnego niemal kształtowania.
Behawioryzm zdominował psychologię doświadczalną na wiele dekad, a jego wpływ odczuwany jest w tym obszarze do dzisiaj (Thorne i Henley, 2005). To w znacznej mierze behawioryzm doprowadził do uznania psychologii za dziedzinę nauki dzięki zastosowaniu obiektywnych metod, możliwości bezpośredniej obserwacji i zbierania danych oraz, w szczególności, badań doświadczalnych. Ponadto teorie behawioralne są wykorzystywane w nurcie terapii poznawczo-behawioralnej. Modyfikacja zachowań jest często stosowana w środowisku szkolnym oraz w pracy resocjalizacyjnej. Behawioryzm przyczynił się także do rozwoju badań nad wpływem środowiska na zachowanie człowieka.
Burrhus Frederic Skinner (1904–1990), amerykański psycholog (), również był behawiorystą i koncentrował się na badaniu wpływu, jaki na zachowanie mogą mieć konsekwencje danego działania. Zdaniem B. F. Skinnera, podstawowymi czynnikami wpływającymi na zachowanie są wzmocnienie i kara. Urządzenie na ilustracji poniżej to tzw. klatka Skinnera, czyli pudełko warunkowania sprawczego, które nadal jest używane przez badaczy zajmujących się badaniami nad zachowaniem (Thorne i Henley, 2005).
Klatka Skinnera (ang. ) to pudełko, w którym zwierzę jest odizolowane od otoczenia i ma do dyspozycji wskaźnik zachowania, np. przycisk lub dźwignię. Gdy zwierzę wciska przycisk lub porusza dźwignią, mechanizm klatki albo pozytywnie wzmacnia to działanie (np. podanie pożywienia), albo wymierza karę (np. dźwiękiem) oraz wytwarza bodziec warunkujący (np. światło), który jest powiązany ze wzmocnieniem lub karą.
Badania Skinnera nad pozytywnym i negatywnym wzmacnianiem wyuczonych zachowań miały długotrwały wpływ na psychologię, choć wraz z rozwojem psychologii poznawczej wpływ ten malał. Mimo to uczenie poprzez warunkowanie jest nadal stosowane w terapii modyfikacji zachowań ludzkich.
### Maslow, Rogers i humanizm
Na początku XX wieku amerykańska psychologia zdominowana była przez teorie behawiorystyczne i psychoanalityczne. Grupa psychologów uznawała obydwie te perspektywy za ograniczone, a przy tym nie zgadzała się, żeby miały one dominujący wpływ na całą dziedzinę psychologii. Sprzeciwiali się teorii determinizmu (zgodnie z którą wszystkie działania człowieka są warunkowane nieświadomością) propagowaną przez Freuda. Nie byli też przekonani do redukcjonizmu, czy upraszczania, które z kolei wyznawali behawioryści (psychika ograniczająca się do zachowania), ani do założeń deterministycznych behawioryzmu (ludzkie zachowanie jako powstałe pod wpływem zarówno czynników genetycznych jak i środowiskowych).
Niektórzy psychologowie zaczęli formułować własne teorie, w których podkreślali znaczenie osobistej kontroli, intencjonalności oraz ludzkiej predyspozycji do „czynienia dobra” jako szczególnie istotnych dla określenia własnej tożsamości oraz wyboru zachowań. Tak zrodziła się koncepcja humanizmu. Humanizm (ang. ) to perspektywa w psychologii podkreślająca potencjał dobra, który jest cechą wrodzoną człowieka (wizja człowieka jako z natury dobrego). Dwóch najbardziej znanych propagatorów psychologii humanistycznej to Abraham Maslow i Carl Rogers (O’Hara, n.d.).
Abraham Maslow (1908–1970) jest najbardziej znany z opracowanej hierarchii potrzeb ludzkich mających wpływ na motywację (wybór zachowań) (). Mimo że ta koncepcja będzie przedmiotem bardziej szczegółowych rozważań w jednym z dalszych rozdziałów, zaprezentujemy tu jednak krótkie omówienie tego tematu.
Maslow twierdził, że po zaspokojeniu podstawowych potrzeb zapewniających przetrwanie (np. pożywienia, wody, schronienia), motywacjami do działania będą potrzeby znajdujące się wyżej w hierarchii (np. potrzeby społeczne). Zdaniem Maslowa potrzeby na najwyższym poziomie piramidy dotyczą samospełnienia, procesu pozwalającego człowiekowi na zrealizowanie w pełni swojego potencjału. W tym podejściu widać wyraźnie koncentrację na pozytywnych aspektach natury ludzkiej, co jest charakterystyczne dla perspektywy humanistycznej (Thorne i Henley, 2005).
Psychologowie humanistyczni odrzucali co do zasady podejście badawcze oparte na doświadczeniach redukcjonistycznych, głęboko zakorzenionych w naukach przyrodniczych i fizycznych, ponieważ ich zdaniem w ten sposób pomijano całość człowieka. Maslow i Rogers jako pierwsi zaczęli przywiązywać wagę do humanistycznych programów badawczych. Program ten zakładał przede wszystkim stosowanie metod jakościowych (w odróżnieniu od ilościowych, tj. opartych na pomiarach). Obecnie psychologia humanistyczna łączy obie metody badawcze, swobodnie sięgając po metody ilościowe, m.in. do badania poziomu szczęścia, samoidentyfikacji, mediacji oraz rezultatów psychoterapii humanistycznej.
Carl Rogers (1902–1987) podobnie do Maslowa podkreślał istnienie wrodzonego potencjału dobra u człowieka. (). Rogers stosował metodę terapeutyczną znaną jako nurt psychoterapii skoncentrowanej na pacjencie, by pomagać swoim pacjentom w poradzeniu sobie z problemami, z którymi zgłaszali się na psychoterapię.
W odróżnieniu od psychoanalizy, w której terapeuta odgrywa istotną rolę w interpretowaniu tego, jak świadome doświadczenia odzwierciedlają to, co dzieje się w nieświadomości pacjenta, w podejściu Rogersa to pacjent przejmuje ster nad sesją. Rogers uważał, że psychoterapeuta powinien posiadać trzy cechy, które zapewnią maksymalizację skuteczności tej metody: bezwarunkowo pozytywny stosunek do pacjenta, autentyczność i empatię. Bezwarunkowo pozytywny stosunek do pacjenta oznacza, że psychoterapeuta w pełni akceptuje pacjenta takim, jaki jest, bez względu na to, co ten mówi. Rogers uważał, że o ile te warunki są spełnione, ludzie są bardziej skłonni do radzenia sobie i przepracowywania swoich problemów (Thorne i Henley, 2005).
Humanizm miał znaczący wpływ na całą psychologię. Zarówno Maslow, jak i Rogers to nazwiska znane studentom psychologii (dowiesz się o nich więcej w kolejnych rozdziałach), a ich teorie cieszyły się uznaniem wielu badaczy. Ponadto podejście Rogersa do terapii skoncentrowane na pacjencie jest do dzisiaj stosowaną metodą w wielu szkołach psychoterapii, np. humanistycznej czy trzeciej fali terapii poznawczo-behawioralnej (terapia schematu, terapia ACT) (O’Hara, n.d.).
### Rewolucja poznawcza
Dominacja behawioryzmu i koncentracja na zewnętrznym zachowaniu odciągnęły uwagę psychologów od umysłu na dość długi czas. Wczesne prace psychologów humanistycznych przekierowały uwagę na człowieka jako całość, istotę świadomą i samoświadomą. W latach 50. XX wieku zaczęły pojawiać się nowe nurty w lingwistyce, neuronauce i informatyce, i to ta nowa perspektywa ożywiła zainteresowanie badaczy umysłem, który miał na nowo stać się przedmiotem badań.
To przeniesienie obszaru zainteresowań w nauce psychologicznej nosi miano „rewolucji kognitywnej” czy „poznawczej” (Miller, 2003). W 1967 roku został wydany pierwszy podręcznik autorstwa Ulrica Neissera pt. Psychologia poznawcza, który stał się podstawową lekturą dla zwolenników nowego podejścia (Thorne i Henley, 2005).
Mimo że żadnej konkretnej osobie nie przypisuje się rozpoczęcia tej rewolucji, to w pierwszych latach rozwoju tego ruchu jednym z najbardziej wpływowych propagatorów kongitywizmu był Noam Chomsky (ur. 1928) (). Chomsky, amerykański lingwista i filozof, profesor językoznawstwa, nie był zadowolony z tego, że behawioryzm miał tak znaczący wpływ na psychologię. Uważał, że uczynienie z zachowania centralnego punktu zainteresowań psychologii było podejściem krótkowzrocznym oraz że ta dziedzina nauki powinna na nowo zająć się badaniem kwestii związanych z funkcjonowaniem umysłu. Według Chomsky'ego tylko w ten sposób psychologia mogła w jakiś sposób przyczynić się do zrozumienia ludzkiego zachowania (Miller, 2003).
Psychologia europejska nigdy nie była pod takim wpływem behawioryzmu jak amerykańska, a co za tym idzie, rewolucja poznawcza przyczyniła się do ponownego nawiązania porozumienia między psychologami z Europy i z Ameryki. Co więcej, psychologowie zaczęli współpracować z badaczami z innych dziedzin, m.in. antropologami, lingwistami, informatykami i neuronaukowcami. To interdyscyplinarne podejście zyskało miano „nauk kognitywistycznych”, a jego wpływ i znaczenie dla tej perspektywy badawczej są nadal zauważalne we współczesnej psychologii (Miller, 2003).
### Kobiety w psychologii
Kobiety wnosiły wkład w psychologię od momentu jej powstania jako kierunku studiów. Margaret Floy Washburn (1871-1939) była pierwszą kobietą, która uzyskała stopień doktora psychologii (1894 rok). Prowadziła badania eksperymentalne nad zachowaniem zwierząt oraz nad percepcją mowy. Jest autorką (1908 rok), książki stanowiącej podsumowanie kilkudziesięciu lat jej doświadczenia naukowego. Dzieło opisuje liczne czynności poznawcze, poczynając od zmysłów i percepcji, w tym słuchu, wzroku, kinestetyki i dotyku. Późniejsze rozdziały książki koncentrują się na świadomości i wyższych procesach psychicznych. Jednak głównym tematem książki jest zachowanie zwierząt.
Inna psycholożka, Mary Whiton Calkins (1863-1930), zaczynała pracę jako nauczycielka greki w uczelni dla kobiet , wkrótce potem jednak poświęciła się psychologii - założyła w college'u laboratorium badań psychologicznych. W czasie studiów psychologii na Uniwersytecie Harvarda współpracowała z Williamem Jamesem i Hugo Münsterbergiem (1863-1917), pracę naukową na temat pamięci pisała pod kierunkiem Williama Jamesa. Zajmowała się procesami zapamiętywania, m.in. prawem początku i końca w przypominaniu (Madigan i O’Hara, 1992). Opracowała technikę pamięciową skojarzeń parzystych (dziś zwanych łańcuchowymi). Technika ta polega na zapamiętywaniu informacji za pomocą siły „żywych obrazów” tworzonych w umyśle, które składają się na oryginalną historyjkę, ułatwiającą przypomnienie sobie wszystkiego w odpowiedniej kolejności. Narzędziem generowania interesujących opowieści jest wyobraźnia i skojarzenia. Zainteresowania Calkins obejmowały także teorię psychologiczną, a konkretnie wpływ strukturalizmu i funkcjonalizmu na obraz samego siebie człowieka () (Calkins, 1906).
Mary Cover Jones (1897-1987) była psychologiem rozwojowym oraz pionierką terapii behawioralnej. Przeprowadziła badanie, które uważała za kontynuację rozpoczętego przez Johna Broadusa Watsona studium Małego Alberta (o tym badaniu dowiesz się w rozdziale dotyczącym nauki). Jones zastanawiała się, czy techniki używane przez Watsona, mogłyby być użyte w przeciwnym celu, tj. nie w wywoływaniu, ale w uwalnianiu dzieci od strachu. Idąc dalej tym tokiem rozumowania, przeprowadziła badanie znane jako studium Małego Piotrusia, gdzie wykorzystała prawa uczenia się i habituacji do wyleczenia 3-letniego chłopca, Piotrusia, z jego silnego lęku przed królikami (Jones, 1924). Tym samym jest pionierką techniki systematycznej desensytyzacji, używanej do dziś z powodzeniem w terapiach różnego rodzaju fobii.
Postaci wybitnych kobiet w psychologii było więcej, by wymienić tylko psychoanalityczki Karen Horney (1885-1952), Annę Freud (1895-1982) i Melanie Klein (1882-1960). Karen Horney była niemiecką psychoanalityczką i lekarzem psychiatrą, najbardziej popularną przedstawicielką koncepcji psychodynamicznych, współtwórczynią neopsychoanalizy. W 1932 roku wyemigrowała do Stanów Zjednoczonych, gdzie wraz z Erichem Frommem założyła Amerykański Instytut Psychoanalityczny. W swoich pracach podkreślała społeczno-kulturowe uwarunkowania rozwoju osobowości i zaburzeń, dystansując się od biologizmu koncepcji Zygmunta Freuda. Jej najsłynniejsze dzieło to Neurotyczna osobowość naszych czasów (1937).
Anna Freud, to najmłodsza córka Zygmunta i Marty Freudów, austriacko-brytyjska terapeutka dziecięca, członek Wiedeńskiego Instytutu Psychoanalizy od roku 1922 i jego dyrektorka w latach 1925-1938. Rozwinęła teorię psychoanalityczną swego ojca, koncentrując się na psychologii ego i mechanizmach obronnych osobowości.
Melanie Klein to brytyjska psycholog i psychoanalityk pochodzenia austriackiego. Znacząco rozwinęła techniki pracy terapeutycznej z dziećmi, która miała wpływ na psychologię dziecka i współczesną psychoanalizę. Była główną przedstawicielką nurtu teorii relacji z obiektem w Wielkiej Brytanii.
Z polskich psycholożek wymienić można: Józefę Joteyko (1866-1928), Marię Grzegorzewską (1897-1967) oraz Alinę Szemińską (1907-1986). Józefa Joteyko była polską psycholożką, pedagożką oraz fizjolożką, wraz z Marią Grzegorzewską była współtwórczynią Państwowego Instytutu Pedagogiki Specjalnej w Warszawie (istnieje do dziś, obecnie pod nazwą Akademii Pedagogiki Specjalnej-APS). Była przewodniczącą belgijskiego towarzystwa neurologicznego oraz wielokrotną laureatką Paryskiej Akademii Nauk.
Maria Grzegorzewska to polska pedagożka, psycholożka, profesor, uważana za twórczynię pedagogiki specjalnej w Polsce. Naczelnym hasłem jej (i założonego przez nią instytutu) było: „Nie ma kaleki – jest człowiek”). Do końca życia łączyła pracę naukową, dydaktyczną, praktyczną oraz administracyjną. Kierowała Państwowym Instytutem Pedagogiki Specjalnej, Państwowym Instytutem Nauczycielskim oraz Katedrą Pedagogiki Specjalnej Uniwersytetu Warszawskiego.
Alina Szemińska była polską psycholożką, pedagożką, wykładowczynią Uniwersytetu Warszawskiego. Wraz z Jeanem Piagetem (1896-1980) prowadziła badania nad zdolnościami dzieci do budowy reprezentacji mentalnych, niezależnie od obiektów, ich różnorodności, a także ich właściwości percepcyjnych. Po dramatycznych przejściach wojennych, pobycie w getcie, więzieniu gestapo oraz w nazistowskim obozie koncentracyjnym Auschwitz, po wojnie zajęła się pracą z dziećmi, tj. poradnictwem psychologicznym. Od 1947 roku wykładała w Instytucie Pedagogiki w Warszawie, a pięć lat później objęła tam kierownictwo Zakładu Psychologii. Od roku 1956 Szemińska pracowała na Wydziale Pedagogicznym UW (przemianowanym w 1969 roku na Wydział Psychologii i Pedagogiki, a w roku 1981 wyodrębnionym jako Wydział Psychologii Uniwersytetu Warszawskiego) na stanowisku zastępcy profesora, a później – starszego wykładowcy. Prowadziła wykłady z psychologii rozwojowej i seminarium magisterskie.
Więcej o wybitnych kobietach w psychologii możesz dowiedzieć się z książki Volkmann-Raue i Lucka Najwybitniejsze kobiety w psychologii XX wieku.
### Psychologia wielokulturowa
Kultura ma ogromny wpływ zarówno na indywidualnego człowieka, jak i na psychologię jako dziedzinę nauki (by wymienić tylko dziedzinę psychologii społecznej), choć skutki oddziaływania kultury na psychologię nie zostały dotąd dogłębnie zbadane. Istnieje ryzyko, że teorie psychologiczne oraz dane zgromadzone w badaniach z udziałem osób białych i ze świata zachodniego mogą nie mieć zastosowania wobec ludzi i grup społecznych wywodzących się z innych kultur (Betancourt i López, 1993).
Jedną z trudności, z którą musi mierzyć się psychologia międzykulturowa, jest to, że w ramach poszukiwania różnic między cechami psychologicznymi charakterystycznymi dla różnych kultur konieczne jest odejście od zastosowania wyłącznie prostej statystyki opisowej (Betancourt i López, 1993). Oznacza to, że dziedzina ta nadal pozostaje nauką o charakterze opisowym, a nie poszukującą przyczyn i skutków.
Za przykład niech posłuży badanie Franko i współpracowników (2012) nad charakterystyką osób szukających terapii z powodu zaburzeń odżywiania (napadowego objadania się). Badano przedstawicieli trzech społeczności etnicznych: Latynosów, Afroamerykanów i białych Amerykanów. Wykazano, że pacjenci latynoscy zgłaszali najsilniejsze objawy napadowego objadania się spośród wszystkich grup, biali Amerykanie przeżywali najsilniejszy stres związany z wagą i wyglądem ciała, Afroamerykanie z kolei mieli najwyższe wskaźniki w próbach kontroli jedzenia (Franko et al., 2012). Wykazano istnienie znacznych różnic między tymi grupami etnicznymi pacjentów w przebiegu i charakterystyce ich zaburzeń odżywiania, ale badanie nie jest w stanie powiedzieć nic nt. przyczyn tych różnic, poza konkluzją, że owszem, istnieją.
Psychologowie międzykulturowi rozwinęli teorie i badania nad charakterystyką różnych populacji, często odmienną, mimo iż ich przedstawiciele zamieszkują ten sam kraj. Rozwinięto także porównania funkcjonowania psychologicznego populacji z różnych państw. Jako przykład można tu chociażby wymienić badania nad przeżywaniem traumy i objawami stresu traumatycznego u przedstawicieli różnych kultur (Schnyder et al., 2016).
W 1920 roku Cecil Sumner (1895-1954) zapisał się w historii jako pierwszy Afroamerykanin, który zdobył tytuł doktora psychologii w Stanach Zjednoczonych. Sumner był także założycielem programu studiów psychologicznych na Uniwersytecie Howarda, który wykształcił nowe pokolenie afroamerykańskich psychologów (Black et al., 2004). Znaczna część pracy i wkładu tych psychologów poświęcona była testowaniu inteligencji oraz promowaniu innowacyjnych metod edukacji, dostosowanych do dzieci z różnych środowisk kulturowych. Przykładowo, amerykański psycholog George Isidore Sánchez (1906-1972) zwracał uwagę, że różnice językowe i kulturowe nie pozwalają dzieciom z kultur odmiennych niż biała osiągać adekwatnych wyników w nauce i w testach inteligencji. Sánchez rozwijał swoje teorie podczas pracy na Uniwersytecie w Teksasie, a także wdrażał adekwatne metody edukacji dla dzieci z różnych środowisk (Black et al., 2004).
Dwoje innych uznanych afroamerykańskich badaczy i psychologów to Mamie Philips Clark (1917-1983) i jej mąż Kenneth Clark (1903-1983). Najbardziej znane z ich badań to te przeprowadzone na dzieciach pochodzenia afroamerykańskiego z wykorzystaniem lalek. Badania te dowiodły istnienia kontrastu między afroamerykańskimi dziećmi uczęszczającymi do wydzielonych dla nich szkół w Waszyngtonie a tymi uczęszczającymi wspólnie z białymi dziećmi do integracyjnych szkół w Nowym Jorku. W eksperymencie wykorzystywano dwie identyczne lalki różniące się jedynie kolorem skóry i włosów. Jedna lalka była biała z żółtymi włosami, a druga była brązowa z czarnymi włosami. Dziecku zadawano pytania dotyczące lalek, np. którą lalką chciałoby się pobawić, która z nich jest ładna, która mu się nie podoba etc. Eksperyment wykazał wyraźną preferencję dla białej lalki wśród wszystkich dzieci biorących udział w badaniu. Odkrycia te ujawniły tzw. zinternalizowany (uwewnętrzniony) rasizm u dzieci afroamerykańskich oraz poczucie nienawiści do siebie, poczucie to było silniejsze wśród dzieci poddanych segregacji niż wśród uczęszczających do szkół integracyjnych. Prace Clarków miały istotny wpływ na rozstrzygnięcie w słynnej sprawie Brown kontra Rada Edukacji i orzeczenia Sądu Najwyższego Stanów Zjednoczonych, że zasada segregacji rasowej w edukacji publicznej była niekonstytucyjna. Wnioski płynące z badań Clarków znalazły zastosowanie w działaniach opieki społecznej, a samo małżeństwo założyło pierwszą poradnię wychowawczą dla dzieci w Harlemie (American Psychological Association, 2019).
Posłuchaj podcastu poniżej na temat badań prowadzonych przez Clarków i ich wpływu na rozstrzygnięcie sprawy prowadzonej przed Sądem Najwyższym.
### Podsumowanie
Zanim Wundt i James podjęli tematy związane z psychologią, kwestie dotyczące ludzkiego umysłu były domeną filozofów. Jednak zarówno Wundt, jak i James przyczynili się do wyodrębnienia psychologii jako osobnej dyscypliny naukowej. Wundt był strukturalistą, czyli wierzył, że nasze doświadczenie poznawcze można najlepiej zrozumieć przez rozłożenie go na części składowe. Uważał, że najskuteczniejszą metodą wykorzystywaną do tego celu jest introspekcja.
William James był pierwszym amerykańskim psychologiem będącym propagatorem funkcjonalizmu. Według założeń tego nurtu psychologii aktywność umysłu prowadziła do wytworzenia reakcji adaptacyjnej w celu dostosowania się do środowiska. Podobnie do Wundta, James również stosował metodę introspekcji, chociaż jego podejście badawcze uwzględniało także bardziej obiektywne metody.
Zygmunt Freud uważał, że zrozumienie nieświadomego umysłu miało kluczowe znaczenie dla zrozumienia działań świadomych. Jego zdaniem było to istotne w szczególności dla pacjentów cierpiących na różne odmiany histerii i nerwic. Freud postrzegał analizę marzeń sennych, obserwację przejęzyczeń i wolnych skojarzeń jako środki pozwalające na uzyskanie wglądu do nieświadomości człowieka. Teoria psychoanalityczna była dominującym nurtem psychologii klinicznej w kolejnych dekadach w Europie.
Psychologia Gestalt odegrała duże znaczenie w Europie. Nurt ten przyjmuje holistyczne spojrzenie na człowieka i jego doświadczenia. Po dojściu do władzy nazistów w Niemczech Wertheimer, Koffka i Köhler osiedlili się w Stanach Zjednoczonych. Mimo że ci naukowcy ostatecznie porzucili badania w dziedzinie psychologii, to im przypisuje się wprowadzenie do amerykańskich nauk psychologicznych teorii Gestalt. Niektóre z zasad stosowanych w psychologii Gestalt są nadal stosowane w badaniu doznań i percepcji.
Jednym z najbardziej wpływowych nurtów w historii psychologii był behawioryzm, kładący nacisk jedynie na obserwowalne zachowania i reakcje. Celem psychologów behawioralnych było uczynienie psychologii obiektywną dziedziną nauki, co chcieli osiągnąć w drodze badań zachowań i umniejszania wagi procesów mentalnych niedających się zaobserwować. Za ojca behawioryzmu uznaje się najczęściej Johna Watsona, choć wpływ badań prowadzonych przez B.F. Skinnera na współczesne rozumienie zasad rządzących warunkowaniem sprawczym jest znaczny.
Wraz z rosnącą dominacją teorii behawiorystycznych i psychoanalitycznych w obszarze psychologii część naukowców coraz silniej nie zgadzała się z obrazem człowieka, jaki wyłaniał się z tych nurtów. Skutkiem tego sprzeciwu było powstanie nurtu humanistycznego w psychologii. Humanizm zakłada, że wszyscy ludzie mają wrodzony potencjał dobra. Największy wpływ na rozwój psychologii humanistycznej mieli Maslow i Rogers.
Lata 50. XX wieku to okres początków zmian w psychologii. Nauka, której głównym przedmiotem zainteresowań był behawioryzm, zaczęła wracać do źródeł, czyli badań nad procesami umysłowymi. Powstanie neuronauki i informatyki było jednym z motorów tych zmian. Ostatecznie nastała rewolucja kognitywna, a wraz z nią przekonanie, że to dzięki badaniu procesów poznawczych można naprawdę zrozumieć zachowania ludzkie.
### Review Questions
### Critical Thinking Questions
### Personal Application Questions
|
# Wstęp do psychologii
## Psychologia współczesna
Współczesna psychologia to szeroka i zróżnicowana dziedzina nauki, na którą wpływ miały wszystkie historyczne nurty opisane w poprzednim podrozdziale. W tym podrozdziale znajdziesz przegląd głównych nurtów psychologii współczesnej przedstawionych w kolejności, w jakiej są one omawiane dalej w niniejszym podręczniku. Nie jest to katalog zamknięty, ale wystarczający do zapoznania się z podstawowymi obszarami badań psychologicznych i praktyki dzisiejszych psychologów.
### Psychobiologia i psychologia ewolucyjna
Jak sugeruje nazwa, psychobiologia (ang. ) bada wpływ biologii na nasze zachowanie. Psychobiologia jest szeroką dziedziną nauki, wielu psychobiologów stawia sobie za cel zrozumienie, w jaki sposób budowa i funkcjonowanie układu nerwowego są powiązane z zachowaniem (). Często łączą oni strategie badawcze stosowane zarówno w psychologii, jak i w fizjologii (Carlson, 2013).
Zainteresowania badawcze psychobiologów obejmują szereg zagadnień, m.in. narządy zmysłów, układ ruchu, sen, zmiany fizjologiczne i behawioralne w wyniku zażywania i nadużywania narkotyków, działanie układu trawiennego, układu rozrodczego, rozwój neurologiczny, plastyczność układu nerwowego i biologiczne korelacje zaburzeń psychicznych. Ze względu na bardzo szeroką tematykę psychobiologii w jej badania zaangażowani są specjaliści z różnych dziedzin (biolodzy, lekarze, fizjolodzy i chemicy). Takie interdyscyplinarne podejście do badań układu nerwowego (głównie centralnego układu nerwowego) nazywane jest neuronauką. Łączy w sobie wiedzę medyczną, biologiczną, biochemiczną, biofizyczną, informatyczną i psychologiczną. Psychobiologia jest jedną z powiązanych z nią dziedzin (Carlson, 2013).
O ile psychobiologia koncentruje się przede wszystkim na fizjologicznych przyczynach zachowań człowieka lub innych organizmów, o tyle psychologia ewolucyjna zajmuje się badaniem podstawowych przyczyn warunkujących zachowania. Jako podstawowe przyczyny zachowania możemy wskazać optymalne przystosowanie się i funkcjonowanie organizmu w jego środowisku, a także reprodukcję. Wskaźnikiem adaptacji do środowiska będzie m.in. dane zachowanie czy cecha anatomiczna, przekazywane następnym pokoleniom w genach.
Badanie zachowania w kontekście ewolucji ma swoje początki w teorii Karola Darwina (1809-1882), jednego z twórców teorii ewolucji. Darwin miał świadomość tego, że zachowanie musi mieć charakter adaptacyjny i temu tematowi poświęcił swoje książki Pochodzenie człowieka (1871) oraz O wyrazie uczuć u człowieka i zwierząt (1872).
Psychologia ewolucyjna (ang. ), a w szczególności psychologia ewolucyjna człowieka powraca do łask w ostatnich dekadach. Aby podlegać ewolucji w drodze doboru naturalnego, dane zachowanie musi mieć konkretne podłoże genetyczne. Ogólnie rzecz biorąc, oczekujemy, że jeśli dane zachowanie jest uwarunkowane genetycznie, to we wszystkich kulturach ludzkich powinno ono być wyrażane podobnie, ponieważ różnice genetyczne między poszczególnymi populacjami ludzkimi są niewielkie.
Podejście przyjęte przez większość psychologów ewolucyjnych zakłada, że da się przewidzieć skutek zachowania w określonej sytuacji w oparciu o teorię ewolucji, tj. przydatność takiego zachowania dla przetrwania, a następnie jego powielenie w drodze doboru naturalnego. Psychologowie ewolucyjni prowadzą obserwacje i eksperymenty w celu weryfikacji, czy skutki takich zachowań odpowiadają tym wskazanym w teorii ewolucji. Warto mieć świadomość, że tego rodzaju badania nie dają wiarygodnych dowodów na to, że zachowania mają charakter adaptacyjny, ponieważ brakuje w nich danych na temat tego, czy określone zachowanie jest uwarunkowane genetycznie, a nie tylko kulturowo (Endler, 1986). Dowiedzenie, że jakaś cecha, w szczególności występująca u ludzi, jest skutkiem działania teorii doboru naturalnego, to niezwykle trudne zadanie. Być może właśnie dlatego niektórzy psychologowie ewolucyjni zazwyczaj przyjmują założenie a priori, że zachowania, które badają, są uwarunkowane genetycznie (Confer et al., 2010).
Jedną ze słabości psychologii ewolucyjnej jest to, że nasze cechy uległy ewolucji pod wpływem oddziaływania pewnych czynników środowiskowych i społecznych występujących na przestrzeni dziejów (kilkanaście tysięcy lat), a nie posiadamy pełnej wiedzy na temat tego, co to były za czynniki. Z tego względu przewidywanie, które z zachowań mają charakter adaptacyjny, jest niezwykle trudne. Cechy behawioralne niekoniecznie są cechami adaptacyjnymi w warunkach dzisiejszych, choć mogły mieć taki charakter w warunkach występujących w przeszłości.
Istnieje wiele obszarów związanych z zachowaniem ludzkim, dla których można znaleźć odpowiedź w historii ewolucji. Są to między innymi: pamięć, dobór partnerów, relacje między krewnymi, przyjaźń i współpraca, rodzicielstwo, organizowanie się społeczności i pozycja w społeczeństwie (Confer et al., 2010).
Psychologowie ewolucyjni zaobserwowali, że między ludźmi istnieją wyraźne międzykulturowe podobieństwa w zakresie oczekiwań. Przykładowo, w badaniu dotyczącym preferencji w wyborze partnera prowadzonym na grupie kobiet i mężczyzn należących do 37 różnych kręgów kulturowych, Buss (1989) odkrył, że dla kobiet ważniejszy był potencjał zarobkowy przyszłego partnera, podczas gdy mężczyźni uważali za istotniejsze czynniki związane z potencjałem rozrodczym (młodość i atrakcyjność). Generalnie założenia badawcze były porównywalne z założeniami teorii ewolucyjnych, choć zaobserwowano różnice pomiędzy przedstawicielami niektórych kręgów kulturowych.
### Doznania i percepcja
Badacze zainteresowani fizjologią i psychologią postrzegania rzeczywistości zajmują się badaniem wrażeń zmysłowych (ang. ) oraz spostrzegania (ang. ) (). Badania nad wrażeniami (doznaniami) i spostrzeganiem (percepcją) są w znacznym stopniu interdyscyplinarne. Wyobraź sobie, że idziesz między budynkami, udając się na kolejne zajęcia. Otaczają cię widoki, dźwięki, odczuwasz zapachy, możesz dotknąć budynku, drzewa i poczuć ich fakturę. Doświadczasz również doznań związanych z temperaturą powietrza, ponadto idąc, utrzymujesz równowagę ciała. Te wszystkie czynniki leżą w zakresie zainteresowań badacza zajmującego się tematyką doznań i percepcji.
W jednym z dalszych rozdziałów podręcznika, w którym znajduje się omówienie wyników badań nad doznaniami i percepcją, dowiesz się też, że sposób odbierania świata nie jest tylko prostą sumą informacji sensorycznych, jakie do nas docierają. Nasze doświadczenie (percepcja) ma bardzo złożony charakter, a wpływ na nie mają różne czynniki, m.in. to, na czym skupiamy uwagę w danej chwili, nasze wcześniejsze doświadczenia, a nawet krąg kulturowy, z jakiego się wywodzimy.
### Psychologia poznawcza
W poprzednim podrozdziale była już mowa o tym, że rewolucja poznawcza (kognitywna) miała ogromny wpływ na psychologów i skłoniła ich do powrotu do badań nad definicyjnym zagadnieniem psychologii, tj. badania umysłu i procesów poznawczych leżących u podstaw zachowań (po dominacji behawioryzmu, który zajmował się tylko zachowaniem). Psychologia poznawcza (ang. ) to obszar psychologii, który zajmuje się badaniem procesów poznawczych, czyli percepcji oraz procesów myślowych, oraz ich związku z naszymi działaniami. Podobnie do psychobiologii, psychologia poznawcza obejmuje szeroki zakres tematyczny i często w ramach tej dziedziny dochodzi do współpracy osób specjalizujących się w różnych dyscyplinach naukowych. Właśnie dlatego ukuto termin „kongnitywistyka” – w celu opisania interdyscyplinarnego charakteru tej dziedziny badawczej (Miller, 2003). Kognitywistyka zajmuje się obserwacją i analizą działania zmysłów, fizjologii mózgu i funkcjonowania umysłu, w szczególności ich modelowaniem. Znajduje się na pograniczu wielu dziedzin (psychologii poznawczej, neurobiologii, filozofii umysłu, sztucznej inteligencji, lingwistyki, logiki i fizyki).
Psychologowie poznawczy zajmują się m.in. funkcjonowaniem uwagi, rozwiązywaniem problemów, używaniem języka i funkcjonowaniem pamięciowym. Podejścia stosowane w badaniach tych kwestii są równie zróżnicowane. W związku z tym psychologia poznawcza została omówiona w więcej niż tylko jednym rozdziale podręcznika. Inne aspekty związane z psychologią poznawczą znajdziesz w dalszych rozdziałach poświęconych procesom myślowym, pamięci, rozwoju życia człowieka, psychologii społecznej i psychoterapii.
### Psychologia rozwojowa
Psychologia rozwojowa (ang. ) to dziedzina psychologii zajmująca się rozwojem człowieka w ciągu jego życia. Psychologów specjalizujących się w psychologii rozwojowej interesują procesy powiązane z dojrzewaniem fizycznym i psychicznym. Przedmiotem ich badań są zmiany fizyczne zachodzące w organizmie ludzkim z wiekiem oraz zmiany zachodzące w umiejętnościach poznawczych, rozumowaniu moralnym, zachowaniach społecznych i w przejawach funkcjonowania psychicznego człowieka.
Pierwsi psychologowie rozwojowi skupiali się przede wszystkim na obserwacji zmian podczas dojrzewania i dostarczyli nauce wielu ważnych informacji na temat różnic pomiędzy dziećmi a dorosłymi w zakresie umiejętności fizycznych, poznawczych czy społecznych. Przykładowo, badania prowadzone przez Jeana Piageta (1896–1980) () dowiodły, że małe dzieci nie mają świadomości stałości przedmiotu. Pojęcie „stałości przedmiotu” odnosi się do zrozumienia, że fizyczne przedmioty istnieją dalej, nawet jeżeli je przed nami schowano. Gdyby pokazać dorosłej osobie zabawkę, a następnie schować ją za zasłoną, to osoba ta wiedziałaby, że zabawka nadal istnieje. Jednak małe dzieci zachowują się tak, jakby schowana zabawka przestała realnie istnieć. Nie ma przy tym zgody wśród badaczy odnośnie do wieku, w którym człowiek rozwija umiejętność rozumienia stałości przedmiotu; wskazywany jest przedział wiekowy między drugim a trzecim rokiem życia (Munakata et al., 1997).
Choć Piaget zajmował się zmianami poznawczymi zachodzącymi u człowieka w wieku dziecięcym i młodzieńczym, to coraz więcej psychologów rozwojowych opowiada się za rozszerzeniem badań na zmiany, których doświadczamy na dalszych etapach życia. Dzięki temu dowiadujemy się, jak zmieniały się całe populacje demograficzne w państwach rozwiniętych. Wraz ze stopniowym wzrostem długości życia człowieka, rośnie liczba osób w podeszłym wieku. Według danych GUS przybywa mieszkańców Polski w wieku 65 lat i starszych. W końcu 2019 roku ich liczba wyniosła ponad 8,4 mln, a ich udział w ogólnej populacji wzrósł do 21,9%. (wobec odpowiednio 5,7 mln, tj. niespełna 15 %, w 2000 r.). W 2050 roku Polska stanie się jednym z krajów w Europie o najbardziej zaawansowanym procesie starzenia się populacji. Osoby w wieku 65 lat i starsze będą w Polsce wówczas stanowiły 31,5% populacji (GUS, 2020).
### Psychologia osobowości
Psychologia osobowości (ang. ) zajmuje się badaniem stałej struktury psychicznej człowieka, tj. osobowości – stosunkowo stałych cech psychicznych, schematów myślenia czy wrażliwości psychicznej jednostki, które nadają względną spójność jej zachowaniu. W rozwój wczesnych teorii osobowości wnieśli wkład m.in. Zygmunt Freud, Abraham Maslow (była o nich mowa w podrozdziale o historii psychologii) oraz Gordon Allport (1897-1967). Badacze ci podjęli próbę wyjaśnienia, w jaki sposób następuje rozwój osobowości u człowieka. Freud był zdania, że osobowość jest wynikiem wewnętrznych konfliktów między świadomymi a nieświadomymi częściami umysłu, które zachodzą przez całe życie. W szczególności Freud twierdził, że człowiek przechodzi różne etapy rozwoju psychoseksualnego. Według tej teorii osobowość dorosłego tworzy się w wyniku rozwiązania różnych wewnętrznych konfliktów, które koncentrowały się wokół rozwoju psychoseksualnego i zmiany znaczenia stref erogennych (dostarczających przyjemności): od oralnych (u niemowlęcia) do genitalnych (u dorosłego człowieka). Podobnie do wielu teorii Freuda i ta koncepcja budziła kontrowersje i nie została w żaden sposób udowodniona naukowo (Person, 1980).
W ostatnich latach badania dotyczące osobowości przyjęły bardziej ilościowy charakter. Mniej skupiają się na wyjaśnianiu sposobów, w jaki rozwija się osobowość człowieka, bardziej zaś na rozpoznaniu cech osobowości (ang. ): na pomiarach tych cech (np. ekstrawersji) oraz określaniu ich interakcji w celu przewidzenia zachowania człowieka w danej sytuacji. Bada się na przykład wpływ interakcji wysokiego poziomu ekstrawersji i wysokiego poziomu ugodowości na zachowania asertywne.
Cechy osobowości to relatywnie trwałe schematy myślowe i schematy zachowań. Na przestrzeni lat powstały różne teorie mające określić liczbę cech wchodzących w skład opisu osobowości. Obecnie dominuje pogląd, że do zbadania różnych wariantów osobowości ludzkiej wystarcza pięć wymiarów cech. Te wymiary osobowości nazywa się „Wielką piątką” lub pięcioczynnikowym modelem osobowości (ang. ). Te pięć cech osobowości wyróżniono na podstawie wieloletnich analiz dostępnych danych naukowych oraz zastosowania skomplikowanych modeli statystycznych. Obejmują one sumienność, ugodowość, neurotyczność, otwartość na doświadczenie i ekstrawersję (). Każda z tych cech okazuje się stosunkowo niezmienna przez cały okres życia człowieka (np. Rantanen et al., 2007; Soldz i Vaillant, 1999; McCrae i Costa, 2008) i jest uwarunkowana genetycznie (np. Jang et al., 1996).
### Psychologia społeczna
Psychologia społeczna (ang. ) zajmuje się interakcjami i relacjami między ludźmi. Badania psychologii społecznej obejmują szeroki zakres tematyczny, m.in. różnice w sposobach wyjaśniania naszych własnych zachowań w porównaniu z zachowaniami innych osób, uprzedzenia, atrakcyjność społeczną czy sposoby rozwiązywania konfliktów międzyludzkich. Psychologowie społeczni starają się także zbadać, jak obecność innych ludzi wpływa na nasze schematy myślowe i zachowanie.
Istnieje wiele ciekawych badań prowadzonych w obszarze psychologii społecznej i możesz o nich przeczytać w dalszych rozdziałach tego podręcznika. Na razie jednak omówimy jedno z najbardziej kontrowersyjnych badań psychologicznych w historii, mianowicie eksperyment Milgrama.
Stanley Milgram (1933–1984) to amerykański psycholog społeczny najbardziej znany ze swoich badań w obszarze uległości. W 1961 roku zbrodniarz nazistowski Adolf Eichmann oskarżony o popełnienie masowych zbrodni przeciw ludzkości stanął przed sądem. Wiele osób zastanawiało się, jak członkowie nazistowskiego aparatu terroru byli w stanie prowadzić swą zbrodniczą działalność na terenach okupowanych państw czy w licznych obozach koncentracyjnych. Wytłumaczenia, jakoby jedynie wykonywali rozkazy zwierzchników, nie brzmiały przekonująco. W tym czasie większość psychologów zgadzała się, że niewiele osób zadawałoby ból i cierpienie tylko dlatego, że otrzymały takie polecenie. Milgram postanowił przeprowadzić badanie w celu weryfikacji powyższego założenia ().
Milgram dowiódł, że niemal dwie trzecie badanych było skłonnych zadawać innemu człowiekowi wstrząsy elektryczne o śmiertelnym natężeniu tylko dlatego, że otrzymali takie polecenie od osoby, którą postrzegali jako autorytet (w tym przypadku była to osoba w kitlu laboratoryjnym). Jednocześnie warto pamiętać, że badani nie mieli możliwości wycofania się z badania. W rzeczywistości nikt w tym doświadczeniu nie ucierpiał – eksperyment Milgrama był sprytnym fortelem, bo w roli osób, którym badani mieli wymierzać kary, wystąpiły osoby współpracujące z Milgramem. Otrzymały one jasne i konkretne wytyczne co do swojego zachowania i reakcji, jakie miały prezentować w trakcie doświadczenia (Hock, 2009).
Niejako przy okazji badań Milgrama, które wiązały się z oszustwem i możliwością wywołania negatywnych skutków emocjonalnych u badanych, opracowano kodeks etyczny dla badaczy. Głównym celem wprowadzonych wytycznych było zapobieżenie sytuacjom, w których mogło dojść do wprowadzenia badanych w błąd, chyba że podanie prawdziwego celu eksperymentu mogłoby wpłynąć na jego wyniki (po przeprowadzeniu badania uczestnik musi jednak zostać poinformowany o jego prawdziwym celu – jest to tzw. procedura odkłamania). Wprowadzono także wymóg uzyskania świadomej zgody badanych na udział w eksperymencie.
Sam eksperyment Milgrama został poddany szerokiej analizie oraz krytyce, a jego późniejsze replikacje (oraz modyfikacje) zarówno potwierdziły tezy autora, jak i im zaprzeczyły. Więcej na ten temat możesz przeczytać choćby w artykule Voegels „” (2014).
### Psychologia pracy i organizacji
Psychologia pracy i organizacji (ang. ) to dziedzina psychologii, która zajmuje się zastosowaniem teorii psychologicznych, zasad i wyników badań w kontekście pracy oraz funkcjonowania organizacji. Psychologowie z taką specjalizacją często są angażowani do zadań związanych z zarządzaniem zasobami ludzkimi, strukturą organizacyjną i środowiskiem pracy. Firmy często korzystają z usług psychologów pracy i organizacji w procesach rekrutacyjnych oraz w celu stworzenia warunków pracy, które przełożą się na wysoką wydajność i skuteczność pracowników. Poza praktycznym zastosowaniem teorii w tym kontekście psychologia pracy i organizacji zajmuje się także badaniami naukowymi w środowisku pracy i organizacji (Riggio, 2013).
### Psychologia zdrowia
Psychologia zdrowia (ang. ) zajmuje się wpływem interakcji czynników biologicznych, psychologicznych i społeczno-kulturowych na zdrowie. To podejście nosi miano biopsychospołecznego modelu zdrowia (ang. ) (). Celem pracy psychologów zdrowia jest pomaganie ludziom w osiągnięciu poprawy stanu zdrowia przez wywieranie wpływu na kształt polityki państwa w tym zakresie, prowadzenie działań edukacyjnych, interwencyjnych oraz badania naukowe. Psychologowie zdrowia mogą prowadzić badania nad związkami zdrowia z genetyką, zachowaniami, relacjami z innymi oraz stresem. Opracowują również metody pomagające ludziom w zmianie szkodliwych zdrowotnie wzorców zachowań (MacDonald, 2013).
### Psychologia sportu i aktywności fizycznej
Psychologowie specjalizujący się w psychologii sportu i aktywności fizycznej (ang. ) zajmują się między innymi badaniem aspektów psychologicznych osiągania wyników sportowych, w tym motywacją i lękiem związanym ze startem w zawodach, a także wpływem aktywności sportowej na stan psychiczny i emocjonalny sportowców. Zainteresowania badawcze psychologii sportu wykraczają jednak poza zagadnienia sportu i wysiłku fizycznego, dotyczą bowiem także kwestii związanych z wydajnością psychiczną i fizyczną osób pracujących w trudnych warunkach, np. strażaków, żołnierzy, artystów performatywnych czy chirurgów.
### Psychologia kliniczna
Psychologia kliniczna (ang. ) to obszar psychologii, który koncentruje się na diagnostyce i leczeniu zaburzeń psychicznych oraz problematycznych zachowań. W związku z tym uważa się, że ma charakter bardziej praktyczny niż teoretyczny, jednak część psychologów klinicznych zajmuje się także prowadzeniem badań naukowych. Poradnictwo psychologiczne (ang. ) to obszar psychologii, który koncentruje się na poprawie emocjonalnych, społecznych, zawodowych i pozostałych aspektów życia osoby zdrowej psychicznie. Nie należy mylić go z psychoterapią (tj. złożonym i specjalistycznym procesem leczenia zaburzeń psychicznych). Poradnictwo psychologiczne ma raczej charakter doraźny i krótkoterminowy (np. konkretne wskazówki wychowawcze dla rodziców agresywnego trzylatka, wskazówki polepszenia komunikacji dla pary w kryzysie etc.).
Jak wspomniano już wcześniej, teorie sformułowane przez Zygmunta Freuda i Carla Rogersa miały znaczny wpływ na kształt relacji pomiędzy terapeutą a pacjentem (od milczącej i wycofanej postawy terapeuty w psychoanalizie po otwartą i żywą postawę terapeuty humanistycznego). O ile pewne aspekty teorii psychoanalitycznych nadal znajdują zastosowanie w pracy terapeutycznej współczesnych psychoterapeutów wykształconych w nurcie terapii psychodynamicznej, to zaproponowane przez Rogersa podejście do terapii (ang. ) stawiające w centrum uwagi pacjenta miało duży wpływ na działalność psychologów klinicznych w ogóle. Obecnie większość szkół psychoterapeutycznych akcentuje znaczenie dobrej relacji terapeutycznej dla osiągnięcia zmiany w terapii, a jej elementami są takie cechy postawy terapeuty jak: wsparcie, empatia, zainteresowanie pacjentem i jego problemami, spójność i autentyczność – tj. wszystkie cechy postulowane przez Rogersa.
Na obecny kształt psychologii klinicznej wpływ wywarły także behawioryzm i rewolucja kognitywistyczna, przyczyniając się do rozwoju nurtu psychoterapii behawioralnej, psychoterapii poznawczej oraz psychoterapii poznawczo-behawioralnej (). Kwestie związane z diagnozą i leczeniem zaburzeń psychicznych i problematycznych schematów zachowań będą szczegółowo omówione w dalszej części podręcznika. Bez wątpienia psychologia kliniczna jest obszarem psychologii najczęściej obecnym w mediach popularnych i wiele osób błędnie zakłada, że zadania i praktyka psychologii to niemal wyłącznie praca z pacjentami i psychoterapia.
### Psychologia sądowa
Psychologia sądowa (śledcza) (ang. ) to obszar psychologii, w którym stosuje się dorobek naukowy i praktyczny psychologii w kwestiach związanych z wymiarem sprawiedliwości. Przykładowo psychologowie sądowi (i psychiatrzy sądowi) zajmują się oceną, czy dana osoba jest w stanie wziąć udział w postępowaniu sądowym, wydają opinię na temat stanu umysłowego oskarżonych w momencie popełnienia przestępstwa, pełnią rolę konsultantów w sprawach o ustalenie opieki nad dziećmi, doradzają w procesie wydawania wyroków i zaleceń korekcyjnych. Występują także jako konsultanci w sprawach, w których przesłuchiwani są naoczni świadkowie zbrodni oraz dzieci (American Board of Forensic Psychology, 2014). W tym kontekście pełnią rolę biegłych sądowych wzywanych przez sąd czy jedną ze stron do opracowania ekspertyzy na podstawie przeprowadzonych badań i swojego doświadczenia zawodowego. Psychologowie zatrudniani jako biegli sądowi muszą mieć specjalistyczną wiedzę prawniczą na temat działania systemu prawa i na temat zasad wydawania opinii w kontekście sądowym, a nie tylko w ramach psychologii. Profilerzy kryminalni to z kolei mały odsetek psychologów, którzy współpracują z organami ścigania w charakterze konsultantów, np. tworzą profil osobowości, motywów i możliwych dalszych zachowań sprawcy przestępstwa.
### Podsumowanie
Psychologia to różnorodna dyscyplina wiedzy, na którą składa się kilka głównych poddziedzin charakteryzujących się odmiennymi podejściami badawczymi. Psychobiologia zajmuje się badaniem biologicznych podstaw zachowania. Doznania zmysłowe i percepcja to tematy, którymi zajmuje się poddziedzina psychologii badająca sposób postrzegania informacji płynących do nas za pośrednictwem zmysłów i tym, jak te informacje są przetwarzane w doświadczenia postrzegania świata wokół nas. Psychologia poznawcza bada związek między procesami myślenia a zachowaniem, a psychologowie rozwojowi zajmują się badaniem fizycznych i psychicznych zmian zachodzących w ciągu całego życia człowieka. Psychologia osobowości koncentruje się na cechach osobowości, tj. względnie stałych schematach myśli i emocji, mających wpływ na zachowanie. Psychologia pracy i organizacji, psychologia zdrowia, sportu, sądowa i kliniczna uznawane są za dziedziny psychologii stosowanej. Psychologowie pracy i organizacji stosują koncepcje psychologiczne w kontekście środowisk zawodowych. Psychologowie zdrowia poszukują sposobów na poprawę stanu zdrowia człowieka, a psychologowie kliniczni zajmują się diagnostyką i leczeniem zaburzeń psychicznych i problematycznych zachowań. Psychologowie sportu i aktywności fizycznej badają związki między myślami, emocjami a osiągnięciami w sporcie, wysiłkiem i aktywnością fizyczną. Psychologowie sądowi zajmują się zastosowaniem teorii i praktyki psychologicznych w ramach wymiaru sprawiedliwości.
### Review Questions
### Critical Thinking Questions
### Personal Application Question
|
# Wstęp do psychologii
## Kariera zawodowa psychologa
Tematyka, jakiej psychologowie podejmują się w pracy zawodowej, jest bardzo różnorodna. W Polsce prawo do wykonywania zawodu psychologa uzyskuje się jedynie po ukończeniu pięcioletnich magisterskich studiów psychologicznych (licencjat z psychologii jest niewystarczający, o czym mówi Ustawa z dnia 8 czerwca 2001 o zawodzie psychologa i samorządzie zawodowym psychologów).
Jeśli zależy ci na karierze naukowej w tej dziedzinie, musisz uzyskać stopień doktora nauk społecznych w dziedzinie psychologii. Można go zdobyć na dwa sposoby: kontynuując naukę na czteroletnich studiach doktoranckich, kończących się one obroną pracy doktorskiej, lub doktoryzując się z tzw. „wolnej stopy”, tj. zajmując się wyłącznie badaniami naukowymi niezbędnymi do doktoratu oraz pisaniem pracy, bez udziału w zajęciach i bez świadczenia pracy dydaktycznej.
Wymogi uzyskania stopnia doktora różnią się w zależności od kraju, a nawet od uczelni, przy czym zazwyczaj osoby ubiegające się o uzyskanie tego stopnia muszą napisać i obronić rozprawę doktorską. W Polsce dysertacja (ang. ) jest rozbudowaną pracą, zawierającą: opis tematu badawczego, wartości edukacyjnych i praktycznych wynikających z zajęcia się nim, szczegółową i rozbudowaną część teoretyczną (opis dostępnych badań i teorii stanowiących podstawę do określenia problemu badawczego doktoratu), wreszcie – opis własnych badań: ich założeń, hipotez i uzyskanych wyników. Wymogiem każdej pracy doktorskiej jest uzasadnienie jej wkładu w rozwój psychologii. Praca doktorska podlega obronie przed komisją złożoną z dwóch recenzentów, specjalistów w danej dziedzinie. Recenzenci mają prawo do pytań i uwag krytycznych, a doktorant – do odpowiadania na nie. Warunkiem przyznania stopnia doktora jest pozytywna opinia i rekomendacja wszystkich recenzentów ().
Po uzyskaniu stopnia doktora można się ubiegać o zatrudnienie na uczelni. Pracownicy naukowi zatrudnieni na uczelniach zazwyczaj dzielą swój czas zawodowy między prowadzenie badań, nauczanie i pracę na rzecz swojej instytucji (np. udział w różnych komisjach naukowych, wydawanie ekspertyz, publikację artykułów, recenzję innych prac naukowych etc.). Czas poświęcany każdemu z tych zadań jest bardzo różny w zależności od uczelni. Nierzadko pracownicy naukowi przenoszą się na kolejne uniwersytety, aby znaleźć dla siebie najlepsze środowisko akademickie. W poprzednim podrozdziale omówiono główne nurty psychologii, jakimi zajmują się wydziały psychologii w kraju; w związku z tym, w zależności od zdobytego doświadczenia, absolwent studiów psychologicznych może łączyć pracę naukową z inną specjalizacją praktyczną (np. psychologią kliniczną, psychologią biznesu etc.).
### Inne ścieżki kariery w środowisku akademickim
Niekiedy na uczelniach brakuje pełnoetatowych pracowników naukowych, którzy mogliby poprowadzić oferowane przez te uczelnie kursy dydaktyczne. W takich przypadkach często zaprasza się wykładowców i nauczycieli z odpowiednim wykształceniem spoza uczelni, którzy zazwyczaj prowadzą działalność psychologiczną poza środowiskiem uniwersyteckim. Takie osoby nie zawsze muszą legitymować się stopniem doktora, wymaganym przez większość uczelni prowadzących 5-letni program studiów na kierunku psychologia. Ponadto wiele różnych wydziałów mających w swoim programie studiów zajęcia z psychologii poszukuje kadry do ich prowadzenia.
Pewna grupa osób, które uzyskały stopień doktora, interesuje się prowadzeniem zajęć w środowisku akademickim, ale nie chce być dydaktykami. Osoby te mogą być zatrudniane na stanowiskach o charakterze wyłącznie badawczym. Takie możliwości oferują przede wszystkim duże uniwersytety prowadzące rozbudowaną działalność badawczą lub instytucje stricte badawcze (np. Polska Akademia Nauk).
W niektórych obszarach psychologii osoby, które niedawno uzyskały stopień doktora, często szukają zatrudnienia w ramach programów rozwoju po zdobyciu stopnia naukowego doktora (ang. ), tzw. post doc., dostępnych dla planujących dalszą karierę naukową. W praktyce polega to na tym, że osoby mające stopień naukowy doktora oraz doświadczenie akademickie zatrudniane są w ramach grantów do udziału w konkretnych projektach naukowych, mogących trwać nawet kilka lat.
W większości przypadków po ukończeniu jednego lub dwóch takich programów można otrzymać propozycję stałego zatrudnienia na uczelni.
### Ścieżki kariery poza środowiskiem akademickim
Psychologia zwykle kojarzy się z szeroko rozumianą ochroną zdrowia psychicznego, tj. pracą kliniczną z pacjentami (choć nie są to jedyne możliwości zawodowe po tych studiach).
Osoby, które chcą rozpocząć praktykę w zakresie psychologii klinicznej, mogą wybrać specjalizację z psychologii klinicznej. Specjalizacja kliniczna jest jedną z głównych specjalizacji psychologii praktycznej. Zajmuje się profilaktyką, diagnostyką i terapią zaburzeń psychicznych oraz zaburzeń zachowania. W kręgu zainteresowań tej dziedziny psychologii leży przede wszystkim psychika człowieka chorego oraz mechanizmy związane z powstawaniem chorób i to, jak różne choroby wpływają na funkcjonowanie umysłu.
Do uzyskania specjalizacji z tej dziedziny wymagany jest minimum rok praktycznej pracy na stanowisku psychologa w placówce ochrony zdrowia psychicznego. Następnie kandydat musi ukończyć czteroletnie studia podyplomowe z psychologii klinicznej oraz odbyć wielomiesięczne staże (trwające nawet 1,5 roku). Specjalizacja składa się z dwóch części: podstawowej i specjalizacyjnej. W bloku podstawowym osoba specjalizująca się zdobywa podstawową wiedzę oraz umiejętności, które dotyczą zastosowania psychologii klinicznej w czterech działach medycyny: 1) psychiatrii, 2) pediatrii, 3) neurologii i 4) chorobach somatycznych.
W bloku szczegółowym osoba specjalizująca się wybiera jedną ze ścieżek specjalistycznych, aby pogłębić wiedzę i umiejętności szczegółowe, które są właściwe dla zaburzeń oraz chorób wybranego działu medycyny. Szczegółowy program kształcenia specjalizacji psychologia kliniczna określają wytyczne Ministerstwa Zdrowia (Ignaszak, 2016). Po jego ukończeniu i obronie uzyskujesz tytuł psychologa klinicznego (ang. ).
Inną możliwością specjalizacyjną jest psychoterapia. Jeśli interesuje cię praca psychoterapeuty, musisz zdobyć umiejętności i uprawnienia do prowadzenia psychoterapii – specjalistycznej metody leczenia problemów i dolegliwości, w przypadku których ważną rolę odgrywają czynniki psychiczne. Podkreślmy ważne i kluczowe rozróżnienie: psycholog nie jest psychoterapeutą.
Psycholog to osoba, która ukończyła 5-letnie studia psychologiczne i obroniła magisterium. Studia psychologiczne mają przede wszystkim walor teoretyczny – przygotowują absolwenta do rozumienia zjawisk zachodzących w ludzkiej psychice, jednak zwykle uwzględniają jedynie kilka tygodni lub miesięcy praktyk (jeśli w ogóle). Osoba po studiach psychologicznych nie ma uprawnień ani tym bardziej umiejętności do prowadzenia psychoterapii!
Psycholog kliniczny również nie jest psychoterapeutą, mimo że ukończył kilka lat specjalizacji. Psycholog kliniczny może oczywiście pracować w szpitalu, poradni zdrowia psychicznego czy ośrodku interwencji kryzysowej. Jego główne zadanie polega na wspieraniu i towarzyszeniu osobom w chorobie. Chodzi o wsparcie psychologiczne dla osób zmagających się z różnymi chorobami somatycznymi, które z definicji negatywnie wpływają na psychikę. Zaliczają się do nich zwłaszcza różne choroby przewlekłe, takie jak niewydolność serca, przewlekła obturacyjna choroba płuc, cukrzyca, choroby neurologiczne, nowotwory czy utrata sprawności ruchowej. Nierzadko psycholodzy kliniczni zajmują się prowadzeniem oddziaływań terapeutycznych – do tego jednak celu specjaliści z tej dziedziny muszą nabyć specjalistyczne uprawnienia.
Aby zostać psychoterapeutą, musisz ukończyć całościowe, czteroletnie szkolenie z zakresu psychoterapii w jednej z wybranych, uznanych szkół psychoterapii – tj. posiadających dorobek praktyczny i/lub naukowy, w tym udokumentowane dowody naukowe na skuteczność prowadzenia psychoterapii w wybranym nurcie. W Polsce uznanych jest pięć szkół psychoterapii: psychodynamiczna, poznawczo-behawioralna, systemowa, humanistyczna oraz interpersonalna.
Poza ukończeniem studiów z psychoterapii musisz spełnić szereg dodatkowych kryteriów: odbyć własną psychoterapię, prowadzić praktykę psychoterapeutyczną (zwykle minimum przez dwa lata), regularnie uczestniczyć w superwizji (przyglądać się własnej pracy klinicznej z bardziej doświadczonym specjalistą w celu wzbogacania własnych umiejętności pomocy) oraz zdać wymagane egzaminy i pozytywnie przejść ocenę prezentowanej pracy z pacjentem (przedstawienie opisu teoretycznego i nagrania sesji terapeutycznej z pacjentem).
Co jeszcze warto wiedzieć o tej ścieżce kariery? Szkoła psychoterapii jest sporym wydatkiem. W realiach polskich jest to koszt rzędu 30–40 tys. złotych w ciągu czterech lat.
W Polsce obecnie nie ma uregulowanej sytuacji prawnej dotyczącej wymagań, które musi spełniać osoba nazywająca siebie psychoterapeutą. Od kilku lat w opracowaniu jest ustawa o niektórych zawodach medycznych, lecz nie została jeszcze uchwalona. Projekt ustawy zakłada, iż zawód psychoterapeuty będzie mogła wykonywać „osoba, która ukończyła szkołę wyższą i uzyskała tytuł magistra lub magistra pielęgniarstwa lub lekarza, oraz ukończyła szkolenie podyplomowe w zakresie psychoterapii” (Ustawa z dnia 8 czerwca 2001 r. o zawodzie psychologa i samorządzie zawodowym psychologów, Dz. U. Nr 73, poz. 763). Ze względu na brak uchwalonej ustawy powstały pozaustawowe kryteria, które musi spełniać osoba, by mogła zajmować się psychoterapią – jest to ukończenie co najmniej 2 lat szkolenia psychoterapeutycznego oraz praca pod superwizją osoby posiadającej certyfikat superwizora psychoterapii.
Na koniec warto dokonać także rozróżnienia między psychoterapeutą a psychiatrą. Psychiatra to absolwent studiów medycznych, z tytułem lekarza, w trakcie lub po ukończeniu podyplomowej specjalizacji z psychiatrii. Prawo do wykonywania zawodu (z nadaniem odpowiedniego numeru) lekarz otrzymuje po zakończeniu specjalizacji. Lekarz psychiatra posiada wymagane kwalifikacje do udzielania świadczeń zdrowotnych, w szczególności polegających na: badaniu stanu zdrowia, rozpoznawaniu chorób i zapobieganiu im, leczeniu i rehabilitacji chorych, udzielaniu porad lekarskich, a także wydawaniu opinii i orzeczeń lekarskich (art. 9 ust. 1 Ustawy z dnia 11 września 2015 r. o zdrowiu publicznym, Dz. U. z 2019 r. poz. 2365 oraz z 2020 r. poz. 322.
Warto pamiętać, że praca po studiach psychologicznych to nie tylko praca stricte kliniczna. Obszarów, w których psycholog może znaleźć pracę, jest naprawdę sporo. Poniżej wymieniono niektóre:
1. psycholog dziecięcy (praca w szkołach i innych placówkach edukacyjnych oraz w poradniach psychologiczno-pedagogicznych: wsparcie, diagnoza i profilaktyka trudności edukacyjnych, psychologicznych i socjalizacyjnych wśród dzieci)
2. psycholog zwierząt – behawiorysta (praca ze zwierzętami towarzyszącymi człowiekowi, np. psami, końmi, kotami, w celu korygowania ich nieprawidłowych zachowań i nauki pożądanych umiejętności; praca z opiekunami zwierząt)
3. psycholog sportu (praca ze sportowcami w celu poprawy m.in. ich motywacji oraz radzenia sobie ze stresem związanym z aktywnością sportową, zawodami etc.)
4. psycholog zdrowia (profilaktyka i promocja zdrowia, np. kształtowanie zdrowych nawyków żywieniowych, aktywności fizycznej etc.; praca z problemami w tym zakresie)
5. psycholog pracy (rekrutacja, diagnoza i rozwój pracowników, np. prowadzenie działań nakierowanych na rozpoznanie i wspieranie specyficznych potrzeb danego zespołu, organizacji etc.)
6. psycholog transportu (diagnostyka psychologiczna i psychomotoryczna pod kątem możliwości prowadzenia pojazdów mechanicznych)
7. szkoleniowiec – coach (szeroko rozumiane wspieranie rozwoju osobowości, np. poprzez warsztaty rozwijające umiejętności komunikacyjne, interpersonalne, asertywność, radzenie sobie ze stresem, zarządzanie emocjami, zarządzanie czasem etc.; coach z definicji pracuje z osobami zdrowymi, bez zaburzeń psychicznych)
8. diagnosta (diagnozuje i opisuje funkcjonowanie psychiczne, np. przeprowadza specjalistyczne testy psychologiczne w celu diagnozy stanu zdrowia psychicznego w szpitalach i innych placówkach ochrony zdrowia psychicznego; sporządza z nich raporty, nie zajmuje się terapią!)
9. psycholog sądowy (wydaje opinie psychologiczne, które następnie mogą zostać wykorzystane przez sąd do orzekania wyroków w sprawach rodzinnych, alimentacyjnych, rozwodowych i innych; może pracować jako biegły sądowy).
### Podsumowanie
Aby rozpocząć karierę naukową na uczelni, konieczne jest posiadanie stopnia doktora. Jednakże istnieje szereg pozaakademickich ścieżek kariery dostępnych dla absolwentów psychologii. Umiejętności nabyte w trakcie edukacji uniwersyteckiej pierwszego stopnia w zakresie psychologii są bardzo przydatne w wielu miejscach pracy. Należy pamiętać, że studia psychologiczne dają przede wszystkim wiedzę teoretyczną. Dalszy rozwój praktyczny w dziedzinie psychologii wymaga ukończenia specjalistycznych kursów i zdobycia umiejętności, co wymaga dużego nakładu czasu, wysiłku i finansów.
### Review Questions
### Critical Thinking Questions
### Personal Application Question
|
# Prowadzenie badań
## Wprowadzenie
Zastanawiało cię kiedyś, czy przemoc, którą oglądasz w telewizji, wpływa na twoje zachowanie? Czy po obejrzeniu w telewizji brutalnych scen jesteśmy bardziej skłonni do agresywnych zachowań w rzeczywistym świecie? A może oglądanie fikcyjnej przemocy zmniejsza w nas skłonność do agresji i sprzyja pokojowemu nastawieniu? Wreszcie – jaki wpływ na dzieci mają przekazy medialne? Psycholog zainteresowany wpływem scen przemocy w telewizji na zachowanie może zadawać sobie właśnie takie pytania.
Od starożytności ludzie zastanawiają się nad wpływem innowacji na nasze zachowania i procesy myślowe. Na przykład grecki filozof Sokrates bał się, że pismo – będące wówczas innowacją – zmniejszy zdolność ludzi do zapamiętywania, ponieważ będą oni polegać na pisemnych notatkach zamiast na swojej pamięci. W obecnym świecie szybko zmieniających się technologii wciąż pojawiają się nowe pytania o ich wpływ. Zastanawiamy się, jakie następstwa będzie miało korzystanie z towarzyszących nam na co dzień technologii – stosowanych w samochodach (np. nawigacji) i domach (inteligentnych systemów zarządzania domem) czy pozwalających spędzać czas w wirtualnej rzeczywistości (smartfonów, tabletów, komputerów i konsol do gier). Opinie różnych osób na te tematy, jakkolwiek stanowcze, mogą się od siebie diametralnie różnić.
W jaki sposób możemy poznać odpowiedzi oparte nie na opiniach, lecz na obiektywnych faktach, na powyższe pytania? Z pomocą przychodzą wyniki badań psychologicznych.
### References
American Cancer Society. (n.d.). History of the cancer prevention studies. Retrieved from http://www.cancer.org/research/researchtopreventcancer/history-cancer-prevention-study.
Arnett, J. (2008). The neglected 95%: Why American psychology needs to become less American. American Psychologist, 63(7), 602–614.
Aschwanden, Ch. (2018). Psychology’s Replication Crisis Has Made The Field Better. https://fivethirtyeight.com/features/psychologys-replication-crisis-has-made-the-field-better/.
Barnett, W. S. (2011). Effectiveness of Early Educational Intervention. Science, 333, 975-978.
Barton, B. A., Eldridge, A. L., Thompson, D., Affenito, S. G., Striegel-Moore, R. H., Franko, D. L., . . . Crockett, S. J. (2005). The relationship of breakfast and cereal consumption to nutrient intake and body mass index: The national heart, lung, and blood institute growth and health study. Journal of the American Dietetic Association, 105(9), 1383–1389. Retrieved from http://dx.doi.org/10.1016/j.jada.2005.06.003.
Chwalisz, K., Diener, E., & Gallagher, D. (1988). Autonomic arousal feedback and emotional experience: Evidence from the spinal cord injured. Journal of Personality and Social Psychology, 54, 820–828.
Clayton, R. R., Cattarello, A. M., & Johnstone, B. M. (1996). The effectiveness of Drug Abuse Resistance Education (Project DARE): 5-year follow-up results. Preventive Medicine: An International Journal Devoted to Practice and Theory, 25(3), 307–318. doi:10.1006/pmed.1996.0061.
Dominus, S. (2011, May 25). Could conjoined twins share a mind? New York Times Sunday Magazine. Retrieved from http://www.nytimes.com/2011/05/29/magazine/could-conjoined-twins-share-a-mind.html?_r=5&hp&.
Ennett, S. T., Tobler, N. S., Ringwalt, C. L., & Flewelling, R. L. (1994). How effective is drug abuse resistance education? A meta-analysis of Project DARE outcome evaluations. American Journal of Public Health, 84(9), 1394–1401. doi:10.2105/AJPH.84.9.1394.
Fanger, S. M., Frankel, L. A., & Hazen, N. (2012). Peer exclusion in preschool children’s play: Naturalistic observations in a playground setting. Merrill-Palmer Quarterly, 58, 224–254.
Fiedler, K. (2004). Illusory correlation. In R. F. Pohl (Ed.), Cognitive illusions: A handbook on fallacies and biases in thinking, judgment and memory (pp. 97–114). New York, NY: Psychology Press.
Frankfort-Nachmias, Ch., Nachmias, D. (2001). Metody badawcze w naukach społecznych. Wydawnictwo Zysk i S - ka.
Frantzen, L. B., Treviño, R. P., Echon, R. M., Garcia-Dominic, O., & DiMarco, N. (2013). Association between frequency of ready-to-eat cereal consumption, nutrient intakes, and body mass index in fourth- to sixth-grade low-income minority children. Journal of the Academy of Nutrition and Dietetics, 113(4), 511–519.
Harper, J. (2013, July 5). Ice cream and crime: Where cold cuisine and hot disputes intersect. The Times-Picaune. Retrieved from http://www.nola.com/crime/index.ssf/2013/07/ice_cream_and_crime_where_hot.html.
Jenkins, W. J., Ruppel, S. E., Kizer, J. B., Yehl, J. L., & Griffin, J. L. (2012). An examination of post 9-11 attitudes towards Arab Americans. North American Journal of Psychology, 14, 77–84.
Jones, J. M. (2013, May 13). Same-sex marriage support solidifies above 50% in U.S. Gallup Politics. Retrieved from http://www.gallup.com/poll/162398/sex-marriage-support-solidifies-above.aspx.
Kobrin, J. L., Patterson, B. F., Shaw, E. J., Mattern, K. D., & Barbuti, S. M. (2008). Validity of the SAT for predicting first-year college grade point average (Research Report No. 2008-5). Retrieved from https://research.collegeboard.org/sites/default/files/publications/2012/7/researchreport-2008-5-validity-sat-predicting-first-year-college-grade-point-average.pdf.
Kosydar-Bochenek, J., Lewandowski, B., Ozga, D., Woźniak, K. (2016). Przegląd narzędzi diagnostycznych i metod pomiaru zespołu stresu pourazowego (Posttraumatic Stress Disorder, PTSD) z możliwością wykorzystania wśród ratowników medycznych. Pielegniarstwo XXI wieku, 15, 45-49.
Lewin, T. (2014, March 5). A new SAT aims to realign with schoolwork. New York Times. Retreived from http://www.nytimes.com/2014/03/06/education/major-changes-in-sat-announced-by-college-board.html.
Lowcock, E. C., Cotterchio, M., Anderson, L. N., Boucher, B. A., & El-Sohemy, A. (2013). High coffee intake, but not caffeine, is associated with reduced estrogen receptor negative and postmenopausal breast cancer risk with no effect modification by CYP1A2 genotype. Nutrition and Cancer, 65(3), 398–409. doi:10.1080/01635581.2013.768348.
Lowry, M., Dean, K., & Manders, K. (2010). The link between sleep quantity and academic performance for the college student. Sentience: The University of Minnesota Undergraduate Journal of Psychology, 3(Spring), 16–19. Retrieved from http://www.psych.umn.edu/sentience/files/SENTIENCE_Vol3.pdf.
Lynam, D. R., Milich, R., Zimmerman, R., Novak, S. P., Logan, T. K., Martin, C., . . . Clayton, R. (1999). Project DARE: No effects at 10-year follow-up. Journal of Consulting and Clinical Psychology, 67(4), 590–593. doi:10.1037/0022-006X.67.4.590.
Massimini, M., Peterson, M. (2009). Information and Communication Technology: Affects on U.S. College Students. Cyberpsychology: Journal of Psychosocial Research on Cyberspace, 3, Article 3.
McKie, R. (2010, June 26). Chimps with everything: Jane Goodall’s 50 years in the jungle. The Guardian. Retrieved from http://www.theguardian.com/science/2010/jun/27/jane-goodall-chimps-africa-interview.
Narodowe Centrum Nauki (2016). Zalecenia rady narodowego centrum nauki dotyczące badań z udziałem ludzi. https://www.ncn.gov.pl/sites/default/files/pliki/2016_zalecenia_Rady_NCN_dot_etyki_badan.pdf.
Neil, A. L., Christensen, H. (2009). Efficacy and Effectiveness of School-Based Prevention and Early Intervention Programs for Anxiety. Clinical Psychology Review, 29, 208- 215.
Offit, P. (2008). Autism's false prophets: Bad science, risky medicine, and the search for a cure. New York: Columbia University Press.
Perkins, H. W., Haines, M. P., & Rice, R. (2005). Misperceiving the college drinking norm and related problems: A nationwide study of exposure to prevention information, perceived norms and student alcohol misuse. J. Stud. Alcohol, 66(4), 470–478.
Peters-Scheffer, N., Didden, R., Korzilius, H., Sturmey, P. (2011). A meta-analytic study on the effectiveness of comprehensive ABA-based early intervention programs for children with autism spectrum disorders. Research in Autism Spectrum Disorders, 5, 60-69.
Rodgers, J. L., Shrout, P. E. (2018). Psychology’s replication crisis as scientific opportunity: A précis for policymakers. Policy Insights from the Behavioral and Brain Sciences, 5, 134–141.
Rothstein, J. M. (2004). College performance predictions and the SAT. Journal of Econometrics, 121, 297–317.
Rotton, J., & Kelly, I. W. (1985). Much ado about the full moon: A meta-analysis of lunar-lunacy research. Psychological Bulletin, 97(2), 286–306. doi:10.1037/0033-2909.97.2.286.
Santelices, M. V., & Wilson, M. (2010). Unfair treatment? The case of Freedle, the SAT, and the standardization approach to differential item functioning. Harvard Education Review, 80, 106–134.
Sears, D. O. (1986). College sophomores in the laboratory: Influences of a narrow data base on social psychology’s view of human nature. Journal of Personality and Social Psychology, 51, 515–530.
Shaw, Ch., M., Tan, S. A. (2015). Integration of Mobile Technology in Educational Materials Improves Participation: Creation of a Novel Smartphone Application for Resident Education. Journal of Surgical Education 72, 670 - 673.
Shrout, P. E, Rodgers, J. L. (2018). Psychology, Science, and Knowledge Construction: Broadening Perspectives From the Replication Crisis. Annual Review of Psychology, 4, 487-510.
Tuskegee University. (n.d.). About the USPHS Syphilis Study. Retrieved from http://www.tuskegee.edu/about_us/centers_of_excellence/bioethics_center/about_the_usphs_syphilis_study.aspx.
Weiss DS, Marmar CR. The impact of event scale – revised. In: Wilson JP, Keane TM, editors. Assessing psychological trauma and PTSD. New York: Guilford Press; 1997. pp. 399–411.
Żukowski, Ł. (2017). Etyczne i prawne aspekty dopuszczalności przeprowadzania doświadczeń na zwierzętach. Przegląd Prawa i Administracji, Tom 108: Prawna ochrona zwierząt, 141 - 156. |
# Prowadzenie badań
## Dlaczego badania są ważne?
Badania naukowe są kluczowym narzędziem pozwalającym zrozumieć złożony świat wokół nas. Bez badań musielibyśmy polegać wyłącznie na intuicji, autorytecie innych lub szczęśliwym trafie. Mimo że wiele osób wierzy w swoje zdolności obiektywnej obserwacji i rozumienia otaczającego świata, w historii zapisały się liczne przykłady, jak bardzo potrafimy się mylić, gdy ignorujemy konieczność poparcia naszych twierdzeń dowodami.
Przez stulecia ludzie byli przekonani, że Słońce krąży wokół płaskiej Ziemi, że kontynenty nie przemieszczają się oraz że choroby psychiczne spowodowane są opętaniem (). Systematyczne badania naukowe pozwalają nam wyzbyć się powziętych z góry przekonań czy przesądów oraz zyskać obiektywny obraz samych siebie i otaczającego nas świata.
Celem wszystkich naukowców jest lepsze zrozumienie świata. Psychologowie skupiają uwagę na zrozumieniu zachowań oraz procesów poznawczych (umysłu) i fizjologicznych (ciała), które leżą u ich podstaw. Inaczej niż w przypadku części metod stosowanych w celu zrozumienia zachowania (np. intuicji, doświadczeń osobistych), badania naukowe muszą dostarczać dowodów potwierdzających dane twierdzenia. Wiedza naukowa jest empiryczna (doświadczalna) (ang. ), tzn. oparta na obiektywnych, konkretnych dowodach, które można obserwować wielokrotnie, niezależnie od tego, kim jest obserwator.
Choć możemy postrzegać zachowanie, to umysłu już nie. Jeśli ktoś płacze, widzimy jego zachowanie, jednak przyczynę tego zachowania stwierdzić jest dużo trudniej. Czy obserwowana osoba płacze ze smutku, z bólu czy ze szczęścia? Czasem możemy poznać przyczynę czyjegoś zachowania, gdy po prostu zapytamy: „Dlaczego płaczesz?”. Jednak zdarzają się sytuacje, w których dana osoba albo nie czuje się swobodnie, odpowiadając na takie pytanie, albo nie chce bądź nie jest w stanie na nie odpowiedzieć. Niemowlę na przykład nie wyjaśni nam, dlaczego płacze. Z tego powodu psycholog musi wykazać się kreatywnością w wyjaśnianiu powodów ludzkiego zachowania. Ten rozdział opisuje, jak tworzy się naukę i jak ważną rolę odgrywa ona w podejmowaniu decyzji zarówno w życiu osobistym, jak i w sferze publicznej.
### Zastosowanie wyników badań
Wskazanie, które teorie są uznawane przez środowisko naukowe, a które nie, może być trudne, szczególnie w tak rozległej dziedzinie jak psychologia. Obecnie mamy dostęp do ogromnej ilości informacji. Poszukiwanie danych dotyczących dowolnego tematu badawczego w internecie może nam przynieść wiele sprzecznych ze sobą wyników badań. W takich przypadkach środowisko naukowe poszukuje wspólnego stanowiska, ale zanim zostanie ono osiągnięte, może minąć sporo czasu (i wiele kolejnych badań).
Intensywny rozwój nowych technologii skłania badaczy do pytania, czy w ostatecznym rozrachunku korzystanie z nich pomaga nam, czy szkodzi. Wnioski naukowe są tu niejednoznaczne. Przykładowo, badanie aplikacji na smartfony przeznaczonej dla studentów odbywających staż z chirurgii wykazało, że korzystanie z niej może zwiększyć ich zaangażowanie i poprawić wyniki testów (Shaw i Tan, 2015). Z kolei badanie innej aplikacji ujawniło, że negatywnie wpływała na sen, komunikację oraz zarządzanie czasem korzystających z niej studentów na studiach licencjackich (Massimini i Peterson, 2009). Oczywiście, by wyciągnąć rzetelne wnioski, należałoby porównać parametry obu aplikacji, sposób ich użytkowania czy wreszcie charakterystykę samych studentów. Udzielenie obiektywnej odpowiedzi na pytanie o wpływ nowych technologii na wiedzę, uczenie się i zdrowie psychiczne studentów wymaga przeprowadzenia dalszych badań.
Oznacza to, że powinniśmy krytycznie podchodzić do napotykanych informacji i zachowywać zdrowy sceptycyzm. Każdą opinię powinniśmy oceniać pod wieloma względami: jaką specjalistyczną wiedzą dysponuje osoba, która ją wygłasza, co może zyskać, gdy teza okaże się prawdziwa, czy przedstawione dowody potwierdzają tezę oraz co na ten temat sądzą inni naukowcy. Staje się to szczególnie ważne, gdy weźmiemy pod uwagę, ile informacji w reklamach czy w internecie przedstawianych jest jako „udowodnione naukowo”, podczas gdy są to tak naprawdę tylko opinie kilku osób próbujących sprzedać produkt lub nakłonić nas do przyjęcia ich punktu widzenia.
Powinniśmy być świadomymi odbiorcami udostępnianych nam informacji, ponieważ decyzje podejmowane na ich podstawie mają znaczące konsekwencje. Mogą np. wpływać na politykę i wydatki publiczne.
Wyobraź sobie, że wybrano cię na prezydenta miasta i masz za zadanie zaplanować wydatki w budżecie. Musisz m.in. zdecydować, czy kontynuować finansowane wcześniej programy interwencyjne pomagające dzieciom pochodzącym ze środowisk zagrożonych marginalizacją społeczną. Dzieci te mają specjalne potrzeby lub mierzą się z innymi ograniczeniami. Wspierające je programy obejmują szeroki zakres usług mających za zadanie optymalizację rozwoju dzieci i osiągnięcie przez nie sukcesu w szkole i w późniejszym życiu. Chociaż założenia tych programów brzmią atrakcyjnie, to przed wyłożeniem na nie pieniędzy publicznych chcesz mieć pewność, że okażą się także skuteczne. Tu z pomocą przychodzą psychologowie i inni naukowcy, którzy przeprowadzili wiele badań potwierdzających skuteczność takich programów (Neil i Christensen, 2009; Peters-Scheffer et al., 2011).
Konkretne programy mogą różnić się skutecznością. Ich krótkoterminowe efekty są wyraźniej widoczne, istnieją jednak przesłanki, by wierzyć, że wiele z nich przynosi uczestnikom również długoterminowe korzyści (Barnett, 2011). Jako odpowiedzialny zarządca miasta będziesz zapewne poszukiwać wyników badań, aby dowiedzieć się, które programy są najbardziej skuteczne. Jakie założenia musi spełniać efektywny program wsparcia? Zapoznanie się z obiektywnymi dowodami lepiej przygotowuje do podjęcia decyzji, na który z programów przeznaczyć środki publiczne.
Korzystanie z badań naukowych przy podejmowaniu decyzji jest pomocne dla każdego. Wyobraź sobie, że twoja przyjaciółka właśnie dowiedziała się, że ma raka piersi lub że u któregoś z członków twojej rodziny zdiagnozowano autyzm. W obu przypadkach zapewne zechcesz dowiedzieć się, jakie metody leczenia są najskuteczniejsze i wywołują najmniej działań niepożądanych. Jak to zrobisz? Zapewne porozmawiasz ze swoim lekarzem i omówisz z nim wyniki badań naukowych dotyczących różnych metod leczenia. Oczywiście będziesz zachowywać krytyczne spojrzenie i upewnisz się, że w miarę możliwości posiadasz wszystkie najważniejsze informacje.
To badania naukowe pozwalają nam odróżnić fakty od opinii. Fakt (ang. ) to możliwa do zaobserwowania rzeczywistość, a opinia (pogląd) (ang. ) to osobiste osądy, wnioski lub nastawienie badacza, które mogą być trafne lub nie. W społeczności naukowej fakty można określić, posługując się wyłącznie dowodami zebranymi w badaniach empirycznych.
### Badania naukowe jako proces
Wiedza naukowa rozwija się w procesie zwanym metodą naukową (ang. ). Teorie i hipotezy są konfrontowane z rzeczywistością (podczas obserwacji empirycznych). Obserwacje te rodzą nowe idee, które następnie również konfrontowane są z rzeczywistością i tak dalej. W tym rozumieniu proces naukowy jest cykliczny. W tym cyklu posługujemy się dwoma rodzajami rozumowania: dedukcją i indukcją. W rozumowaniu dedukcyjnym (dedukcji) (ang. ) pomysły sprawdzane są empirycznie; w rozumowaniu indukcyjnym (ang. ) empiryczne obserwacje prowadzą do powstania nowych hipotez lub założeń (). Te procesy są nierozłączne niczym wdech i wydech, jednak różne podejścia naukowe kładą różny nacisk na dedukcję i indukcję.
W nauce rozumowanie dedukcyjne zaczyna się od uogólnienia – hipotezy, na której podstawie wyciągamy logiczne wnioski o otaczającym nas świecie. Jeśli hipoteza jest prawdziwa, wówczas logiczne wnioski wynikające z rozumowania dedukcyjnego również będą prawdziwe.
Wywód oparty na rozumowaniu dedukcyjnym mógłby wyglądać następująco: wszystkie organizmy żywe potrzebują energii do życia (to nasza hipoteza). Kaczki są organizmami żywymi. Tym samym kaczki potrzebują energii do życia (logiczny wniosek). W tym przykładzie hipoteza jest prawdziwa, tym samym wniosek też jest prawdziwy. Jednak czasami błędna hipoteza może prowadzić do logicznego, lecz błędnego wniosku. Rozważ taki wywód: wszystkie ptaki latają (błędna przesłanka). Struś jest ptakiem. Wnioskujemy zatem, że struś potrafi latać.
Naukowcy wykorzystują rozumowanie dedukcyjne, by empirycznie sprawdzić swoje hipotezy. Wracając do powyższego przykładu, badacze mogliby opracować badanie, by przetestować następującą hipotezę: jeśli każdy żywy organizm potrzebuje energii do życia, kaczki również będą potrzebowały energii do życia. Rozumowanie dedukcyjne zaczyna się od uogólnienia, które jest konfrontowane z obserwacjami rzeczywistości; rozumowanie indukcyjne zaś działa w odwrotnym kierunku.
Rozumowanie indukcyjne wykorzystuje obserwacje empiryczne w celu stworzenia szerokiego uogólnienia. W przeciwieństwie do rozumowania dedukcyjnego, konkluzje sformułowane w ramach rozumowania indukcyjnego mogą być prawdziwe lub nie niezależnie od prawdziwości obserwacji, na których zostały oparte. Na przykład stwierdzasz, że twoje ulubione owoce – jabłka, banany i pomarańcze – rosną na drzewach; tym samym zakładasz, że wszystkie owoce rosną na drzewach. To przykład rozumowania indukcyjnego. Oczywiście istnienie truskawek, porzeczek i kiwi dowodzi, że to uogólnienie nie jest prawdziwe, mimo że zostało oparte na wielu bezpośrednich obserwacjach. Naukowcy wykorzystują rozumowanie indukcyjne do formułowania teorii, które generują hipotezy, a te z kolei są sprawdzane przez rozumowanie dedukcyjne. Tym samym nauka oparta jest zarówno na procesach dedukcyjnych, jak i indukcyjnych.
Na przykład studia (opisy) przypadków, o których przeczytasz w następnym podrozdziale, są w przeważającym stopniu oparte na obserwacjach empirycznych. Zatem są ściśle powiązane z procesami indukcyjnymi, ponieważ badacze zbierają ogromne ilości obserwacji i szukają pośród tych danych interesujących reguł (nowych idei). Badania eksperymentalne zaś kładą nacisk na rozumowanie dedukcyjne.
Powiedzieliśmy, że teorie i hipotezy to idee, ale jakiego rodzaju? Teoria (ang. ) to rozbudowany zbiór przemyśleń, proponujących wyjaśnienie obserwowanych zjawisk. Teorie są wielokrotnie konfrontowane z rzeczywistością, ale zazwyczaj są zbyt rozbudowane, by można było je sprawdzić od razu w całości; dlatego badacze stawiają hipotezy, by przetestować wybrane aspekty (części) danej teorii.
Hipoteza (ang. ) to możliwe do zweryfikowania stwierdzenie określające, jaka zmiana zajdzie w otaczającym świecie, jeśli nasz pomysł okaże się prawdziwy. Hipoteza często ujmowana jest w formę stwierdzenia (np. „Jeśli będę się uczyć całą noc, dostanę pozytywną ocenę z egzaminu”). Hipotezy są niezwykle ważne, ponieważ stanowią pomost między sferą idei a rzeczywistością. W trakcie testowania konkretnych hipotez teorie są modyfikowane i doprecyzowywane, by odzwierciedlały i uwzględniały wyniki testów ().
By przekonać się, jak funkcjonuje ten proces, rozważmy konkretną teorię oraz hipotezę, którą można postawić w oparciu o nią. Jak przeczytasz w następnym rozdziale, teoria emocji Jamesa-Langego zakłada, że emocje jako doświadczenia psychiczne są wynikiem fizjologicznego pobudzenia kojarzonego ze stanem emocjonalnym. Wyobraź sobie, że wychodząc z domu, widzisz na chodniku agresywnego węża. Twoje serce zaczyna bić szybciej i robi ci się niedobrze. Zgodnie z teorią Jamesa-Langego te fizjologiczne zmiany wywołałyby u ciebie poczucie strachu. Na podstawie tej teorii można postawić hipotezę, że osoba nieodczuwająca fizjologicznego pobudzenia wywołanego widokiem węża nie doświadczy strachu.
Każda hipoteza naukowa jest możliwa do podważenia (falsyfikowalna) (ang. ), tj. można udowodnić, że nie jest prawdziwa. Zapewne pamiętasz z pierwszego rozdziału, że Zygmunt Freud (1856–1939) miał wiele pomysłów na wyjaśnienie ludzkich zachowań (). Jednak idee te są krytykowane, ponieważ wiele z nich nie jest falsyfikowalnych, np. trudno wyobrazić sobie badanie empiryczne, które obaliłoby (lub potwierdziło) istnienie id, ego i superego: trzech aspektów osobowości opisanych we Freudowskich teoriach.
Mimo to teorie Freuda są bardzo często przedstawiane w podręcznikach do psychologii ze względu na ich znaczenie w historii psychologii osobowości i psychoterapii, pozostają również podwalinami współczesnych form terapii.
W przeciwieństwie do teorii Freuda, teoria Jamesa-Langego pozwala na postawienie falsyfikowalnych hipotez, na przykład przedstawionej poniżej. Niektóre osoby z ciężkimi uszkodzeniami kręgosłupa nie są w stanie poczuć tych reakcji organizmu, które często towarzyszą emocjonalnym doświadczeniom. Tym samym moglibyśmy przetestować naszą hipotezę, określając, w jaki sposób różnią się doświadczenia osób potrafiących odczuć fizjologiczne pobudzenie od doświadczeń osób, które takiego pobudzenia nie odczuwają. Takie badanie naukowe zostało przeprowadzone. Osoby niemogące poczuć pobudzenia fizjologicznego nadal odczuwały emocje, aczkolwiek były one mniej intensywne niż u osób zdrowych (Chwalisz et al., 1988).
Uzależnienie zasadności danej teorii od możliwości jej falsyfikacji pozwala mieć większą pewność co do jej rzetelności. Zazwyczaj informacja zostanie wielokrotnie sprawdzona, zanim zaakceptuje ją społeczność naukowa.
### Summary
Naukowcy starają się zrozumieć i wyjaśnić funkcjonowanie otaczającego nas świata. W tym celu formułują teorie, na podstawie których można postawić sprawdzalne (falsyfikowalne) hipotezy. Teorie, które zostaną pozytywnie zweryfikowane, są zachowywane i doprecyzowywane, a te, na podstawie których sformułowano hipotezy, które w badaniach empirycznych okazały się błędne, są porzucane lub modyfikowane. W ten sposób badania naukowe pozwalają naukowcom odróżnić fakty od zwykłych opinii. Sprawdzone informacje będące wynikiem badań pomagają w podjęciu mądrych decyzji, zarówno w sferze publicznej, jak i prywatnej.
### Review Questions
### Critical Thinking Questions
|
# Prowadzenie badań
## Metody badawcze
Istnieje wiele metod badawczych, którymi psychologowie mogą się posłużyć, by zrozumieć, opisać i wyjaśnić zachowania oraz powiązane z nimi procesy poznawcze i biologiczne. Niektóre metody opierają się na obserwacji. Inne zakładają interakcję między badaczem a badanymi i mogą przybierać różne formy: od serii prostych pytań, przez obszerne wywiady, po w pełni kontrolowane eksperymenty.
Każda z tych metod badawczych ma swoje wady i zalety i każda jest odpowiednia dla konkretnych zagadnień. Na przykład badania opierające się głównie na obserwacji generują ogromną ilość informacji, lecz możliwość odniesienia tych informacji do większej populacji jest ograniczona ze względu na mały rozmiar próby. Badania oparte na ankietach umożliwiają badaczom uzyskanie danych od relatywnie dużej próby, dzięki czemu łatwiej generalizować wnioski i odnosić do większej populacji. Jednak dane zebrane w ramach ankiet mają swoje ograniczenia i są narażone na problemy typowe dla danych deklaratywnych (np. badani mogą mijać się z prawdą).
Niektórzy naukowcy prowadzą badania archiwalne, wykorzystując istniejące zapisy. Ten dość niedrogi sposób pozyskiwania danych może pozwolić zgłębić wiele zagadnień, jednak badacze wykorzystujący tę metodę nie mają żadnej kontroli nad tym, jaki rodzaj danych i w jaki sposób został zebrany.
Wszystkie dotychczas opisane metody są z natury korelacyjne. Oznacza to, że badacze mogą odkryć ważne zależności między dwiema lub więcej interesującymi ich zmiennymi. Jednakże na podstawie wyników badania korelacyjnego nie można wysnuć twierdzeń o przyczynowości.
Badanie korelacyjne może wykazać związek między zmiennymi, ale jedyny sposób, w jaki badacz może udowodnić, że jest to związek przyczynowo-skutkowy, stanowi przeprowadzenie eksperymentu. W metodzie eksperymentalnej, która zostanie omówiona dalej w tym rozdziale, badacz zachowuje kontrolę nad interesującymi go zmiennymi. Jednak eksperymenty, pomimo ogromnego potencjału badawczego, są często przeprowadzane w sztucznym otoczeniu. Ponadto na wiele pytań, które zadają sobie psychologowie, nie można odpowiedzieć w drodze eksperymentu ze względów etycznych (np. na pytania o wpływ stresu pourazowego).
### Badanie kliniczne a opis przypadku
W 2011 roku z artykułu w „New York Times” świat dowiedział się o Kriście i Tatianie Hogan (ur. 2006), kanadyjskich bliźniaczkach syjamskich zrośniętych głowami. Badania wykazały, że dziewczynki mają wspólną część mózgu (wzgórze), będącą ważnym ośrodkiem przesyłania bodźców zmysłowych. Większość z nich przechodzi najpierw przez wzgórze, zanim zostanie przesłana do przetworzenia w korze mózgowej.
W wyniku tego połączenia bliźniaczki mogą nawzajem odczuwać te same wrażenia zmysłowe. Na przykład jeśli Krista ogląda zabawny program w telewizji, Tatiana śmieje się, nawet jeśli sama go nie widzi. Ta wyjątkowa zdolność wzbudziła zainteresowanie wielu neuronaukowców, którzy próbują zrozumieć, w jaki sposób mózg przetwarza bodźce zmysłowe. Jednocześnie, mimo wspólnego odbioru części wrażeń zmysłowych i kontroli motorycznej, Krista i Tatiana pozostają dwiema odrębnymi osobami, co dodatkowo dostarcza wielu danych do badań nad mózgiem i umysłem. Zważywszy na to, jak rzadki jest to przypadek, dopóki dziewczynki oraz ich rodzina będą wyrażać zgodę, naukowcy będą obserwować bliźniaczki (Dominus, 2011).
Badania obserwacyjne naukowcy mogą prowadzić metodą badania klinicznego (ang. ) lub opisu (studium) przypadku (ang. ); podczas tych ostatnich skupiają się na jednej lub co najwyżej kilku osobach. Niektórzy naukowcy poświęcają karierę na badanie 10–20 osób. Dlaczego? Koncentrując uwagę na małej liczbie osób, mogą dogłębnie je poznać. Żadna inna metoda badawcza nie dostarcza takiej ilości informacji jak badanie kliniczne czy studium przypadku. Pozwalają one bardzo dobrze zrozumieć konkretny przypadek i badane zjawisko.
Skoro studia przypadku dostarczają tak dużej ilości informacji, to dlaczego nie są częściej wykorzystywane? Otóż ich największa zaleta jest zarazem słabością. Osoby, na których skupiają się opisy przypadku, są dla badaczy interesujące właśnie dlatego, że różnią się od większości ludzi. Skoro celem badaczy jest wyjaśnienie ogólnych prawidłowości w zachowaniach czy w psychice, to skupienie uwagi na jednej czy kilku osobach może utrudniać generalizację obserwacji. Generalizacja (ang. ) oznacza odniesienie wyników danego badania do większej części społeczeństwa (czyli tzw. populacji ogólnej). Jak już mówiliśmy, opis przypadku dostarcza ogromnej ilości informacji, jednak z uwagi na wyjątkową charakterystykę badanych możliwości odniesienia uzyskanej wiedzy do przeciętnego człowieka są ograniczone.
### Obserwacja naturalna
By zrozumieć, skąd bierze się określone zachowanie, można obserwować je w naturalnym otoczeniu. Jednak ludzie, którzy wiedzą, że są obserwowani, mogą zmieniać swoje zachowania w nieprzewidziany sposób, by ukryć swoje naturalne zachowania. A zatem w jaki sposób badacze uzyskują wiarygodne informacje? Wyobraź sobie, że wykładowca prosi o uniesienie dłoni wszystkich, którzy zawsze myją ręce po wyjściu z toalety. Najprawdopodobniej niemal każdy obecny podniesie rękę. Ale czy naprawdę wierzysz, że mycie rąk po wyjściu z toalety jest powszechne?
To zjawisko bardzo podobne do wspomnianego wcześniej w tym rozdziale: wiele osób nie czuje się swobodnie, odpowiadając szczerze na pytania. Jeśli chcesz się dowiedzieć, ile osób naprawdę myje ręce, to istnieją inne możliwości.
Załóżmy, że wyślemy jedną z osób z grupy do łazienki, by zobaczyła, czy wszyscy rzeczywiście myją ręce po wyjściu z toalety. Czy nasz obserwator wtopi się w otoczenie, jeśli założy na siebie biały kitel i usiądzie z notesem? Chcemy raczej, by pozostawał on niezauważalny, dlatego może na przykład stać przy jednej z umywalek i udawać, że zakłada soczewki kontaktowe, obserwując dyskretnie otoczenie i zbierając istotne dla nas dane. Tego typu badania obserwacyjne nazywamy obserwacją naturalną (obserwacją w warunkach naturalnych) (ang. ). Obserwacja naturalna to obserwacja czyjegoś zachowania w jego naturalnym otoczeniu.
By lepiej zrozumieć wykluczenie towarzyskie, Suzanna Fanger wraz ze współpracownikami na University of Texas obserwowała zachowanie przedszkolaków na placu zabaw. W jaki sposób obserwatorzy pozostali niezauważeni w czasie badania? Założyli niektórym dzieciom bezprzewodowe mikrofony (o których szybko zapomniały) i obserwowali je z daleka, robiąc notatki. Ponadto dzieci w tym konkretnym przedszkolu („przedszkole eksperymentalne”) były przyzwyczajone do obecności obserwatorów na placu zabaw (Fangeret al., 2012).
Obserwator musi być dyskretny, na ile to możliwe: jeśli ludzie wiedzą, że są obserwowani, to maleje prawdopodobieństwo, że będą zachowywać się naturalnie. Jeśli masz co do tego wątpliwości, pomyśl, jak różniłoby się twoje zachowanie za kierownicą w następujących sytuacjach: w pierwszym przypadku jedziesz pustą autostradą w środku dnia; w drugim na tej samej pustej autostradzie jedzie za tobą radiowóz ().
Należy zaznaczyć, że obserwacja naturalna nie ogranicza się tylko do badań z udziałem ludzi. Najbardziej znane przykłady obserwacji naturalnej to takie, w których badacze udali się w teren, aby obserwować zwierzęta w ich naturalnym środowisku. Tak jak w przypadku badań z udziałem ludzi, badacze trzymają się na odległość, by unikać kontaktu z badanymi zwierzętami, ponieważ mogłoby to wpłynąć na ich naturalne zachowanie. Naukowcy posługują się tą techniką, badając hierarchie społeczne i interakcje wśród zwierząt: od świstaków po goryle. Informacje zebrane podczas takich badań są nieocenioną pomocą w zrozumieniu sposobu, w jaki zwierzęta organizują swoje społeczności i komunikują się między sobą.
Antropolog Jane Goodall (ur. 1934) poświęciła niemal pięćdziesiąt lat życia na obserwację zachowań szympansów w Afryce (). Niektórzy naukowcy krytykowali Goodall za nadawanie szympansom imion, zamiast oznaczania ich liczbami – uważali bowiem, że używanie imion mogło zmniejszyć emocjonalny dystans, niezbędny dla zachowania obiektywizmu badania (McKie, 2010). To przykład problemu, który może napotkać badacz podczas obserwacji naturalnej.
Największą zaletą obserwacji naturalnej jest wiarygodność i trafność (ang. ) informacji zebranych w naturalnym, niezakłóconym otoczeniu. Dzięki naturalnemu zachowaniu badanych obserwacja pozwala na uzyskanie większej trafności środowiskowej i realizmu niż jakiekolwiek inne podejście.
W odpowiednio przeprowadzonym badaniu nie ma ryzyka, że zachowanie ludzi lub zwierząt ulegnie zmianie tylko dlatego, że podlegają oni obserwacji. Niektórzy sądzą, że programy typu reality show dają nam możliwość podglądania autentycznych zachowań ludzi. Jednak kamerzyści śledzący bohaterów oraz wypytywanie przed kamerą o osobiste sprawy stanowią pogwałcenie zasady dyskretnej obserwacji. Zważywszy na okoliczności, można wątpić w naturalność i prawdziwość obserwowanych w tych programach zachowań.
Największą wadą obserwacji naturalnej jest trudność jej zorganizowania i kontroli. Na przykładzie badania w toalecie, wyobraź sobie, że stoisz w niej cały dzień, by obserwować praktyki mycia rąk i nikt nawet do niej nie wchodzi. W przypadku obserwacji zwierząt – co się stanie, jeśli stado goryli, które obserwujesz od wielu tygodni, nagle przeniesie się w nowe miejsce podczas twojej nieobecności czy nieuwagi? Obserwacja naturalna ma swoją cenę. Jako badacz nie masz żadnej kontroli, kiedy (lub czy) zaistnieje możliwość zaobserwowania danego zachowania. Ponadto tego typu badanie obserwacyjne wymaga znacznego nakładu czasu, pieniędzy oraz po prostu wiele szczęścia.
Dlatego czasami badania prowadzone są na podstawie obserwacji ustrukturyzowanej. W takim przypadku badani obserwowani są podczas wykonywania konkretnego, zaplanowanego zadania. Doskonałym przykładem obserwacji ustrukturyzowanej jest procedura obcej sytuacji autorstwa Mary Ainsworth (1913-1999) (przeczytasz o niej więcej w rozdziale o psychologii rozwoju). Procedura obcej sytuacji stosowana jest do obserwacji stylów przywiązania się dziecka do opiekuna. Według scenariusza tej procedury opiekun wprowadza dziecko do pokoju pełnego zabawek. Procedura obcej sytuacji składa się z kilku faz: obca osoba wchodzi do pokoju, opiekun opuszcza pokój, opiekun wraca do pokoju. Zachowanie dziecka jest dokładnie monitorowane w każdej fazie, lecz to reakcja na powrót opiekuna w najlepszy sposób charakteryzuje styl przywiązania dziecka.
Innym potencjalnym problemem związanym z badaniem obserwacyjnym jest stronniczość obserwatora (ang. ). Zazwyczaj obserwatorzy są w dużym stopniu zaangażowani w projekt badawczy i mogą nieświadomie wypaczać swoje obserwacje, by odpowiadały celom i oczekiwaniom badaczy. Żeby uniknąć takiego braku obiektywizmu, badacze powinni się posługiwać jasnymi kryteriami określania typów obserwowanych zachowań oraz sposobu ich klasyfikacji. Ponadto badacze często porównują obserwacje tego samego zdarzenia poczynione przez różnych obserwatorów, by sprawdzić zgodność ocen między oceniającymi (ang. ). Zgodność ocen między oceniającymi to sposób zwiększenia rzetelności badania poprzez ocenę spójności obserwacji różnych obserwatorów.
### Ankiety
Psychologowie często tworzą ankiety umożliwiające im zbieranie danych. Ankieta (ang. ) to lista pytań, na które mają odpowiedzieć uczestnicy badania; może być przeprowadzona w formie papierowej, elektronicznej lub werbalnie (). Zazwyczaj wypełnienie ankiety nie zabiera dużo czasu, a łatwość jej przeprowadzenia pozwala w prosty sposób zebrać dużą ilość danych od dużej liczby osób.
Ankiety umożliwiają badaczom zebranie danych od większych prób populacji niż w przypadku innych metod badawczych. Próba (ang. ) to zbiór osób wybranych z populacji (ang. ). Populacja to grupa osób, którymi zainteresowani są naukowcy. Badają oni próbę i starają się odnosić uzyskane wyniki do konkretnej populacji, czyli je generalizować.
Ankieta ma zarówno mocne, jak i słabe strony, jeśli porównamy ją z opisem przypadku. Ankieta pozwala zebrać informacje od większej liczby osób. Większa próba z kolei lepiej odzwierciedla prawdziwe zróżnicowanie populacji, umożliwiając tym samym generalizację wniosków. Zatem jeśli nasza próba jest wystarczająco duża i zróżnicowana, możemy założyć, że dane zebrane w ramach ankiety możemy odnosić do konkretnej populacji z większą pewnością niż w przypadku danych zebranych podczas opisu przypadku. Jednak ze względu na większą liczbę badanych nie jesteśmy w stanie zebrać równie dokładnych informacji o każdej osobie.
Kolejną potencjalną słabością ankiety jest coś, o czym wspominaliśmy już wcześniej w tym rozdziale: badani nie zawsze udzielają prawdziwych odpowiedzi. Mogą kłamać, źle pamiętać lub odpowiadać w sposób, który – ich zdaniem – przedstawi ich w lepszym świetle. Na przykład mogą powiedzieć, że piją mniej alkoholu niż faktycznie.
Dzięki ankietom możemy uzyskać odpowiedzi na nieograniczoną liczbę pytań. Jako przykład może posłużyć badanie przeprowadzone przez Jenkins i współpracowników (2012) na temat negatywnego nastawienia Amerykanów do amerykańskiej społeczności imigrantów pochodzenia arabskiego po atakach terrorystycznych z 11 września 2001 roku. Zespół Jenkinsa chciał ustalić, czy i w jakim stopniu niemal dziesięć lat po atakach negatywne nastawienie do tej grupy wciąż było żywe. W badaniu 140 uczestników wypełniło ankietę składającą się z 10 pytań. Wśród nich znalazły się bezpośrednie pytania o jawne uprzedzenia względem osób o odmiennym pochodzeniu etnicznym. Ankieta zawierała również pytania nie wprost o to, jakie jest prawdopodobieństwo, że badany wejdzie w interakcję z osobą z danej mniejszości w różnych sytuacjach (na przykład: „Jakie jest prawdopodobieństwo, że przedstawisz się imigrantowi arabskiego pochodzenia?”). Wyniki badań sugerowały, że badani nie chcą przyznać, że są uprzedzeni względem jakiejkolwiek grupy etnicznej. Jednakże wykazano wyraźne różnice w odpowiedziach na pytania dotyczące interakcji z imigrantami pochodzenia arabskiego (mniejsza chęć do kontaktu) w stosunku do innych grup etnicznych. To dowodzi, że badani skrywali pewne uprzedzenia względem imigrantów pochodzenia arabskiego, mimo deklaracji, iż tak nie jest (Jenkins et al., 2012).
### Badania archiwalne
Niektórzy naukowcy uzyskują dostęp do dużej ilości danych bez jakiejkolwiek interakcji z badanymi. W poszukiwaniu odpowiedzi na interesujące ich problemy badawcze posługują się zapisami archiwalnymi. Metodę tę nazywamy badaniami archiwalnymi (ang. ). Badania archiwalne polegają na studiowaniu archiwalnych zapisów lub zestawów danych w poszukiwaniu interesujących nas wzorców i relacji.
Na przykład mając dostęp do uniwersyteckiej dokumentacji wszystkich studentów z ostatnich 10 lat, badacz mógłby policzyć, ile czasu zajęło im skończenie studiów, jakie były wymiary godzinowe kierunków, jakie oceny uzyskali studenci i w jakie zajęcia ponadprogramowe się angażowali. Takie badania archiwalne mogłyby wykazać, kto ma największe szanse skończyć studia oraz zidentyfikować czynniki ryzyka dla zagrożonych studentów ().
Porównawszy badania archiwalne z innymi metodami, zauważymy wiele znaczących różnic. Przede wszystkim prowadzący badania archiwalne nigdy nie kontaktuje się bezpośrednio z uczestnikami. Tym samym inwestycja czasu i pieniędzy jest w tym przypadku znacznie mniejsza. Jednakże badacze nie mają żadnej kontroli nad tym, jakie dane były zbierane. Dlatego też pytania, na które naukowcy szukają odpowiedzi w konkretnym badaniu, muszą być zadane w taki sposób, by można było na nie znaleźć odpowiedź w istniejących zbiorach danych. Co więcej, nie ma żadnej gwarancji co do spójności zapisów z różnych źródeł, a to może sprawić, że porównanie różnych zestawów danych będzie problematyczne.
### Badania podłużne i przekrojowe
Czasami chcemy dowiedzieć się, jak ludzie zmieniają się na przestrzeni lat, np. obserwując, prowadząc badania nad rozwojem człowieka. Badając tę samą grupę uczestników wielokrotnie przez dłuższy czas, prowadzimy tak zwane badania podłużne (ang. ). Możemy na przykład zbadać nawyki żywieniowe grupy uczestników w wieku 20 lat, po czym przeprowadzić ponowne badanie, kiedy będą mieli 30 lat, i następne 10 lat później.
Kolejną metodą są badania poprzeczne (przekrojowe) (ang. ), w których badacz porównuje występowanie danego zjawiska w kilku populacjach jednocześnie. Posługując się ponownie przykładem badań nawyków żywieniowych, badacz mógłby porównać nawyki w różnych grupach wiekowych. Zamiast badać jedną grupę przez 20 lat, by dowiedzieć się, jak z dekady na dekadę zmieniają się jej nawyki żywieniowe, bada się grupy dwudziesto-, trzydziesto- i czterdziestolatków, a następnie porównuje je ze sobą. Badania przekrojowe wymagają krótkoterminowej inwestycji, ale ograniczają je różnice dzielące różne pokolenia (kohorty) niemające de facto związku z wiekiem, będące odzwierciedleniem społecznych i kulturowych doświadczeń różnych pokoleń, sprawiających, że te różnią się od siebie nawzajem.
By zilustrować ten problem, rozważmy następujące wyniki badań. W ostatnich latach odnotowano znaczący wzrost poparcia dla małżeństw homoseksualnych. Wiele badań dotyczących tego zagadnienia dzieli uczestników na różne grupy wiekowe; zazwyczaj młodsze osoby są małżeństwom homoseksualnym bardziej przychylne (Jones, 2013). Czy oznacza to, że z wiekiem stajemy się mniej otwarci na małżeństwa homoseksualne, czy też starsi uczestnicy badań patrzą na nie inaczej ze względu na uwarunkowania społeczne, w jakich dorastali? Problem ten nie istnieje w przypadku badań podłużnych, ponieważ badamy tę samą grupę uczestników przez cały czas trwania projektu; badacze nie muszą martwić się różnicami między kohortami, mogącymi wpłynąć na wyniki.
Badania podłużne wykorzystuje się często w pracach nad chorobami, mających zidentyfikować ich czynniki ryzyka. Tego typu badania obejmują często dziesiątki tysięcy badanych, których obserwuje się przez wiele dziesięcioleci. Zważywszy na ogromną liczbę uczestników, badacze mogą być pewni, że wyniki będzie można odnosić do większych populacji. Badanie nad nowotworami „Cancer Prevention Study-3 (CPS-3)” jest jednym z serii badań podłużnych sponsorowanych przez Amerykańskie Towarzystwo Onkologiczne (ang. ), mających na celu określenie przewidywalnych czynników ryzyka nowotworów. Na początku badania uczestnicy wypełniają ankietę dotyczącą stylu życia i historii rodziny, która ma dostarczyć informacji o czynnikach mogących wywoływać nowotwór lub mu zapobiegać. Następnie co kilka lat uczestnicy otrzymują do uzupełnienia dodatkową ankietę. W efekcie badanie monitoruje setki tysięcy uczestników w ciągu 20 lat, co pozwala dowiedzieć się, którzy z nich zachorują na nowotwór, a którzy nie.
Powyższe badanie dostarczyło pierwszych naukowych dowodów na obecnie powszechnie znany związek między wzrostem zachorowalności na raka a paleniem papierosów (Amerykańskie Towarzystwo Onkologiczne, b.d.) ().
Tak jak w przypadku innych metod badawczych, również badania podłużne mają swoje ograniczenia. Przede wszystkim wymagają ogromnych nakładów czasowych ze strony badaczy i uczestników. Zważywszy na to, że wiele badań podłużnych trwa nawet dziesiątki lat, ich wyniki są znane dopiero po upływie długiego czasu. Oprócz czasu, badania podłużne wymagają również znaczących nakładów finansowych. Wielu badaczy nie jest w stanie zdobyć środków koniecznych do doprowadzenia takiego projektu do końca.
Ponadto uczestnicy takich badań muszą chcieć kontynuować udział przez cały czas, co może okazać się problematyczne: ludzie się przeprowadzają, zakładają rodziny, zmieniają nazwiska, chorują. Niektórzy mogą po prostu nie czuć potrzeby kontynuowania uczestnictwa w projekcie. Trzeba też brać pod uwagę, że część uczestników wieloletnich badań podłużnych umiera. W efekcie wskaźnik rezygnacji z udziału w badaniach (ang. ), tj. spadek liczby osób badanych spowodowany odejściem części uczestników, w przypadku badań podłużnych jest dość wysoki i zwiększa się z czasem ich trwania. Badacze mają świadomość, że wielu z zakwalifikowanych porzuci badanie przed jego zakończeniem, dlatego na początku projektu rekrutują dużą liczbę uczestników. W miarę postępu badania badacze regularnie sprawdzają, czy próba jest nadal reprezentatywna, i w razie konieczności dokonują niezbędnych korekt.
### Summary
Opisy przypadków polegają na badaniu jednego lub kilku uczestników przez dłuższy czas. Choć ta metoda pozwala uzyskać szczegółowe informacje, to możliwość generalizacji wniosków z takich obserwacji do większej populacji może być problematyczna. Obserwacja naturalna polega na obserwowaniu zachowań w naturalnym otoczeniu i pozwala na zebranie wiarygodnych informacji na podstawie rzeczywistych sytuacji. Obserwacja naturalna charakteryzuje się jednak ograniczonymi możliwościami kontroli badania i często wymaga dużego nakładu czasu i funduszy. Badacze starają się, by stosowane przez nich metody pozyskiwania danych były zarazem rzetelne (spójne i powtarzalne) i trafne (dokładne).
Ankiety mogą być przeprowadzane na różne sposoby i umożliwiają szybkie zebranie dużej ilości informacji. Jednakże szczegółowość danych zebranych w ankiecie jest ograniczona w porównaniu z badaniami klinicznymi czy opisami przypadku.
Badania archiwalne polegają na studiowaniu wyników już istniejących badań w poszukiwaniu odpowiedzi na postawione pytania.
Badania podłużne to niezwykle przydatna metoda dla badaczy pragnących sprawdzić, jak ludzie zmieniają się z upływem czasu. Badania poprzeczne porównują różne segmenty populacji w danym czasie.
### Review Questions
### Critical Thinking Questions
### Personal Application Questions
|
# Prowadzenie badań
## Analiza wyników
Czy wiesz, że gdy wzrasta sprzedaż lodów, wzrasta również ogólny wskaźnik przestępczości? Czy to możliwe, że rozkoszowanie się ulubionymi lodami sprowadza ludzi na złą drogę? A może po popełnieniu przestępstwa ludzie lubią zjeść ten przysmak? Nie ma wątpliwości, że istnieje relacja między wzrostem sprzedaży lodów i liczbą przestępstw (np. Harper, 2013), jednak stwierdzenie, że jedno wynika z drugiego, byłoby absurdalne.
Dużo bardziej prawdopodobne jest, że sprzedaż lodów i liczba przestępstw są związane z temperaturą powietrza. Kiedy jest ciepło, ludzie częściej wychodzą z domów i wchodzą ze sobą w interakcje. Zdarza się przy tym, że wyprowadzają się nawzajem z równowagi, co czasem prowadzi do przestępstw. Gdy na zewnątrz jest ciepło, częściej też kupujemy sobie zimne smakołyki, na przykład lody. W jaki sposób stwierdzić, czy związek między dwoma zjawiskami rzeczywiście istnieje? A jeśli istnieje, to w jaki sposób możemy odróżnić, czy jest wynikiem współwystępowania czy też przyczynowości?
### Badanie korelacyjne
Korelacja (ang. ) oznacza, że istnieje współwystępowanie (współzmienność) między dwiema zmiennymi lub większą ich liczbą (na przykład spożyciem lodów a liczbą przestępstw), lecz ten związek nie musi być związkiem przyczynowo-skutkowym (o czym piszemy poniżej). Jeżeli dwie zmienne są skorelowane, oznacza to jedynie, że zmiana wartości jednej zmiennej wiąże się ze zmianą wartości drugiej. Możemy zmierzyć korelację, obliczając współczynnik korelacji. Współczynnik korelacji (ang. ) to wartość od −1 do +1 wskazująca siłę i kierunek korelacji między zmiennymi. Współczynnik korelacji najczęściej oznaczany jest symbolem r.
Liczba we współczynniku korelacji wskazuje siłę związku. Im bliższa 1 (niezależnie od znaku) jest wartość współczynnika, tym silniejsza jest korelacja między zmiennymi. Im wartość jest bliższa 0, tym słabszy jest związek między zmiennymi. Na przykład współczynnik korelacji równy 0,9 oznacza zdecydowanie silniejszą korelację niż współczynnik 0,3. Jeśli zmienne nie są w ogóle skorelowane, to współczynnik jest równy 0.
Znak „plus” lub „minus” współczynnika korelacji wskazuje kierunek związku (). Korelacja dodatnia (pozytywna) (ang. ) oznacza, że dwie zmienne zmieniają się w tym samym kierunku. Innymi słowy – jeśli jedna zmienna rośnie, druga również rośnie; i odwrotnie, jeśli jedna zmienna maleje, druga też maleje. Korelacja ujemna (negatywna) (ang. ) oznacza, że dwie zmienne zmieniają się w przeciwnych kierunkach. Jeśli dwie zmienne są negatywnie skorelowane, jedna zmienna maleje, a druga rośnie i na odwrót.
Lody i przestępstwa to przykład korelacji dodatniej, ponieważ obie zmienne wzrastają, gdy robi się cieplej. Innymi przykładami korelacji dodatniej są związek między wzrostem a masą ciała człowieka, a także związek między wiekiem a liczbą zmarszczek. Można przypuszczać, że zmęczenie w ciągu dnia jest negatywnie skorelowane z liczbą godzin przespanych poprzedniej nocy: kiedy ilość snu maleje, uczucie zmęczenia rośnie. Na przykład u studentów z University of Minnesota wykryto słabą negatywną korelację (r=-0,29) między średnią liczbą dni w tygodniu, kiedy spali mniej niż pięć godzin a średnią ich ocen (Lowry et al., 2010). Pamiętaj, że korelacja negatywna nie oznacza braku korelacji, ale mówi o kierunku zależności między zmiennymi. Brak korelacji wykazalibyśmy zapewne między ilością snu a rozmiarem buta.
Korelacje mogą mieć wartość predykcyjną. Wyobraź sobie, że jesteś członkiem komisji rekrutacyjnej renomowanego uniwersytetu. Komisja otrzymała ogromną liczbę aplikacji, jednak uczelnia może przyjąć jedynie niewielki procent kandydatów. W jaki sposób zdecydujesz, kto powinien zostać przyjęty? Możesz spróbować skorelować średnią ocen obecnych studentów z ich wynikami ze standardowego testu dla uczniów szkół średnich. Identyfikacja najsilniejszych korelacji dla obecnych studentów może pomóc w typowaniu kandydatów, którzy z dużym prawdopodobieństwem osiągną równie dobre wyniki.
### Korelacja nie oznacza przyczynowości
Badanie korelacyjne jest przydatne, ponieważ pozwala określić siłę i kierunek związku między dwiema zmiennymi. Jednak samo ustalenie istnienia korelacji niewiele mówi o związku przyczynowo-skutkowym (ang. ).
Czasami zmienne są skorelowane, ponieważ istnieje między nimi związek przyczynowo-skutkowy. Czasami jednak to inny czynnik, zwany zmienną zakłócającą (ang. ), powoduje systematyczne zmiany interesujących nas zmiennych. W przykładzie z lodami i przestępstwami zmienną zakłócającą jest temperatura, która może być odpowiedzialna za związek między naszymi zmiennymi. W takim przypadku możemy mówić o tzw. korelacji pozornej – zmienne na poziomie obserwacji czy analiz są ze sobą związane, ale w rzeczywistości odpowiada za to trzecia, inna zmienna (zakłócająca). Więcej o korelacji pozornej poniżej.
Nawet jeśli nie jesteśmy w stanie jednoznacznie wskazać zmiennych zakłócających, to nie powinniśmy zakładać, że korelacja między dwiema zmiennymi oznacza, że jedna z nich powoduje zmianę drugiej. Może to być szczególnie deprymujące, gdy związek przyczynowo-skutkowy wydaje się intuicyjny i oczywisty. Weźmy pod uwagę omawiane już wcześniej badanie przeprowadzone przez Amerykańskie Towarzystwo Onkologiczne, które jako jedno z pierwszych wykazało związek między paleniem papierosów a zachorowaniami na raka. Założenie, że palenie powoduje raka wydaje się uzasadnione, jednak gdy jego sprawdzenie ograniczymy wyłącznie do badania korelacyjnego (ang. ), wówczas takie stwierdzenie będzie nadużyciem. Na podstawie badań korelacyjnych możemy bowiem wnioskować tylko o współwystępowaniu dwóch zmiennych, ale nie o tym, co jest przyczyną, a co skutkiem.
Niestety ludzie często niesłusznie wysnuwają wnioski o przyczynowości na podstawie korelacji. Tego typu stwierdzenia są popularne w reklamach i wiadomościach. Na przykład jedno z badań wykazało, że osoby jedzące regularnie płatki śniadaniowe częściej osiągają prawidłową masę ciała niż osoby, które rzadko jedzą płatki (Frantzen et al., 2013; Barton et al., 2005). Zgadnij, w jaki sposób producenci płatków przedstawiali te wyniki. Czy jedzenie płatków naprawdę powoduje utrzymanie prawidłowej masy ciała? Może są inne wyjaśnienia? Na przykład że osoby o odpowiedniej wadze częściej jedzą śniadanie niż osoby otyłe lub takie, które próbują schudnąć, opuszczając posiłki ().
Badanie korelacyjne jest nieocenione w znajdowaniu związków między zmiennymi, jednak, jak wspomnieliśmy, jego wadą jest brak możliwości ustalenia przyczynowości. Psychologowie dążą do ustalenia przyczyn i skutków, ale można tego dokonać wyłącznie za pomocą eksperymentu. Następny podrozdział opisuje, jak eksperymenty naukowe eliminują i weryfikują alternatywne wyjaśnienia, by pozwolić badaczom zrozumieć, w jaki sposób zmiana jednej zmiennej powoduje (jest przyczyną) zmianę drugiej.
### Korelacja iluzoryczna
Pokusa wyciągnięcia błędnych wniosków przyczynowo-skutkowych opartych na badaniu korelacyjnym to nie jedyny przypadek złej interpretacji danych. Często popełniamy błąd zwany korelacją iluzoryczną. Jest on szczególnie częsty w przypadku niesystematycznych obserwacji. Korelacja pozorna (ang. ) zachodzi, gdy dostrzegamy nieistniejące związki między dwiema zmiennymi. Znanym przykładem korelacji pozornej jest rzekomy wpływ faz Księżyca na zachowanie człowieka. Wiele osób jest głęboko przekonanych, że zmienia się ono w zależności od faz Księżyca, a dokładniej, że ludzie zachowują się dziwnie podczas pełni ().
Nie ma wątpliwości, że Księżyc wywiera silny wpływ na naszą planetę. Pływy morskie są ściśle związane z oddziaływaniem grawitacyjnym naszego naturalnego satelity. Dlatego wielu osobom logiczne wydaje się, że Księżyc wpływa również na nas. W końcu nasze ciała są w dużej mierze zbudowane z wody. Jednakże metaanaliza blisko 40 badań jednoznacznie dowodzi, że związek między fazą Księżyca a naszym zachowaniem nie istnieje (Rottoni Kelly, 1985). Choć w trakcie pełni możemy zwracać większą uwagę na dziwne zachowanie ludzi, to odsetek przypadków dziwnych zachowań pozostaje podobny podczas wszystkich faz Księżyca.
Dlaczego tak chętnie wierzymy w podobne korelacje pozorne? Często o nich słyszymy lub czytamy i po prostu przyjmujemy je za prawdę. Czasami mamy przeczucie, w jaki sposób coś funkcjonuje, i szukamy dowodów, by potwierdzić nasze oczekiwania, ignorując dowody, które mogłyby im zaprzeczyć. Mamy wówczas do czynienia z błędem konfirmacji (in. efektem potwierdzenia) (ang. ).
Choć możemy mieć wrażenie, że będziemy umieli wykorzystać takie związki, by lepiej zrozumieć lub przewidzieć zjawiska otaczającego nas świata, korelacje pozorne mogą mieć znaczące konsekwencje. Na przykład korelacje pozorne, w których pewne zachowania niesłusznie przypisano określonym grupom, są odpowiedzialne za wykształcenie uprzedzeń, a te z kolei prowadzą do zachowań dyskryminujących (Fiedler, 2004).
### Przyczynowość: przeprowadzanie eksperymentów i wykorzystywanie danych
Jak już wiesz, jedynym sposobem na ustalenie istnienia związku przyczynowo-skutkowego między dwiema zmiennymi jest przeprowadzenie eksperymentu (ang. ). Eksperyment w kontekście naukowym ma inne znaczenie niż w życiu codziennym. W potocznej mowie często używamy słowa „eksperyment”, by powiedzieć, że próbujemy coś zrobić po raz pierwszy, na przykład eksperymentując z nową fryzurą lub nowym przepisem w kuchni. Jednak w kontekście naukowym eksperyment wiąże się ze ścisłymi wymaganiami dotyczącymi jego planowania i przeprowadzenia.
### Hipoteza eksperymentu
Aby przeprowadzić eksperyment, badacz musi postawić konkretną hipotezę (ang. ), którą chce przetestować. Jak już wiesz, hipotezy mogą być formułowane na podstawie obserwacji otaczającego nas świata lub dokładnej analizy istniejących już badań.
Na przykład jeśli uważasz, że wykorzystywanie nowych technologii w nauczaniu ma negatywny wpływ na wyniki studentów w nauce, to praktycznie masz już hipotezę mówiącą, że wykorzystanie nowych technologii powoduje spadek efektywności nauczania. Jaka jest geneza tej konkretnej hipotezy? Może ona wynikać z obserwacji, że twoi koledzy używający laptopów do notatek uzyskują niższe wyniki na egzaminach niż ci, którzy notują ręcznie. Albo ci, którzy odbywają zajęcia online, mają mniejszą wiedzę niż ci pracujący bezpośrednio z nauczycielem.
Tego typu osobiste obserwacje często prowadzą do formułowania konkretnych hipotez. Jednak by precyzyjnie przetestować naszą hipotezę, nie możemy bazować na własnych ograniczonych obserwacjach czy przypadkowych dowodach. By dowiedzieć się, czy nasza hipoteza znajdzie poparcie w rzeczywistych danych, musimy przeprowadzić eksperyment.
### Planowanie eksperymentu
Podstawowy plan eksperymentu opiera się na dwóch grupach: grupie eksperymentalnej i grupie kontrolnej. Obie grupy z założenia są takie same z jedną różnicą: grupa eksperymentalna (ang. ) zostaje poddana manipulacji eksperymentalnej – czyli działaniu testowanej zmiennej (w tym przypadku programowi nauczania z zastosowaniem nowych technologii), a grupa kontrolna (ang. ) nie zostaje jej poddana.
Ponieważ manipulacja eksperymentalna jest jedyną różnicą między grupą eksperymentalną a grupą kontrolną, to możemy z dużą dozą pewności stwierdzić, że wszelkie różnice między nimi wynikają z manipulacji eksperymentalnej, a nie z przypadku.
W naszym przykładzie wpływu nowych technologii na naukę studencka grupa eksperymentalna uczy się algebry z użyciem programu komputerowego, a następnie przechodzi test sprawdzający wiedzę. Grupa kontrolna uczy się algebry w tradycyjny sposób, a następnie podchodzi do tego samego testu. Ważne, by grupa kontrolna była traktowana tak samo jak grupa eksperymentalna, z wyjątkiem niepoddania grupy kontrolnej manipulacji eksperymentalnej. Dobrze by było, abyśmy zadbali o odpowiednią liczebność grup badawczych (im większa, tym jesteśmy bardziej uprawnieni do generalizacji wniosków) oraz o równoliczność obu grup – eksperymentalnej i kontrolnej.
Nie ma ścisłych wytycznych, co do konkretnej liczby osób w grupach. Pamiętajmy jednak, że dane zabrane od kilku czy kilkunastu uczestników stanowią raczej studia przypadków, a nie badania naukowe.
Musimy również precyzyjnie określić, tj. zoperacjonalizować, co będzie wyznacznikiem opanowania algebry. Operacjonalizacja zmiennych (ang. ) to opis, w jaki sposób będziemy mierzyć zmienne. Ważne, by to, co i jak badacz mierzy w danym eksperymencie, było jasno określone i całkowicie zrozumiałe. Aby zoperacjonalizować opanowanie algebry, możemy użyć testu sprawdzającego materiał przyswajany przez dwie grupy. Możemy też poprosić uczestników z obu grup, aby zaprezentowali przyswojony materiał, np. rozwiązali zestaw takich samych zadań. Jakkolwiek określimy efekty uczenia się, ważne, by zdefiniować je w taki sposób, by ktokolwiek, kto usłyszy o naszych badaniach po raz pierwszy, wiedział dokładnie, co rozumiemy przez „opanowanie algebry”. Pozwoli to innym odnieść się do naszych wyników oraz umożliwi ewentualne powtórzenie naszego eksperymentu.
Gdy już zdefiniujemy, co rozumiemy przez „użycie technologii w nauczaniu” oraz co uznajemy za „opanowanie algebry przez uczestników eksperymentu”, powinniśmy określić, w jaki sposób przeprowadzimy eksperyment. W omawianym przypadku możemy np. zaprosić uczestników do udziału w 45-minutowych zajęciach z algebry (prowadzonych z użyciem programu komputerowego lub w sposób tradycyjny, w sali przez wykładowcę), a następnie dać obu grupom taki sam test do rozwiązania w czasie 30 minut.
Najlepiej, żeby osoby oceniające test nie wiedziały, kto był w grupie eksperymentalnej, a kto w grupie kontrolnej, by uniknąć tzw. efektu oczekiwań eksperymentatora (ang. ). Efekt ten oznacza ryzyko wypaczenia wyników badania przez oczekiwania badacza. Pamiętaj, że przeprowadzenie eksperymentu wymaga dokładnego planowania, a osoby zaangażowane w projekt badawczy są, co zrozumiałe, przywiązane do swoich hipotez i zainteresowane ich udowodnieniem. Jeśli oceniający test będą wiedzieli, kto był w danej grupie, może to wpłynąć na sposób ich oceny, np. interpretację mało czytelnego pisma lub drobne pomyłki. Jeśli obserwatorzy nie wiedzą, kto był w danej grupie, można uniknąć tego typu wypaczeń. Mamy wówczas do czynienia z badaniem metodą pojedynczo ślepej próby (ang. ), gdzie oceniający test nie wiedzą, którą grupę oceniają (eksperymentalną czy kontrolną), natomiast badacz opracowujący eksperyment ma tę wiedzę.
W badaniu z podwójnie ślepą próbą (ang. ) oceniający nie wiedzą, nad testem jakiej grupy pracują, a uczestnicy, do jakiej grupy należą. Dlaczego badacz chciałby przeprowadzić badanie, w którym nikt nie wie, czy test pochodzi z grupy eksperymentalnej czy z grupy kontrolnej? Dlatego, że dzięki temu wynik nie ulega wpływowi oczekiwań ani badacza ani uczestników. Dzięki temu można zneutralizować efekt placebo (ang. ). Efekt placebo występuje, gdy oczekiwania lub przekonania ludzi wpływają na ich doświadczenie lub nawet je determinują. Innymi słowy, samo oczekiwanie, że coś się wydarzy, może sprawić, że tak właśnie się stanie.
Efekt placebo jest zazwyczaj opisywany w związku z testowaniem skuteczności nowych leków. Wyobraź sobie, że pracujesz w firmie farmaceutycznej i opracowaliście nowy lek na depresję. By udowodnić, że jest skuteczny, przeprowadzasz eksperyment z dwiema grupami: grupa eksperymentalna otrzymuje nowy lek, a grupa kontrolna dostaje substancję neutralną. Badanie prowadzisz według procedury podwójnie ślepej próby. Uczestnicy nie wiedzą, czy dostali lek, czy nie, oraz szyfrujesz dane uczestników, żeby podczas badania nie wiedzieć, kto był w grupie eksperymentalnej, a kto w kontrolnej.
Po co ta podwójnie ślepa próba? Wyobraź sobie, że uczestnik tego badania dostaje tabletkę, która – jego zdaniem – poprawi mu nastrój. Ponieważ oczekuje on, że tabletka poprawi nastrój, może poczuć się lepiej po samym zażyciu tabletki, a nie dlatego, że zawierała jakąkolwiek substancję czynną — to właśnie nazywamy efektem placebo. By upewnić się, że jakiekolwiek zmiany w nastroju są spowodowane lekiem, a nie oczekiwaniami, grupa kontrolna otrzymuje placebo (nieaktywną substancję, np. tabletkę z cukru). Dzięki temu każdy otrzymuje tabletkę i ani badacz, ani uczestnicy nie wiedzą, kto dostał lek, a kto cukier. Wszelkie różnice nastroju między grupą eksperymentalną a grupą kontrolną można teraz przypisać lekowi, a nie oczekiwaniom eksperymentatora czy uczestnika ().
### Zmienne zależne i niezależne
Podczas eksperymentu próbujemy zbadać, czy zmiana jednego parametru powoduje zmianę innego parametru. By się tego dowiedzieć, musimy zwrócić uwagę na kolejne dwa ważne czynniki każdego eksperymentu badawczego: zmienną niezależną i zmienną zależną. Zmienna niezależna (ang. ) jest modyfikowana lub kontrolowana przez eksperymentatora. W dobrze zaplanowanym badaniu zmienna niezależna jest jedyną istotną różnicą między grupą eksperymentalną a grupą kontrolną. W naszym przykładzie dotyczącym wpływu nowych technologii na naukę algebry zmienną niezależną jest sposób nauki uczestników (komputerowy lub tradycyjny) (). Zmienna zależna (ang. ) to zmienna, którą mierzy badacz, aby sprawdzić, jaki wpływ miała na nią zmienna niezależna. W naszym przykładzie zmienną zależną jest stopień opanowania algebry przez uczestników.
Oczekujemy, że w trakcie eksperymentu zmienna zależna ulegnie zmianie pod wpływem zmiennej niezależnej. Innymi słowy, że zmienna zależna zależy od zmiennej niezależnej. Dobrym sposobem na zapamiętanie związku między zmienną niezależną i zależną jest następujące pytanie: Jaki wpływ zmienna niezależna wywiera na zmienną zależną? W naszym przykładzie: jaki wpływ będzie miał sposób nauki (tradycyjny lub komputerowy) na wyniki testu z algebry?
### Wybór uczestników eksperymentu i przypisywanie ich do grup
Kiedy nasz eksperyment jest już zaplanowany, należy zakwalifikować do udziału w badaniu osoby reprezentujące interesującą nas populację. Uczestnicy (osoby badane) (ang. ) to podmioty badań psychologicznych i, jak sama nazwa wskazuje, osoby, które są zaangażowane w badanie psychologiczne i aktywnie uczestniczą w tym procesie. W badaniach psychologicznych uczestnikami są często studenci. W rzeczywistości ogromna większość badań z różnych dyscyplin psychologii opierała się na studentach (Sears, 1986; Arnett, 2008). Lecz czy studenci są rzeczywiście reprezentatywni dla ogółu populacji? Są młodsi, lepiej wyedukowani, bardziej liberalni i mniej zróżnicowani niż ogół populacji. Choć wybór studentów jako podmiotów badań jest ogólnie przyjętą praktyką, to poleganie na tak ograniczonej puli uczestników może być problematyczne, ponieważ utrudnia generalizowanie wyników – tj. odnoszenie ich do szerszej populacji.
Nasz hipotetyczny eksperyment wymaga udziału studentów. Jeśli to możliwe, powinniśmy wybrać próbę losową (istnieją różne rodzaje prób, ale na potrzeby tego rozdziału skupimy się na próbie losowej). Próba losowa (ang. ) to podzbiór większej populacji, w którym każdy członek tej grupy ma równe szanse na bycie wybranym. Próby losowe są preferowane, ponieważ przy wystarczająco dużej liczbie uczestników można w sposób uzasadniony przypuszczać, że grupa wybrana do udziału w badaniu jest reprezentatywna dla szerszej populacji. Oznacza to, że rozkład procentowy cech w próbce (np. płeć, poziom inteligencji, status socjoekonomiczny i inne cechy mogące wpłynąć na wyniki) jest zbliżony do rozkładu w szerszej populacji.
W naszym przykładzie przyjmujemy, że interesującą nas populacją są studenci matematyki. Populacja studentów matematyki jest bardzo duża, więc potrzebujemy ją zawęzić; możemy zdecydować, że interesują nas studenci matematyki w wybranym mieście. By próba była bardziej reprezentatywna dla tej populacji, powinniśmy wybrać studentów z różnych części miasta, o różnej sytuacji rodzinnej, zarobkowej itd. Mając tak określoną, możliwą do przebadania populację, możemy zgłosić się do lokalnych uczelni i wybrać losową próbę około 200 studentów, którzy wezmą udział w eksperymencie.
Podsumowując, ponieważ nie jesteśmy w stanie przebadać wszystkich studentów matematyki na danym obszarze, chcemy znaleźć takich, którzy będą odzwierciedlali różnorodność całej tej populacji. Dzięki grupie reprezentatywnej możemy generalizować wyniki eksperymentu bez obaw, że nasza próbka (b) okaże się tendencyjna.
Następnym krokiem jest podział uczestników na grupę eksperymentalną i grupę kontrolną przez dobór losowy. Dzięki doborowi (przydziałowi losowemu) (ang. ) wszyscy uczestnicy z takim samym prawdopodobieństwem mogą zostać włączeni do grupy eksperymentalnej, jak i do kontrolnej. Istnieje oprogramowanie, które losowo przydziela każdego z badanych do grupy eksperymentalnej lub kontrolnej.
Dobór losowy jest kluczowy dla rzetelnego planu eksperymentu (ang. ). Przy dużej próbie (rzędu kilkuset osób) dobór losowy niemal wyklucza systematyczne różnice między grupami. Na przykład niemal niemożliwe byłoby otrzymanie jednej grupy złożonej wyłącznie z mężczyzn z danej klasy społecznej. To ważne, ponieważ jeśli grupy różniłyby się od siebie istotnie, nie wiedzielibyśmy, z czego wynikają różnice zaobserwowane podczas eksperymentu. Czy istniały już wcześniej, czy też zostały spowodowane manipulacją eksperymentalną? Dobór losowy pozwala założyć, że wszelkie różnice zaobserwowane między grupą eksperymentalną a grupą kontrolną wynikają z manipulacji zmienną niezależną (tą, której wpływ chcemy zbadać, w tym przypadku sposobem nauki algebry).
### Problemy, które trzeba wziąć pod uwagę
Choć eksperymenty pozwalają badaczom wykazać związek przyczynowo-skutkowy, one także mają swoje ograniczenia. Miarodajne eksperymenty wymagają modyfikacji zmiennej niezależnej, co może być problematyczne w przypadku wielu pytań badawczych. Na przykład wyobraź sobie, że chcesz się dowiedzieć, jaki wpływ ma płeć (zmienna niezależna) na pamięć przestrzenną (zmienna zależna). Możesz na podstawie zadania sprawdzającego pamięć przestrzenną szukać różnic między kobietami a mężczyznami, ale nie możesz bezpośrednio kontrolować płci osoby. Tego typu badanie kwalifikujemy jako quasi-eksperymenty i przyznajemy, że w danych okolicznościach nie mamy możliwości ustalenia związku przyczynowo-skutkowego.
Eksperymenty są również ograniczone zasadami etycznymi. Nie wolno np. przeprowadzić eksperymentu sprawdzającego, czy przemoc wobec dzieci prowadzi do ich niższej samooceny w dorosłym życiu. By przeprowadzić taki eksperyment, należałoby losowo przypisać część jego uczestników do grupy, która doświadczałaby przemocy, a to byłoby nieetyczne.
### Interpretowanie wyników eksperymentów
Po zebraniu danych z obu grup, eksperymentalnej i kontrolnej, przeprowadzamy ich analizę statystyczną (ang. ), by dowiedzieć się, czy istnieją istotne różnice między nimi. Analiza statystyczna określa m.in. prawdopodobieństwo, że dana różnica między grupami może być przypadkowa (a co za tym idzie, bez znaczenia).
Przykładowo, jeśli zbadamy efektywność suplementów diety i nie zaobserwujemy istotnych statystycznie różnic między grupą eksperymentalną (przyjmującą dany specyfik) a kontrolną (otrzymującą placebo), to możemy wnioskować, że konkretne suplementy są nieskuteczne.
Generalnie w psychologii różnice między grupami są postrzegane jako istotne statystycznie, jeśli prawdopodobieństwo, że są one przypadkowe (grupy tak naprawdę nie różnią się od siebie) wynosi 5% lub mniej. Innymi słowy, chodzi o ograniczenie do maksymalnie 5% prawdopodobieństwa fałszywie potwierdzonych hipotez.
Najsilniejszą stroną eksperymentów jest możliwość uzyskania pewności, że jakakolwiek znacząca zmiana wyników jest spowodowana zmienną niezależną. Taką możliwość zapewnia losowy dobór uczestników do próby oraz takie planowanie eksperymentu, które ograniczy efekt oczekiwań eksperymentatora i uczestników. Dzięki temu tworzymy grupy o podobnym składzie, które traktowane są w ten sam sposób. Tym samym jakakolwiek różnica między grupami może zostać przypisana zmiennej niezależnej, co umożliwia nam stwierdzenie przyczynowości. Jeśli wykażemy, że wykorzystanie nowych technologii w nauczaniu daje takie same wyniki jak metody tradycyjne (a może nawet jest pod pewnymi względami skuteczniejsze), to możemy generalizować te wnioski i wykorzystać je np. w planowaniu efektywnej edukacji.
### Publikowanie badań
Gdy psycholog zakończy projekt badawczy, zazwyczaj chce podzielić się uzyskanymi przez siebie wynikami z innymi naukowcami. Robi to za pośrednictwem publikacji pracy poświęconej swojemu badaniu w czasopismach naukowych. Czasopisma naukowe zazwyczaj publikują recenzowane artykuły naukowe (ang. ) skierowane do osób zawodowo zajmujących się daną dziedziną oraz naukowców aktywnie zaangażowanych w pracę naukową.
Recenzowany artykuł jest czytany i oceniany przez kilku innych naukowców (zazwyczaj anonimowo) mających doświadczenie i znaczny dorobek w danej dziedzinie. Recenzenci przekazują informacje zwrotne, tj. swoje uwagi odnośnie do nadesłanej pracy, autorowi oraz redaktorowi danego czasopisma. Recenzenci skupiają się na istnieniu solidnych przesłanek do przeprowadzenia badania, jasnym opisie procedury badawczej oraz przestrzeganiu zasad etycznych. Jeśli występują jakiekolwiek nieścisłości czy naruszenia w zastosowanych metodach badawczych, założeniach czy interpretacji wyników, zwracają na nie uwagę. Ponadto recenzenci wypowiadają się na temat wartości, jaką przedstawia badanie dla rozwoju danej dyscypliny.
Pozwala to na uniknięcie duplikowania wyników badań w literaturze naukowej oraz, do pewnego stopnia, gwarantuje, że każdy nowy artykuł przedstawia nowe informacje. Na koniec redaktor pisma zbiera wszystkie opinie recenzentów i decyduje, czy artykuł zostanie opublikowany w nadesłanej formie (rzadki przypadek), z poprawkami czy w ogóle nie zostanie zaakceptowany do publikacji.
Recenzje zapewniają w pewnym stopniu kontrolę jakości badań psychologicznych. Źle przemyślane lub źle przeprowadzone badania zostają odrzucone, a nawet dobrze zaplanowane badanie może zostać ulepszone dzięki sugerowanym poprawkom. Recenzje gwarantują również, że badanie zostanie opisane wystarczająco jasno, by zapewnić jego powtarzalność (replikowalność) (ang. ), tak by inni naukowcy mogli powtórzyć dany eksperyment przy użyciu różnych prób w celu określenia rzetelności wykonania badania. Czasami powtórki badań są wzbogacane o dodatkowe kryteria, które rozszerzają pierwotne wyniki.
W każdym przypadku replikacja zapewnia nowe dowody w danym obszarze badawczym. Udane powtórzenia opublikowanego badania sprawiają, że naukowcy są bardziej skłonni posługiwać się jego wynikami, a wielokrotnie nieudane powtórzenia skutkują zazwyczaj wątpliwościami co do słuszności oryginalnego artykułu i zachęcają naukowców do opierania się na innych dowodach. W ostatnich latach mamy do czynienia z tzw. „kryzysem replikacji” (ang. ), który dotknął wiele dziedzin nauki, w tym psychologię. Niektórych z najbardziej znanych wyników badań (prowadzonych przez słynnych naukowców) nie udało się zreplikować (zob. dyskusja w: Shrout i Rodgers, 2018). Nawet zdobywczyni Nagrody Nobla, amerykańska chemiczka Frances Arnold, wycofała opublikowany artykuł, ponieważ miała trudności z odtworzeniem swoich wyników (3 stycznia 2020 r.).
Tego rodzaju przypadki skłoniły niektórych naukowców do współpracy i bardziej otwartej wymiany, a niektórzy twierdzą, że obecny „kryzys” w rzeczywistości służy podwyższeniu standardów tworzenia nauki i dostarczania rzetelnych wyników (Aschwanden, 2018; Rodgers i Shrout, 2018).
### Rzetelność i trafność
Rzetelność i trafność to wartości o ogromnym znaczeniu dla każdego procesu zbierania danych. Rzetelność (ang. ) danych oznacza możliwość dokładnego powtórzenia wyniku. W kontekście badań psychologicznych oznacza to, że każdy instrument czy narzędzie wykorzystane do gromadzenia danych można wielokrotnie wykorzystać w dokładny i powtarzalny sposób.
Istnieje wiele różnych rodzajów rzetelności. Niektóre z nich obejmują:
1. Spójność między oceniającymi (ang.
2. Spójność wewnętrzną (ang.
3. Spójność testu w czasie (ang.
Niestety, dokładny pomiar nie jest zawsze równoznaczny z poprawnym pomiarem. By zilustrować ten problem, posłużmy się przykładem wagi kuchennej, którą wykorzystamy do zmierzenia masy zjadanych co rano płatków śniadaniowych. Jeśli waga nie jest dobrze skalibrowana, będzie za każdym razem spójnie zawyżała lub zaniżała masę ważonych płatków. Choć waga bardzo dokładnie podaje wyniki (np. ta sama ilość odważanych płatków daje za każdym razem ten sam wynik), to jednak wyniki nie są poprawne. I tu w grę zaczyna wchodzić trafność. Trafność (ang. ) odnosi się do stopnia, w jakim dany instrument czy narzędzie mierzy to, co ma mierzyć. Podobnie jak w przypadku rzetelności testu, istnieje kilka rodzajów trafności. Najważniejsze z nich wymieniono poniżej:
1.
2.
Na przykład jedno z najpowszechniej wykorzystywanych narzędzi do pomiaru objawów stresu pourazowego (PTSD), Skala Wpływu Zdarzeń (ang. , w wersji pierwotnej ujmowało jedynie dwa z trzech definicyjnych objawów PTSD (obecność intruzji i unikania). Dopiero w zrewidowanej wersji IES - R (Weissi Marmar) uwzględniono trzy kluczowe wymiary PTSD, tj. intruzje, unikanie oraz pobudzenie – przejawiające się nadmierną czujnością oraz powracającymi, nieprzyjemnymi emocjami (Kosydar - Bochenek et al., 2016).
1.
Podczas gdy każdy trafny pomiar jest siłą rzeczy rzetelny, tak odwrotność tego twierdzenia nie zawsze jest prawdą. Badacze starają się wykorzystywać instrumenty, które są zarazem bardzo rzetelne i trafne.
### Podsumowanie
Korelacja opisywana jest za pomocą współczynnika korelacji r, który przyjmuje wartości od –1 do +1. Współczynnik korelacji wskazuje kierunek korelacji (dodatnia lub ujemna) oraz siłę związku między dwiema lub więcej zmiennymi. Korelacja nie mówi nam nic o przyczynowości bez względu na to, jak silny jest związek między zmiennymi. Mówi jedynie o współwystępowaniu zmiennych. Jedynym sposobem na wykazanie przyczynowości jest przeprowadzenie eksperymentu. Ludzie często popełniają błąd, twierdząc, że korelacje istnieją, podczas gdy nie mają one miejsca (mówimy wtedy o tzw. korelacji pozornej).
Badacze mogą sprawdzać hipotetyczne związki przyczynowo-skutkowe, przeprowadzając eksperymenty. W idealnym eksperymencie uczestnicy są wybierani losowo z populacji, której dotyczy eksperyment. Następnie są losowo przydzielani do grup. Czasami badacze i uczestnicy nie wiedzą, kto został przypisany do jakiej grupy, by uniknąć wpływu oczekiwań na wyniki eksperymentu.
W dobrze zaplanowanym eksperymencie jedyną różnicą między grupą eksperymentalną a grupą kontrolną jest działanie manipulacji eksperymentalnej w pierwszej grupie. Każda grupa przechodzi przez wszystkie fazy eksperymentu, ale każda doświadcza w innym stopniu oddziaływania zmiennej niezależnej: grupa eksperymentalna zostaje poddana manipulacji eksperymentalnej, a grupa kontrolna nie. Następnie badacz mierzy zmiany zachodzące w zmiennej zależnej w każdej grupie. Kiedy dane z obu grup zostaną zebrane, poddaje się je analizie statystycznej, by określić, czy zaistniały istotne różnice między grupami.
Psychologowie prezentują wyniki swoich badań w czasopismach naukowych. Publikowane w ten sposób badania są sprawdzone przez recenzentów – specjalistów z danej dziedziny. Ponadto do opublikowanych wyników mogą się odnieść wszyscy zainteresowani psychologowie. W ten sposób kontroluje się rzetelność prowadzonych badań. Replikacja badań odgrywa ważną rolę w potwierdzaniu słuszności opublikowanego badania. W dłuższym czasie tylko te wyniki, które dają się wielokrotnie powtórzyć, zostają przyjęte przez społeczność naukową.
### Review Questions
### Critical Thinking Questions
|
# Prowadzenie badań
## Etyka
W dzisiejszych czasach naukowcy są zgodni, że dobre badania to badania etyczne, szanujące godność człowieka i jego bezpieczeństwo. Jednak, jak przeczytasz poniżej, nie zawsze tak było. Współcześni badacze muszą wykazać, że prowadzone przez nich badanie jest etyczne. W tym podrozdziale powiemy, jak względy etyczne wpływają na planowanie i sposób przeprowadzania badań.
### Badania z udziałem ludzi
Każdy eksperyment, w którym ludzie są podmiotem badania, musi spełnić wiele surowych wymagań, mających zagwarantować bezpieczeństwo uczestników. W Polsce każda instytucja badawcza (zatem także uczelnie wyższe) powołuje własne komisje etyczne, których zadaniem jest opiniowanie projektów badawczych. W skład tych komisji wchodzą pracownicy naukowi danej jednostki. W Polsce dla dużych projektów badawczych finansowanych przez instytucje państwowe (a nie ze środków wewnętrznych uczelni) wiążąca jest opinia komisji etycznej z konkretnego ośrodka naukowego. Taką instytucją jest m.in. Narodowe Centrum Nauki (NCN).
Aby eksperyment został zaakceptowany przez komisję, musi spełnić określone wymogi. Przede wszystkim przed przystąpieniem do badania każdy jego uczestnik musi podpisać oświadczenie o świadomej zgodzie na udział w badaniu. Formularz świadomej zgody (ang. ) zawiera informację, czego uczestnik może się spodziewać podczas eksperymentu, jakie ryzyko jest z nim związane oraz jakie może mieć konsekwencje. Uczestnik zostaje również poinformowany, że jego udział w badaniu jest całkowicie dobrowolny oraz że ma możliwość wycofania się w każdej chwili bez jakichkolwiek zobowiązań. Ponadto świadoma zgoda gwarantuje całkowitą poufność zebranych w eksperymencie danych. W przypadku badań z udziałem osób poniżej 18. roku życia wymagana jest świadoma zgoda rodziców lub prawnych opiekunów.
Na procedurę, w trakcie której osoby na podstawie uzyskanych informacji decydują, czy uczestniczyć w badaniu, składają się cztery czynniki (wg Frankfort-Nachmias i Nachmias, 2001): kompetencja, dobrowolność, pełna informacja i zrozumienie.
1) Kompetencja zakłada, że decyzje podjęte przez osoby dojrzałe, sprawne intelektualnie, odpowiedzialne, którym ponadto udzielono wszelkich potrzebnych informacji na temat badania, są decyzjami właściwymi i niekwestionowanymi.
W przypadku, kiedy uczestnikami badania są osoby ze swej natury niebędące w stanie dokładnie zrozumieć zagadnień danego eksperymentu (np. z poważnymi zaburzeniami intelektualnymi/psychicznymi lub dzieci), należy podjąć dalsze kroki. Jeśli eksperyment może przynieść bezpośrednie korzyści dla osób biorących w nim udział (np. jeśli badany jest wpływ terapii), wówczas o możliwości uczestniczenia w badaniu zadecydować mogą opiekunowie prawni. Natomiast jeśli sytuacja badawcza nie zakłada ewentualnych korzyści dla osób badanych, a wręcz przeciwnie, wiąże się z pewnymi obciążeniami natury fizycznej czy emocjonalnej, to badanie nie powinno się odbyć.
2) Dobrowolność opiera się na założeniu, że udział osób w danym eksperymencie powinien być dobrowolny. Innymi słowy, decyzja o udziale w badaniu powinna zostać podjęta bez jakichkolwiek elementów przymusu, manipulacji czy nakłaniania. W naturalnych sytuacjach warunek taki wydaje się łatwy do spełnienia, jednak w przypadku badań przeprowadzanych np. w więzieniach, szpitalach czy szkołach dobrowolny udział uczestników nie jest już taki oczywisty. Nawet w sytuacji studentów, którym za udział w badaniach przyznawane są punkty za zajęcia (a na niektórych uczelniach wręcz mają obowiązek uczestnictwa), warunek dobrowolności jest dyskusyjny.
3) Pełna informacja zakłada poinformowanie uczestnika o wszelkich przewidywanych skutkach badania, zarówno pozytywnych, jak i negatywnych. Ponadto ważne jest udzielenie informacji o możliwości przerwania badania w dowolnym momencie, szczegółowe omówienie procedury badawczej oraz odpowiedź na wszelkie pytania. Co ważne, często sam badacz nie dysponuje całościową wiedzą na temat badania, np. nie jest w stanie przewidzieć wszelkich możliwych następstw.
4) Zrozumienie opiera się przede wszystkim na takim sposobie przedstawienia treści związanych z przebiegiem i celami badania, aby mieć pewność, że uczestnik właściwie je zrozumiał i otrzymał wyjaśnienie wszystkich swoich wątpliwości. Nacisk położony jest tu przede wszystkim na dostosowanie przekazu do danej osoby.
O ile w świadomej zgodzie opis tego, co dokładnie będą robili uczestnicy podczas eksperymentu, powinien być możliwie dokładny i wyczerpujący, o tyle czasami konieczne jest maskowanie. Kiedy znajomość dokładnych założeń badania mogłaby wpłynąć na wyniki eksperymentu, nie zdradza się ich uczestnikom. Maskowanie (ang. ) polega na celowym zatajeniu prawdziwego celu badania, a czasami nawet na wprowadzeniu w błąd uczestników, żeby zachować integralność eksperymentu, jednak nie w stopniu, który mógłby zostać uznany za szkodliwy.
Na przykład jeśli jesteśmy zainteresowani tym, w jaki sposób opinia o innych zależy od ich ubioru, wówczas w opisie eksperymentu moglibyśmy uciec się do maskowania, by znajomość celu badania nie wpłynęła na odpowiedzi uczestników. W przypadkach, w których badacze posłużyli się maskowaniem, na koniec badania uczestnicy muszą przejść procedurę wyjaśniania prawdziwego celu badania, czyli tzw. procedurę odkłamania (ang. ), podczas której otrzymują pełne i zgodne z prawdą informacje o celu eksperymentu, o sposobie, w jaki zebrane dane zostaną wykorzystane, o powodach, dla których maskowanie było konieczne, oraz możliwościach uzyskania dodatkowych informacji na temat badania. Często procedura odkłamania zawiera także spotkanie z uczestnikami eksperymentu, w trakcie którego następuje omówienie ewentualnego wpływu badania na ich dobrostan psychiczny oraz – w razie konieczności – zapewnienie im wsparcia psychologicznego.
### Badania z udziałem zwierząt
Wielu psychologów prowadzi badania z udziałem zwierząt. Badacze często wykorzystują gryzonie () lub ptaki jako przedmioty swoich eksperymentów – Amerykańskie Towarzystwo Psychologiczne (APA) szacuje, że są one wykorzystywane w 90% wszystkich badań z udziałem zwierząt (ang. ) z dziedziny psychologii (Amerykańskie Towarzystwo Psychologiczne, n.d.). Ponieważ wiele podstawowych procesów u zwierząt i ludzi jest w wystarczającym stopniu podobnych, zwierzęta są akceptowane w zastępstwie człowieka w badaniach, w których udział ludzi zostałby uznany za nieetyczny.
Badania dotyczące zwierząt dopuszczają nieco większą swobodę badawczą, na przykład w kontekście zadawania cierpienia. W przypadku ludzi jest to czynnik bezwzględnie uniemożliwiający przeprowadzenie badania – projekt, w którym zaznaczone jest, że dana jednostka może odczuwać cierpienie (różnie rozumiane), zostaje wykluczony i nie dopuszcza się do jego realizacji; natomiast w przypadku zwierząt mówi się o zminimalizowaniu w jak największym stopniu cierpienia oraz dopuszczeniu takich badań do realizacji tylko w wyjątkowych, głęboko uzasadnionych przypadkach (Frankfort-Nachmias i Nachmias, 2001).
Nie oznacza to, że badacze prowadzący eksperymenty z udziałem zwierząt nie podlegają wymogom etycznym. Wręcz przeciwnie, humanitarne i etyczne traktowanie zwierząt jest podstawowym wymogiem dla tego typu badań. Badacze muszą je zaplanować w taki sposób, by zminimalizować ból i stres, którego w ich efekcie doświadczą zwierzęta.
W Polsce każdy projekt badawczy z udziałem zwierząt (podobnie jak z udziałem ludzi) musi uzyskać pozytywną opinię komisji etyki właściwej dla danej jednostki. Ponadto obowiązują nadrzędne ustawy, takie jak Ustawa z 21 stycznia 2005 roku o doświadczeniach na zwierzętach oraz Ustawa z dnia 15 stycznia 2015 roku o ochronie zwierząt wykorzystywanych do celów naukowych lub edukacyjnych. W szczególności ostatnia z wymienionych poświęcona jest opisywanemu zagadnieniu, a jej postanowienia stanowią wykonanie Dyrektywy Parlamentu Europejskiego i Rady 2010/63/UE z dnia 22 września 2010 roku w sprawie ochrony zwierząt wykorzystywanych do celów naukowych (Żukowski, 2017).
Przywołana powyżej ustawa, pozostając w zgodności z zaleceniami Unii Europejskiej, przewiduje:
1. ograniczenie doświadczeń na zwierzętach do minimum przy założeniu zwiększenia wykorzystania metod alternatywnych,
2. określenie celów, które uzasadniają prowadzenie na zwierzętach procedur doświadczalnych zgodnie z zakresem systemu nadzoru etycznego w celu wykonania przepisu ustawy,
3. ustalenie pochodzenia gatunków zwierząt dopuszczonych do wykorzystania w celach naukowych (ogranicza się udział np. zwierząt dzikich, bezdomnych oraz ssaków naczelnych),
4. określenie niezbędnych kwalifikacji personelu naukowego i technicznego, który bierze udział w projektowaniu i przeprowadzaniu doświadczeń oraz sprawuje nadzór nad dobrostanem zwierząt, jak również osób, które wchodzą w skład komisji etycznych,
5. określenie kryteriów oceny etycznej projektów doświadczeń i normalizację procedury takiej oceny,
6. określenie sankcji,
7. zmiany w strukturze i sposobie funkcjonowania komisji etycznych ds. doświadczeń na zwierzętach.
Ogólnie rzecz biorąc, standardy w badaniach nad zwierzętami dążą do wprowadzenia trzech kluczowych zasad: 1) zastąpienia (), 2) zmniejszenia () oraz 3) doskonalenia ().
Zasada zastąpienia przewiduje, że badania z udziałem zwierząt należy prowadzić tylko w przypadkach, kiedy nie jest możliwe lub jest nieracjonalne zastosowanie innej metody badawczej.
Zasada zmniejszenia zakłada wykorzystanie jak najmniejszej liczby zwierząt w procedurach doświadczalnych i naukowych. Sposobem na zmniejszenie tej liczby jest m.in. wielokrotne przeprowadzanie procedur na tych samych zwierzętach, o ile nie wiąże się to z pogorszeniem ich dobrostanu.
Zasada doskonalenia polega na poprawie zarówno metod hodowli, jak i samych procedur badawczych tak, aby wykluczyć lub zminimalizować potencjalny ból, stres i cierpienie zwierzęcia (Żukowski, 2017).
### Summary
Etyka w badaniach naukowych wciąż ewoluuje. Praktyki, które były akceptowane lub tolerowane w przeszłości, dziś są uznawane za nieetyczne. Podczas eksperymentów z udziałem ludzi badacze muszą przestrzegać podstawowych wymogów etycznych. Każdy eksperyment z udziałem ludzi musi uzyskać akceptację komisji etycznej danej jednostki naukowej. Udział w nim jest dobrowolny i wymaga świadomej zgody uczestników. Jeśli w ramach eksperymentu posłużono się maskowaniem, to każdy uczestnik musi przejść procedurę wyjaśniania prawdziwego celu badania po jego zakończeniu (procedurę odkłamania).
Badania z udziałem zwierząt również odbywają się z zachowaniem wysokich standardów etycznych. Badacze wykorzystujący zwierzęta jako obiekty eksperymentów muszą zaplanować badania tak, by wynikający z nich ból został zminimalizowany. Badania z udziałem zwierząt również wymagają zgody komisji etycznej, są także regulowane rozporządzeniami państwowymi.
### Review Questions
### Critical Thinking Questions
### Personal Application Questions
|
# Biopsychologia
## Wprowadzenie
Czy zdarzyło ci się kiedyś rozłożyć jakieś urządzenie na czynniki pierwsze, żeby dowiedzieć się, jak działa? Wielu z nas kiedyś tak zrobiło, żeby naprawić zepsuty mechanizm, albo nawet z czystej ciekawości. Wnętrze maszyny często bardzo różni się od tego, co nazywamy interfejsem użytkownika. Przecież zwiększając głośność w smartfonie, mało kto na co dzień myśli o obwodach i mikroczipach; chcemy tylko uzyskać odpowiednie natężenie dźwięku. Podobnie jest z ludzkim ciałem. Wewnętrzne mechanizmy często różnią się od zewnętrznych przejawów ich działania. Zadaniem psychologów jest odnalezienie związku między tym, co na zewnątrz, a tym, co w środku, np. odkrycie, w jaki sposób wyładowania milionów neuronów stają się myślą.
W tym rozdziale spróbujemy wyjaśnić biologiczne mechanizmy warunkujące ludzkie zachowania. Te fizjologiczne i anatomiczne fundamenty stanowią podstawę wielu dziedzin psychologii. Z tego rozdziału nauczysz się, w jaki sposób genetyka wpływa zarówno na naszą fizjologię, jak i na cechy psychiczne. Poznasz budowę i działanie układu nerwowego. Na koniec dowiesz się, jak współdziała on z układem wewnątrzwydzielniczym.
### References
Arnst, C. (2003, November). Commentary: Getting rational about health-care rationing. Bloomberg Businessweek Magazine. Retrieved from http://www.businessweek.com/stories/2003-11-16/commentary-getting-rational-about-health-care-rationing.
Berridge, K. C., & Robinson, T. E. (1998). What is the role of dopamine in reward: Hedonic impact, reward learning, or incentive salience? Brain Research Reviews, 28, 309–369.
Chandola, T., Brunner, E., & Marmot, M. (2006). Chronic stress at work and the metabolic syndrome: A prospective study. BMJ, 332, 521–524.
Comings, D. E., Gonzales, N., Saucier, G., Johnson, J. P., & MacMurray, J. P. (2000). The DRD4 gene and the spiritual transcendence scale of the character temperament index. Psychiatric Genetics, 10, 185–189.
Confer, J. C., Easton, J. A., Fleischman, D. S., Goetz, C. D., Lewis, D. M. G., Perilloux, C., & Buss, D. M. (2010). Evolutionary psychology: Controversies, questions, prospects, and limitations. American Psychologist, 65, 110–126.
Gaines, C. (2013, August). An A-Rod suspension would save the Yankees as much as $37.5 million in 2014 alone. Business Insider. Retrieved from http://www.businessinsider.com/an-a-rod-suspension-would-save-the-yankees-as-much-as-375-million-in-2014-2013-8.
Gardner, E. L. (2011). Addiction and brain reward and antireward pathways. Advances in Psychosomatic Medicine, 30, 22–60.
George, O., Le Moal, M., & Koob, G. F. (2012). Allostasis and addiction: Role of the dopamine and corticotropin-releasing factor systems. Physiology & Behavior, 106, 58–64.
Glaser, R., & Kiecolt-Glaser, J. K. (2005). Stress-induced immune dysfunction: Implications for health. Nature Reviews Immunology, 5, 243–251.
Gong, L., Parikh, S., Rosenthal, P. J., & Greenhouse, B. (2013). Biochemical and immunological mechanisms by which sickle cell trait protects against malaria. Malaria Journal. Advance online publication. doi:10.1186/1475-2875-12-317.
Hardt, O., Einarsson, E. Ö., & Nader, K. (2010). A bridge over troubled water: Reconsolidation as a link between cognitive and neuroscientific memory research traditions. Annual Review of Psychology, 61, 141–167.
Macmillan, M. (1999). The Phineas Gage Information Page. Retrieved from http://www.uakron.edu/gage.
March, J. S., Silva, S., Petrycki, S., Curry, J., Wells, K., Fairbank, J., .Burns, B., Domino, M., McNulty, S., Vitiello, B., Severe, J. (2007). The treatment for adolescents with depression study (TADS): Long-term effectiveness and safety outcomes. Arch Gen Psychiatry, 64, 1132–1143.
Mustanski, B. S., DuPree, M. G., Nievergelt, C. M., Bocklandt, S., Schork, N. J., & Hamer, D. H. (2005). A genome wide scan of male sexual orientation. Human Genetics, 116, 272–278.
National Institute on Drug Abuse. (2001, July). Anabolic steroid abuse: What are the health consequences of steroid abuse? National Institutes of Health. Retrieved from http://www.drugabuse.gov/publications/research-reports/anabolic-steroid-abuse/what-are-health-consequences-steroid-abuse.
Squire, L. R. (2009). The legacy of patient H. M. for neuroscience. Neuron, 61, 6–9.
Tienari, P., Wynne, L. C., Sorri, A., et al. (2004). Genotype-environment interaction in schizophrenia spectrum disorder: long-term follow-up study of Finnish adoptees. British Journal of Psychiatry, 184, 216–222.
University of Utah Genetic Science Learning Center. (n.d.). What are genetic disorders? Retrieved from https://learn.genetics.utah.edu/content/disorders. |
# Biopsychologia
## Genetyka człowieka
Psychologowie studiują genetykę, by lepiej zrozumieć biologiczne podstawy niektórych zachowań. I chociaż organizm każdego z nas jest zbudowany z tych samych elementów – mózgu, komórek z materiałem genetycznym – przejawem ich funkcjonowania jest bardzo szeroki wachlarz zachowań, myśli i reakcji.
Dlaczego z dwojga ludzi zakażonych tym samym zarazkiem jedno przeżywa, a drugie poddaje się chorobie? Jak choroby genetyczne przekazywane są z pokolenia na pokolenie? Czy choroby psychiczne takie jak depresja lub schizofrenia mogą mieć podłoże genetyczne? Do jakiego stopnia cechy psychiczne mogą wpływać na takie choroby jak otyłość dziecięca?
By znaleźć odpowiedzi na te pytania, zacznijmy od choroby genetycznej zwanej anemią sierpowatą (ang. ) i zastanówmy się, jak może ona objawiać się u dwóch chorujących na nią sióstr. Anemia sierpowata to genetyczna przypadłość, w której czerwone krwinki (erytrocyty), prawidłowo okrągłe, przybierają kształt sierpa (). Zmiana kształtu (w wyniku zmienionej budowy hemoglobiny – białka transportującego tlen we krwi) wpływa na funkcję: krwinki sierpowate mogą zatykać drobne naczynia krwionośne, tamując w nich przepływ krwi. Skutkiem jest wysoka gorączka, silny ból, obrzęk i uszkodzenie tkanek oraz niedokrwistość.
Wiele osób z anemią sierpowatą – nosicieli wywołującej ją mutacji genetycznej – umiera w młodym wieku. Choć dobór naturalny sugerowałby, że chorzy mają niski współczynnik przeżywalności, a zatem choroba z czasem powinna stawać się coraz rzadsza, w rzeczywistości tak nie jest. Mimo negatywnych efektów związanych z tą genetyczną mutacją kodujący ją gen pozostaje stosunkowo rozpowszechniony wśród osób pochodzenia afrykańskiego. Dlaczego? Spróbujmy to wyjaśnić na przykładzie dwóch młodych kobiet.
Niech jedna ma na imię Luwi, a druga Sena. Są siostrami i mieszkają w wiosce w Zambii. Luwi jest nosicielką genu anemii sierpowatej, Sena – nie. Nosiciele mają jedną kopię genu wywołującego chorobę, ale w normalnych okolicznościach nie chorują. Objawy pojawiają się u nich, tylko jeśli są bardzo odwodnieni albo niedotlenieni (np. podczas wysokogórskiej wspinaczki). Uważa się, że nosiciele są odporni na malarię (często śmiertelną chorobę rozpowszechnioną w tropikach), ponieważ zmiany w ich krwi i układzie odpornościowym uniemożliwiają rozwój zarodźcowi malarii (Gong, Parikh, Rosenthal, Greenhouse, 2013). Pełnoobjawowa anemia sierpowata (wynikająca z posiadania dwóch kopii felernego genu) takiej ochrony nie zapewnia.
W drodze powrotnej ze szkoły obie siostry zostają pogryzione przez zakażone pasożytem malarii komary. Luwi jest odporna na zakażenie malarią, gdyż jest nosicielką genu anemii sierpowatej. Tymczasem Sena zapada na malarię i po dwóch tygodniach umiera. Luwi żyje dalej, zostaje matką i może przekazać mutację swoim dzieciom.
W Polsce od 1968 roku malaria praktycznie nie występuje, więc zmutowany gen nie ma żadnej wartości: jego obecność ujawnia się głównie w postaci problemów zdrowotnych, niewielkich u nosicieli, ciężkich przy pełnoobjawowej chorobie, a nie daje żadnych korzyści. Sytuacja w innych rejonach świata jest jednak odmienna. W Afryce, gdzie malaria jest powszechna, posiadanie mutacji anemii sierpowatej jest dla nosicieli korzystne.
Powyższa historia dotycząca malarii pasuje do teorii ewolucji poprzez dobór naturalny (ang. ) sformułowanej przez Karola Darwina (1809–1882) (). Najprościej rzecz ujmując, teoria ta głosi, że przeżywają organizmy lepiej przystosowane do środowiska i to one rozmnażają się, podczas gdy gorzej przystosowane po prostu wymierają. W naszym przykładzie z malarią widzimy, że u Luwi mutacja ma duży walor adaptacyjny w jej afrykańskiej ojczyźnie; gdyby jednak mieszkała w Polsce (gdzie malaria praktycznie nie występuje), stałaby się kosztownym brzemieniem; jej potomkowie z dużym prawdopodobieństwem zachorowaliby na anemię, a i u niej samej zapewne pojawiłyby się niewielkie problemy zdrowotne.
### Zmienność genetyczna
Zmienność genetyczna między osobnikami jest tym, co przyczynia się do adaptacji gatunku do środowiska. U ludzi ta zmienność zaczyna się od komórki jajowej, około stu milionów plemników i zapłodnienia. Płodne kobiety jajeczkują mniej więcej co miesiąc, uwalniając komórkę jajową z pęcherzyka w jajniku. Gdy komórka jajowa wędruje z jajnika przez jajowód do macicy, plemnik ma szansę ją zapłodnić.
Zarówno komórka jajowa, jak i plemnik zawierają po 23 chromosomy. Chromosomy (ang. ) to długie łańcuchy materiału genetycznego znanego jako kwas deoksyrybonukleinowy (DNA) (ang. ). DNA ma kształt helisy (spirali) i jest zbudowane z nukleotydów. W każdym chromosomie fragment łańcucha DNA o charakterystycznej sekwencji nukleotydów tworzy gen (ang. ). Geny kontrolują całkowicie lub częściowo szereg widocznych cech, takich jak kolor oczu, włosów itp. Pojedynczy gen może mieć różne odmiany, zwane allelami. Allel (ang. ) to swoista wersja genu. Zatem określony gen może kodować taką cechę, jak kolor włosów, zaś różne allele tego genu sprawiają, że każdy z nas ma taki a nie inny kolor.
Gdy dochodzi do przeniknięcia plemnika do komórki jajowej, zawarte w nich chromosomy łączą się, tworząc 23 pary chromosomów. Każde z rodziców dostarcza zatem potomkowi połowy genetycznej informacji; fizyczne cechy dziecka (nazywane fenotypem) są więc efektem interakcji materiału genetycznego pochodzącego od rodziców (zwanego genotypem). Genotyp (ang. ) osoby to inaczej zespół jej wszystkich genów odziedziczony po rodzicach, fenotyp (ang. ) zaś to zespół cech (fizjologicznych, anatomicznych, psychicznych itp.) danej osoby, będących skutkiem interakcji genotypu i środowiska ().
Większość cech to efekt działania wielu genów, ale są i takie, które kontroluje tylko jeden. Na przykład na to, czy będziemy mieć dołek w podbródku (ang. ), wpływa tylko jeden gen, dziedziczony po każdym z rodziców. Nazwijmy gen dołka w podbródku „B”, a gen braku dołka – „b”. Dołek w podbródku to cecha dominująca, co oznacza, że niezależnie od tego, czy dominujący allel (ang. ) odziedziczymy po jednym (Bb), czy też po obojgu rodzicach (BB), nasz fenotyp będzie świadczyć o jego występowaniu (będziemy mieli dołek w podbródku). Gdy ktoś ma dwa allele identyczne, określany jest mianem homozygoty (ang. ) względem tego allelu. Z kolei gdy ktoś ma dwa różne allele tego samego genu, to takiego osobnika nazywa się heterozygotą (ang. ). Gładki podbródek to cecha recesywna, co znaczy, że taki fenotyp uwidoczni się tylko u kogoś, kto jest homozygotą względem tego recesywnego allelu (ang. ) (bb).
Wyobraźmy sobie, że kobieta z dołkiem w podbródku zostaje partnerką mężczyzny, który takiego dołka nie ma. Jaki podbródek będą mieć ich dzieci? To zależy od tego, jaką kombinację alleli ma każde z rodziców. Jeśli kobieta jest homozygotą (BB), jej potomstwo zawsze będzie mieć podbródek z dołeczkiem. Jeśli jednak jest dla tego genu heterozygotą (Bb), sprawa się nieco komplikuje. Ojciec ma gładki podbródek, więc musi być homozygotą dla recesywnego allelu (bb), a to daje potomstwu 50% szans na dołek w podbródku i drugie tyle na podbródek gładki ().
Anemia sierpowata to tylko jedna z licznych chorób genetycznych wywołanych obecnością dwóch genów recesywnych. W przypadku fenyloketonurii (ang. ) (PKU) dotknięty nią osobnik nie posiada enzymu przekształcającego szkodliwe aminokwasy w nieszkodliwe związki. Bez leczenia grożą mu poważne deficyty poznawcze, drgawki i podwyższone ryzyko rozmaitych zaburzeń psychicznych. PKU jest cechą recesywną, więc by dziecko było dotknięte chorobą, każde z rodziców musi posiadać przynajmniej jedną kopię takiego recesywnego allelu ().
Do tej pory omówiliśmy cechy, za które odpowiada tylko jeden gen, ale niewiele ludzkich cech jest kontrolowanych w taki sposób. Większość cech jest wielogenowych (poligenowych) (ang. ), czyli jest warunkowana przez więcej niż jeden gen. Przykładami cech wielogenowych są: wzrost, kolor skóry czy masa ciała.
Skąd się biorą geny odpowiedzialne za takie choroby jak PKU? Ich źródłem są mutacje. Mutacją (ang. ) nazywamy nagłą, stałą zmianę w genie. Choć wiele mutacji jest szkodliwych, a nawet śmiertelnych, raz na jakiś czas pojawia się taka, która daje właścicielowi przewagę nad tymi, którzy takiej mutacji nie posiadają. Przypomnij sobie, że zgodnie z teorią ewolucji osobniki najlepiej przystosowane do środowiska, w którym żyją, płodzą więcej potomstwa i mają większą szansę na przekazanie swoich genów przyszłym pokoleniom. By taki proces mógł mieć miejsce, musi zachodzić konkurencja. Mówiąc dokładniej: musi istnieć różnorodność genetyczna (a co za tym idzie różnorodność cech fenotypowych) wymuszająca zmienność przystosowań do środowiska. Gdyby populacja składała się z identycznych osobników, każda nagła, duża zmiana otoczenia w taki sam sposób wpływałaby na wszystkich. Nie byłoby różnic. Nie byłoby selekcji. Różnorodność genów i kodowanych przez nie cech sprawia, że w obliczu takich zmian środowiska niektóre osobniki radzą sobie nieco lepiej niż inne. To daje najlepiej przystosowanym zauważalną przewagę, jeśli chodzi o skuteczne rozmnażanie się i przekazywanie genów.
### Interakcje geny–środowisko
Geny nie działają w próżni. Choć wszyscy jesteśmy żywymi organizmami, istniejemy w środowisku, które jest niezwykle istotne w określaniu nie tylko tego, kiedy i jak nasze geny dochodzą do głosu, ale także tego, jaka kombinacja genów da jaką cechę. Każdy z nas uczestniczy w wyjątkowej interakcji między własnym genotypem a środowiskiem, w którym żyje.
Jednym ze sposobów opisu tej interakcji jest koncepcja zakresu (normy) reakcji. Zakres reakcji (ang. ) oznacza, że nasze geny wyznaczają granice, w ramach których możemy działać, otoczenie zaś oddziałuje z genami, by określić, gdzie dokładnie w tych granicach się znajdziemy. Jeśli np. genotyp osobnika predysponuje go do osiągnięć intelektualnych, i taki osobnik będzie się wychowywać w bogatym, stymulującym otoczeniu, będzie mieć większe szanse na osiągnięcie pełni swojego potencjału, niż gdyby wzrastał w ubogim otoczeniu, pozbawionym bodźców stymulujących. Zgodnie z koncepcją zakresu reakcji geny wyznaczają nieprzekraczalne granice potencjału, a środowisko określa, ile z tego potencjału uda się osiągnąć. Niektórzy nie zgadzają się z tą teorią i twierdzą, że geny nie wyznaczają granic potencjału jednostki.
Inną perspektywę interakcji między genami a środowiskiem daje koncepcja korelacji genotyp–środowisko (ang. ). Najprościej rzecz ujmując, mówi ona, że nasze geny wpływają na otoczenie zewnętrzne, a otoczenie wpływa na ekspresję naszych genów (). Nie chodzi tylko o interakcję między nimi, jak w teorii o zakresie reakcji, ale o wzajemne wpływy. Np. dziecko koszykarza z ligi pewnie od wczesnego dzieciństwa będzie trenować ten sport, co może pozwolić mu wykorzystać wrodzone zdolności. Jak widać, geny, które dziecko dostało od rodzica, wpływają na otoczenie, w którym ono wzrasta, otoczenie zaś jest dobrze przygotowane, by pomóc dziecku wykorzystać genetyczny potencjał.
Inne podejście do interakcji genów ze środowiskiem reprezentuje epigenetyka (ang. ). Bada ona nie sam genotyp, lecz to, jak jeden i ten sam zestaw genów może się uaktywniać na różne sposoby. Innymi słowy naukowcy badają, w jaki sposób ten sam genotyp może dawać różne fenotypy. Jak już wcześniej wspomniano, na ekspresję genów często wpływa środowisko i to w sposób nie do końca oczywisty. Bliźnięta jednojajowe (ang. ) na przykład mają taki sam genotyp: powstają z pojedynczej, zapłodnionej komórki jajowej, która dzieli się na dwa organizmy, więc materiał genetyczny jest w obu dokładnie taki sam; w przeciwieństwie do nich bliźnięta dwujajowe (ang. ) powstają z dwóch niezależnych komórek jajowych zapłodnionych przez dwa różne plemniki, więc ich materiał genetyczny różni się tak samo jak u rodzeństwa w różnym wieku. Ale nawet przy identycznych genach pozostaje niewiarygodna zmienność ekspresji tych genów w ciągu życia każdego z bliźniaków jednojajowych. Czasem jedno ulega jakiejś chorobie, a drugie nie. Przykład? Aliya, jedna z pary bliźniąt jednojajowych, zmarła na raka w wieku 7 lat, natomiast jej siostra, dziś dziewiętnastoletnia, nigdy raka nie miała. Choć geny obu dziewcząt były identyczne, ich fenotypy różniły się na skutek różnic w ekspresji informacji genetycznej w czasie. Hipotezy epigenetyki dotyczące interakcji genów ze środowiskiem bardzo różnią się od tych związanych z zakresem reakcji. Dla epigenetyka genotyp nie jest bowiem czymś stałym i niezmiennym.
Geny wpływają nie tylko na nasze cechy fizyczne. Naukowcy znaleźli związki między genami a szeregiem zmiennych, od podstawowych cech osobowości przez orientację seksualną po duchowość (przykłady znajdziesz np. u: Mustanski et al., 2005; Comings, Gonzales, Saucier, Johnson, MacMurray, 2000). Geny są też związane z temperamentem i szeregiem zaburzeń psychicznych, takich jak depresja i schizofrenia. Więc choć to prawda, że stanowią dla naszych komórek, tkanek i narządów coś w rodzaju biologicznej matrycy, wywierają też znaczący wpływ na nasze doświadczenia i zachowania.
Mając w pamięci trzy poglądy na interakcję genów ze środowiskiem, przyjrzyjmy się teraz poniższym danym dotyczącym schizofrenii. Który pogląd twoim zdaniem najlepiej wyjaśnia te dowody?
W badaniu obejmującym oddane do adopcji dzieci wykazano, że te z nich, które wzrastały w zaburzonym środowisku rodzinnym, a ich matki biologiczne cierpiały na schizofrenię, miały wyższe ryzyko rozwoju schizofrenii (ang. ) lub innej psychozy niż którakolwiek z innych grup uczestniczących w badaniu.
1.
u dzieci adoptowanych, których biologiczne matki cierpiały na schizofrenię (wysokie ryzyko genetyczne) i wzrastały w zaburzonym środowisku rodzinnym, ryzyko rozwoju schizofrenii wynosiło 36,8%
2.
u dzieci adoptowanych, których biologiczne matki cierpiały na schizofrenię (wysokie ryzyko genetyczne) i wzrastały w zdrowym otoczeniu, ryzyko rozwoju schizofrenii wynosiło 5,8%
3.
u dzieci adoptowanych niskiego ryzyka (biologiczne matki nie cierpiały na schizofrenię), które wzrastały w zaburzonym środowisku rodzinnym, ryzyko rozwoju schizofrenii wynosiło 5,3%
4.
u dzieci adoptowanych niskiego ryzyka (biologiczne matki nie cierpiały na schizofrenię), które wzrastały w zdrowym otoczeniu, ryzyko rozwoju schizofrenii wynosiło 4,8% (Tienari et al., 2004)
To badanie pokazuje, że adoptowane dzieci o wysokim ryzyku genetycznym były szczególnie narażone na rozwój schizofrenii wtedy, gdy wzrastały w zaburzonym środowisku rodzinnym. Wspiera ono pogląd, że do rozwoju tej choroby potrzebna jest zarówno podatność genetyczna, jak i stres środowiskowy, i że same geny nie decydują o rozwoju schizofrenii.
### Podsumowanie
Geny to fragmenty cząsteczki DNA kodujące określoną cechę. Odmienne wersje jednego genu nazywamy allelami. Czasem allele możemy sklasyfikować jako dominujące bądź recesywne. Allel dominujący zawsze daje dominujący fenotyp. By ujawnił się fenotyp recesywny, osobnik musi być homozygotą względem allelu recesywnego. Geny wpływają zarówno na cechy fizyczne, jak i psychiczne. O tym, jak i kiedy gen się ujawni (fachowo: ulegnie ekspresji) i jaki będzie tego efekt (zarówno w zakresie cech fizycznych, jak i psychicznych), decyduje interakcja genów ze środowiskiem, w którym żyjemy.
### Review Questions
### Critical Thinking Questions
### Personal Application Questions
|
# Biopsychologia
## Komórki układu nerwowego
Psychologowie próbujący zrozumieć ludzki umysł interesują się także funkcjonowaniem układu nerwowego. Wiedza o tym, jak funkcjonują ludzkie komórki i narządy (przede wszystkim takie jak mózg), pomaga nam zrozumieć biologiczne podstawy ludzkiej psychiki. Układ nerwowy (ang. ) składa się z dwóch podstawowych rodzajów komórek nerwowych: komórek glejowych (zwanych też glejem) i neuronów. Tych pierwszych jest dziesięć razy więcej i tradycyjnie sądzono, że pełnią wobec neuronów funkcje podtrzymujące, zarówno mechanicznie, jak i metabolicznie. Komórki glejowe (ang. ) stanowią rusztowanie, na którym opierają się neurony, pomagają im kontaktować się ze sobą, by umożliwić przepływ informacji, zapewniają izolację, przenoszą składniki odżywcze i odbierają produkty przemiany materii, a także uczestniczą w odpowiedzi immunologicznej. Z kolei neurony (in. komórki nerwowe) (ang. ) to połączone ze sobą elementy integrujące i przekazujące informacje niezbędne do wypełniania wszelkich zadań układu nerwowego. W tym podrozdziale omówimy pokrótce budowę i funkcje neuronów.
### Struktura neuronów
Neurony to główny element układu nerwowego. W chwili narodzin mamy ich około 100 miliardów. Podobnie jak inne komórki, neurony także składają się z wielu różnych części, a każda ma swoje zadania (). Zewnętrzna powierzchnia komórki nerwowej to błona półprzepuszczalna (ang. ). Pozwala ona przechodzić do wnętrza małym i pozbawionym ładunku elektrycznego cząsteczkom, ale zatrzymuje większe lub silnie naładowane elektrycznie molekuły i jony.
Jądro komórki nerwowej znajduje się w ciele komórki (łac. ), perikarionie, czyli neurocycie. Każdy perikarion ma wypustki zwane dendrytami (ang. ). Neuron to pojedyncza jednostka przetwarzania informacji, dendryty zaś służą jako wejścia, przez które docierają sygnały z innych neuronów. Sygnały te w postaci impulsów elektrycznych przechodzą przez perikarion i biegną dalej głównym „wyjściem” komórki, czyli aksonem (ang. , zwany również neurytem lub wypustką osiową), który kończy się licznymi kolbkami synaptycznymi (ang. ). Każda z nich zawiera pęcherzyki synaptyczne (ang. ), w których znajdują się neuroprzekaźniki (ang. ), związki chemiczne przekazujące informacje w układzie nerwowym.
Długość aksonów waha się od kilku milimetrów do ponad metra. Niektóre z nich pokryte są tłuszczową substancją, zwaną osłonką mielinową (inaczej: mieliną lub otoczką mielinową) (ang. ), którą tworzą komórki glejowe. Mielina pokrywa akson i działa jak izolator, zwiększając szybkość, z jaką przepływa impuls elektryczny. Osłonka mielinowa nie jest jednolita. Ma małe, poprzeczne do osi aksonu, przerwy występujące na całej jego długości, zwane przewężeniami Ranviera. Impuls elektryczny przemieszcza się wzdłuż takiego aksonu skokowo – od jednego przewężenia do następnego, dzięki czemu porusza się znacznie szybciej niż w aksonie bez osłonki mielinowej (nawet 100 razy). Osłonka mielinowa ma kluczowe znaczenie dla prawidłowego funkcjonowania neuronów w układzie nerwowym: jej utrata może zaburzać ich prawidłowe działanie.
By to zrozumieć, posłużmy się przykładem. Fenyloketonuria, omawiana poprzednio choroba o podłożu genetycznym, powoduje ubytek mieliny i zaburzenia w istocie białej struktur korowych i podkorowych. Choroba ta objawia się różnymi symptomami, takimi jak upośledzenie funkcji poznawczych, występowanie ruchów mimowolnych i napady padaczkowe (Anderson i Leuzzi 2010, Huttenlocher, 2000). Z kolei w stwardnieniu rozsianym (SM), chorobie autoimmunologicznej, dochodzi do masowej utraty osłonek mielinowych okrywających aksony w całym układzie nerwowym. Prowadzi to do zaburzeń szybkości transmisji informacji między neuronami, co w rezultacie daje szereg takich objawów, jak zawroty głowy, zaburzenia równowagi, utrata kontroli ruchowej i zaburzenia w sferze seksualnej. Choć niektóre terapie mogą nieco zmienić przebieg choroby i łagodzić pewne objawy, do tej pory nie ma sposobu jej wyleczenia.
U osób zdrowych sygnał z neuronu szybko przemieszcza się wzdłuż aksonu do zakończeń synaptycznych, gdzie z pęcherzyków synaptycznych uwalniane są neuroprzekaźniki do szczeliny synaptycznej pokazane na . Szczelina synaptyczna (ang. ) to maleńka szczelina między dwoma neuronami, a zarazem miejsce, w którym zachodzi komunikacja międzyneuronalna. Gdy neuroprzekaźniki zostają uwolnione z kolbki synaptycznej (przez tzw. błonę presynaptyczną) do szczeliny, przechodzą przez nią i wiążą się z odpowiednimi receptorami znajdującymi się na błonie postsynaptycznej dendrytu kolejnego neuronu. Receptory (ang. ), białka na powierzchni komórki, z którymi wiążą się neuroprzekaźniki, różnią się kształtem, a różne kształty odpowiadają różnym neuroprzekaźnikom.
Skąd neuroprzekaźnik wie, z którym receptorem się związać? Oba mają coś, co można nazwać mechanizmem klucza i zamka. Każdy neuroprzekaźnik pasuje do określonego receptora niczym klucz do zamka. Oznacza to, że zwiąże się z każdym receptorem, do którego będzie pasować.
### Komunikacja między neuronami
Skoro już wiemy, jak wygląda budowa neuronu, jakie są jego składowe i jaką rolę odgrywają one w komunikacji między neuronami, przyjrzyjmy się bliżej samemu sygnałowi; temu, jak biegnie w neuronie, a potem przeskakuje do następnego i kolejnych neuronów.
Zacznijmy od błony. Neuron znajduje się w środowisku płynnym – jest otoczony płynem zewnątrzkomórkowym, a sam zawiera płyn wewnątrzkomórkowy (cytoplazmę). Błona neuronu oddziela od siebie te dwie przestrzenie płynowe – to ważne zadanie, bo impuls elektryczny biegnący w neuronie jest zależny od różnicy potencjałów elektrycznych płynu wewnątrz- i zewnątrzkomórkowego. Energię dla impulsu zapewnia właśnie różnica ładunków po obu stronach błony, nazywana potencjałem błonowym (ang. ).
Ładunek elektryczny płynów wynika z obecności rozpuszczonych w nich naładowanych cząstek (jonów). Półprzepuszczalność błony komórek nerwowych w pewnej mierze hamuje ruch tych naładowanych cząstek; w rezultacie niektóre z nich gromadzą się na zewnątrz, a inne wewnątrz neuronów.
Pomiędzy impulsami potencjał błonowy utrzymuje komórkę w stanie gotowości – to tzw. potencjał spoczynkowy (ang. ). Jony leżą po obu stronach błony komórkowej trochę jak naciągnięte gumki, które czekają na to, by z nich strzelić. Gnają na drugą stronę błony, gdy tylko neuron się uaktywnia i błona otwiera swoje kanały (takie jak napięciowo-zależne kanały jonowe), które pozwalają na ruch jonów przez błonę. Jony przepływają z miejsc o większym gradiencie stężeń w tzw. transporcie biernym, ale mogą też przechodzić przez błonę komórkową wbrew gradientowi stężeń; taką sytuację nazywamy transportem aktywnym.
Gdy neuron jest w spoczynku, stężenie jonów sodowych (Na+) jest wyższe na zewnątrz komórki, więc „chcą” one dostać się do środka. Z kolei jonów potasu (K+) jest więcej we wnętrzu neuronu, więc „chciałyby” one przedostać się na zewnątrz (). Dodatkowo wnętrze komórki nerwowej ma ładunek ujemny w przeciwieństwie do przestrzeni na zewnątrz. Zapewnia to dodatkową siłę pomagającą jonom sodowym przechodzić do wnętrza komórki.
Gdy neuron otrzyma sygnał z dendrytów – na skutek związania się neuroprzekaźników z sąsiednich neuronów z receptorami na powierzchni błony postsynaptycznej – gwałtownie zmienia swój stan (). Otwierają się kanały, czyli „bramki” w błonie komórkowej, pozwalając na napływ do wnętrza jonów sodowych. To efekt zarówno różnicy ładunków, jak i stężeń. Napływ dodatnio naładowanych jonów zmienia ładunek wnętrza neuronu na bardziej dodatni. Po przekroczeniu pewnej wartości potencjału, określanej mianem progu pobudzenia (ang. ), neuron uaktywnia się i rozpoczyna się potencjał czynnościowy: otwiera się o wiele więcej kanałów, co wywołuje ogromny napływ jonów sodowych do wnętrza komórki i gwałtowny dodatni wzrost potencjału czynnościowego aż do osiągnięcia szczytu (maksimum). Na szczycie iglicy potencjału kanały sodowe zamykają się, a otwierają potasowe. Przez odpływ dodatnio naładowanych jonów potasowych komórka zaczyna szybką repolaryzację. Na początku potencjał wchodzi w fazę hiperpolaryzacji i staje się nieco bardziej ujemny od spoczynkowego, potem ładunki wyrównują się, a neuron wraca do stanu spoczynkowego. Powrót stężenia jonów Na+ i K+ do stanu równowagi następuje w wyniku działania tzw. pompy sodowo-potasowej (ang. ).
Dodatni skok to potencjał czynnościowy (ang. ): impuls elektryczny, który najczęściej biegnie od ciała komórki wzdłuż aksonu do jego wypustek końcowych. Impuls elektryczny porusza się wzdłuż aksonu niczym fala; w każdym punkcie część jonów sodowych, które wnikają do wypustki, dyfunduje do następnego odcinka aksonu, zwiększając ładunek powyżej potencjału progowego i wywołując napływ kolejnych jonów sodowych. Potencjał czynnościowy przemieszcza się aż do końcowych wypustek synaptycznych aksonu.
Potencjał czynnościowy działa na zasadzie zjawiska „wszystko albo nic” (ang. ). Najprościej rzecz ujmując, chodzi o to, że nadchodzący z innego neuronu impuls albo jest wystarczająco silny, by przekroczyć próg pobudzenia, albo nie. Nie ma stanów pośrednich, a potencjału czynnościowego nie sposób wygasić, gdy już się wytworzy. Można to porównać do wysłania SMS-a. Możesz zastanawiać się nad jego wysłaniem, jak długo chcesz, ale wiadomość nie zostanie wysłana, dopóki nie wciśniesz przycisku „wyślij”. A kiedy już to zrobisz, nie można jej cofnąć.
Potencjał czynnościowy ze względu na swoje właściwości przez cały czas, na każdym odcinku aksonu jest odtwarzany i przekazywany w 100%. Trochę jak lont podpalony w baterii sztucznych ogni, tak i impuls elektryczny nie słabnie, biegnąc wzdłuż aksonu. Własność „wszystko albo nic” wyjaśnia fakt, że uderzenie w palec u nogi boli tak samo, jak uderzenie w nos.
Jak już wcześniej mówiliśmy, gdy potencjał czynnościowy dociera do zakończeń aksonu, pęcherzyki synaptyczne uwalniają neuroprzekaźniki do szczeliny synaptycznej. Neuroprzekaźniki wędrują przez szczelinę i wiążą się z receptorami na dendrytach sąsiedniego neuronu. Cały proces powtarza się w sąsiednim neuronie (zakładając, że sygnał będzie dostatecznie silny, by wywołać potencjał czynnościowy) i w kolejnych. Gdy impuls zostanie przekazany, nadmiar neuroprzekaźników odpływa ze szczeliny synaptycznej, rozpada się na nieaktywne pochodne lub zostaje zreabsorbowany w procesie określanym mianem wychwytu zwrotnego (ang. ). Wychwyt zwrotny polega na przepompowaniu neuroprzekaźnika z powrotem do neuronu, z którego został uwolniony, co pozwala na oczyszczenie z niego szczeliny synaptycznej (). Oczyszczenie szczeliny służy zarówno przygotowaniu synapsy na kolejny sygnał, jak i regulacji produkcji samego neuroprzekaźnika (wypełnione pęcherzyki synaptyczne sygnalizują, że nie trzeba wytwarzać dodatkowych porcji neuroprzekaźnika).
Komunikacja między neuronami często jest określana jako zdarzenie elektrochemiczne. Podróż potencjału czynnościowego wzdłuż aksonu to zdarzenie elektryczne, przechodzenie neuroprzekaźnika przez szczelinę synaptyczną zaś stanowi chemiczną składową procesu.
W układzie nerwowym występują również innego typu połączenia między neuronami. W połączeniach typu elektrycznego, bo o nich mowa, dwa neurony kontaktują się ze sobą przez tzw. synapsę elektryczną (ang. ), w której następuje przepływ prądu z jednego neuronu do drugiego poprzez złącze szczelinowe (ang. ). Synapsy elektryczne są znacznie szybsze, ale jest ich w mózgu o wiele mniej niż opisanych poprzednio synaps jonowych (Connors i Long, 2004).
### Neuroprzekaźniki a leki
Istnieje wiele typów neuroprzekaźników uwalnianych przez różne neurony. Ogólnie rzecz biorąc, możemy mówić o podstawowych funkcjach powiązanych z różnymi neuroprzekaźnikami (). Gros wiedzy, jaką mają psychologowie na temat funkcji neuroprzekaźników, pochodzi z badań nad działaniem leków w chorobach psychicznych. Psychologowie, którzy przyjmują perspektywę biologiczną (ang. ) i skupiają się na fizjologicznych przyczynach zachowań, uważają, że zaburzenia psychiczne takie jak depresja czy schizofrenia są związane z nierównowagą w zakresie jednego lub kilku układów neuroprzekaźników. Z tej perspektywy leki psychotropowe mogą łagodzić objawy związane z tymi schorzeniami. Leki psychotropowe (ang. ) stosuje się w leczeniu zaburzeń psychicznych, przywracając równowagę neuroprzekaźników w mózgu.
Leki psychoaktywne mogą być dla danego neuroprzekaźnika agonistami lub antagonistami. Agonista (ang. ) to taka cząsteczka chemiczna, która naśladuje działanie neuroprzekaźnika, łącząc się z odpowiednim receptorem, a zatem nasila jego działanie. Antagonista (ang. ) blokuje lub upośledza prawidłową aktywność neuroprzekaźnika, wypierając go z receptorów lub blokując łączenie się z nimi.
Leki działające agonistycznie lub antagonistycznie są stosowane w celu wyrównania zaburzeń równowagi neuroprzekaźników leżących u podstaw choroby danego człowieka. Na przykład choroba Parkinsona, postępujące schorzenie degeneracyjne układu nerwowego, wiąże się z niedoborem dopaminy. Z tego względu często stosowaną strategią terapeutyczną jest podawanie agonistów dopaminy (ponieważ sama dopamina nie przechodzi przez barierę krew–mózg). Agoniści dopaminy, np. L-dopa, czyli lewodopa – umożliwiają wytworzenie dopaminy w mózgu.
Część objawów schizofrenii można łączyć z nadaktywnością układu przekaźnictwa dopaminy. Leki przeciwpsychotyczne stosowane w leczeniu tych objawów są właśnie antagonistami dopaminy – blokują jej działanie, wiążąc się z receptorami, ale ich nie aktywując. Efekt? Dopamina uwolniona przez jedną komórkę nerwową nie może przekazać informacji neuronom sąsiadującym.
W przeciwieństwie do agonistów i antagonistów, które działają dzięki wiązaniu się z receptorami, inhibitory wychwytu zwrotnego nie pozwalają niewykorzystanym neuroprzekaźnikom wrócić do neuronu wyjściowego. Sprawia to, że więcej cząsteczek neuroprzekaźnika pozostaje w szczelinie synaptycznej na dłużej, wzmacniając działanie danego neuroprzekaźnika. I tak depresję, wiązaną od dawna z obniżeniem stężenia serotoniny, często leczy się selektywnymi inhibitorami wychwytu zwrotnego serotoniny (SSRI). Hamując wychwyt zwrotny, SSRI wzmacniają działanie serotoniny, dając jej więcej czasu na interakcję z receptorami na dendrytach. Do najpopularniejszych SSRI na rynku należą: Prozac, Paxil i Zoloft.
Bardzo podobną budowę do serotoniny ma narkotyk LSD (dietyloamid kwasu lizergowego). Wpływa on na te same neurony i te same receptory, co serotonina. Leki psychotropowe nie stanowią szybkiego rozwiązania problemów osób cierpiących na zaburzenia psychiczne. Często trzeba je przyjmować przez wiele tygodni, zanim zaobserwuje się poprawę, a wiele leków psychoaktywnych ma poważne działania niepożądane. Do tego reakcja na te leki jest bardzo indywidualna. By zwiększyć szanse na sukces, chorzy przyjmujący leki jednocześnie uczęszczają na psychoterapię lub terapię behawioralną. Niektóre badania wskazują, że łączenie różnych form terapii jest bardziej efektywne niż każda z nich z osobna (patrz np. March et al., 2007).
### Podsumowanie
Układ nerwowy tworzą dwa typy komórek: glejowe i neurony. Komórki glejowe pełnią głównie funkcję pomocniczą. Dla wszystkich funkcji układu nerwowego kluczową rolę odgrywa komunikacja między neuronami. Umożliwiają ją wyspecjalizowane struktury neuronów. Perikarion to część komórki nerwowej zawierająca jej jądro; odchodzą od niej drzewkopodobne wypustki zwane dendrytami. Najdłuższą wypustką neuronu jest akson. Aksony często są pokryte osłonką mielinową, która zwiększa szybkość przewodzenia sygnałów nerwowych. Na końcu aksonu znajdują się zakończenia synaptyczne zawierające pęcherzyki synaptyczne wypełnione neuroprzekaźnikami.
Komunikacja między neuronami ma charakter elektrochemiczny. Dendryty zawierają receptory dla neuroprzekaźników uwalnianych przez sąsiednie neurony. Jeśli sygnały z tych neuronów są wystarczająco silne, wzbudzają potencjał czynnościowy, który mknie wzdłuż aksonu do zakończeń synaptycznych i tam uwalnia neuroprzekaźniki do szczeliny synaptycznej. Potencjały czynnościowe działają na zasadzie „wszystko albo nic”, a ich mechanizm zasadza się na ruchu jonów Na+ i K+ przez błonę komórkową.
Różne neuroprzekaźniki mają różne działanie. Zaburzenia psychiczne często wiążą się z zaburzeniami równowagi określonego neuroprzekaźnika. W celu przywrócenia tej równowagi przepisuje się pacjentom leki psychotropowe. Leki te mogą działać w określonym układzie neuroprzekaźników jako agoniści lub antagoniści.
### Review Questions
### Critical Thinking Questions
### Personal Application Question
|
# Biopsychologia
## Składowe układu nerwowego
Układ nerwowy (ang. ) można podzielić na dwie główne składowe: ośrodkowy układ nerwowy (OUN) (ang. ) i obwodowy układ nerwowy (ang. ). Jak pokazano na , OUN składa się z mózgu i rdzenia kręgowego, obwodowy układ nerwowy zaś łączy go z resztą ciała. W tym podrozdziale omówimy dokładniej obwodowy układ nerwowy; mózgiem i rdzeniem kręgowym zajmiemy się później.
### Obwodowy układ nerwowy
Obwodowy układ nerwowy składa się z grubych wiązek włókien nerwowych, zwanych nerwami, które przenoszą impulsy nerwowe między ośrodkowym układem nerwowym a mięśniami i narządami (w tym narządami zmysłów) zlokalizowanymi w rozmaitych częściach ciała poza OUN. Obwodowy układ nerwowy również można podzielić na dwie części: somatyczną i wegetatywną (autonomiczną).
Somatyczny układ nerwowy (ang. ) odpowiada za aktywności tradycyjnie uznawane za świadome lub zależne od woli. Przekazuje informacje czuciowe i ruchowe z i do OUN; składają się nań neurony ruchowe i czuciowe. Neurony ruchowe, które przekazują informacje z OUN do mięśni, biegną włóknami odśrodkowymi (eferentnymi – po łacinie oznacza „odprowadzający”). Neurony czuciowe przesyłające informacje do OUN biegną we włóknach dośrodkowych (aferentnych – z łaciny „doprowadzający”). Każdy nerw jest wiązką włókien nerwowych tworzącą swoistą dwukierunkową drogę szybkiego ruchu i zawiera tysiące aksonów, zarówno do, jak i odśrodkowych.
Autonomiczny układ nerwowy (wegetatywny układ nerwowy) (ang. ) kontroluje czynność narządów wewnętrznych i gruczołów dokrewnych. Uważa się, że pozostaje on poza naszą świadomą kontrolą. Można go podzielić na część sympatyczną (współczulną) i parasympatyczną (przywspółczulną) (). Współczulny układ nerwowy (ang. ) odpowiada za przygotowanie organizmu do walki lub ucieczki – aktywności związanych ze stresem; przywspółczulny układ nerwowy (ang. ) kieruje ciałem w rutynowych, codziennych aktywnościach. Te dwie składowe wzajemnie się dopełniają, działając wspólnie na rzecz utrzymania homeostazy organizmu. Homeostaza (ang. ) to inaczej stan równowagi, w którym parametry takie jak temperatura ciała są utrzymywane w optymalnych granicach.
Współczulny układ nerwowy ulega aktywacji, gdy jesteśmy zestresowani lub pobudzeni. Naszym przodkom jego aktywność pozwalała przetrwać. Wyobraźmy sobie na przykład, że nasz prapraprzodek, polując na króliki czy inną drobną zwierzynę, nagle wszedł na teren niedźwiedzicy z młodymi. Gdy ją zauważył, w jego organizmie zaszedł szereg szybkich zmian – jako bezpośredni efekt aktywacji układu współczulnego – przygotowujących go do stawienia czoła nagłemu zagrożeniu. W takiej sytuacji źrenice się rozszerzają, tętno i ciśnienie krwi rosną, pęcherz się rozluźnia, wątroba pompuje do krwi glukozę, a adrenalina rusza do krwiobiegu. Taki zestaw zmian fizjologicznych to reakcja „walcz lub uciekaj” (ang. ). Udostępnia organizmowi rezerwy energetyczne i usprawnia jego procesy percepcyjne, by mógł skutecznie walczyć albo uciec w bezpieczne miejsce.
Taka reakcja z pewnością miała zasadnicze znaczenie dla przetrwania naszych przodków, którzy żyli w świecie pełnym rzeczywistych, fizycznych niebezpieczeństw. Jednakże wiele sytuacji pobudzenia, z jakimi mamy do czynienia we współczesnym świecie, ma raczej podłoże psychiczne. Pomyśl na przykład, jak się czujesz, gdy przedstawiasz prezentację przed pełną salą albo gdy czekasz na ważny egzamin. Nie jesteś w sytuacji fizycznego zagrożenia, a mimo to ewolucja sprawiła, że reagujesz na te sytuacje tak samo jak na szablozębnego tygrysa – uruchamiasz reakcję walki lub ucieczki. W obecnych warunkach ten rodzaj reakcji nie jest nawet w części tak przydatny, jak był niegdyś. Nasz organizm stawiany co dnia w stresogennych sytuacjach, w których nie może ani walczyć, ani uciec, zaczyna odczuwać negatywne konsekwencje zdrowotne. Niedawne badania sugerują, że do konsekwencji stałej, powtarzanej ekspozycji na stres należą m.in. zwiększona podatność na chorobę wieńcową (Chandolaet al., 2006) oraz obniżenie odporności (Glaser i Kiecolt-Glaser, 2005).
Gdy zagrożenie zostaje zneutralizowane, pałeczkę przejmuje układ przywspółczulny, który przywraca ciało do stanu równowagi. Serce zwalnia, ciśnienie spada, źrenice zwężają się, odzyskujemy kontrolę nad pęcherzem, a wątroba na powrót zaczyna gromadzić glukozę w postaci glikogenu na gorsze czasy.
### Summary
Mózg i rdzeń kręgowy tworzą ośrodkowy układ nerwowy. Obwodowy układ nerwowy składa się z części somatycznej i autonomicznej (wegetatywnej). Somatyczny układ nerwowy przekazuje impulsy czuciowe i ruchowe z i do OUN. Autonomiczny układ nerwowy kontroluje czynność narządów i gruczołów dokrewnych; można go podzielić na dwie części: współczulną (sympatyczną) i przywspółczulną (parasympatyczną). Aktywacja układu sympatycznego przygotowuje nas do walki lub ucieczki, podczas gdy pobudzenie części parasympatycznej wiąże się z funkcjonowaniem organizmu w niestresujących, codziennych warunkach.
### Review Questions
### Critical Thinking Questions
### Personal Application Questions
|
# Biopsychologia
## Mózg i rdzeń kręgowy
Mózg to niewiarygodnie skomplikowany organ, złożony z miliardów połączonych ze sobą neuronów i komórek glejowych. Składa się z dwóch oddzielonych od siebie półkul. Choć każda półkula pełni określone funkcje, to wzajemne oddziaływania wszystkich obszarów mózgu stanowią podstawy myśli i zachowań. W tym podrozdziale omówimy ogólną organizację mózgu i funkcje związane z jego poszczególnymi obszarami. Zaczniemy od części OUN, którą możemy uznać za przedłużenie mózgu, czyli od rdzenia kręgowego.
Rdzeń kręgowy (ang. ) jest jednym z elementów łączących mózg ze światem zewnętrznym. Mózg działa poprzez rdzeń, który jest czymś w rodzaju stacji przekaźnikowej, tyle że niezwykle złożonej. Nie tylko przekierowuje informacje z i do mózgu, ale także ma własny system zautomatyzowanych reakcji, zwanych odruchami.
Najwyżej położona część rdzenia łączy się z pniem mózgu, kontrolującym podstawowe procesy życiowe, takie jak oddychanie i trawienie. Drugi koniec rdzenia, w przeciwieństwie do powszechnego poglądu, nie ciągnie się aż do podstawy kręgosłupa, lecz kończy zaraz pod żebrami.
Rdzeń kręgowy jest podzielony na 30 segmentów, z których każdy odpowiada jednemu kręgowi kręgosłupa. Każdy jest też połączony nerwami obwodowymi z określoną częścią ciała. Nerwy wychodzą z rdzenia na poziomie każdego kręgu. Te czuciowe niosą informacje z mięśni i narządów – ruchowe zaś wysyłają je do mięśni i narządów. W każdym segmencie informacje wędrują z i do mózgu.
Niektóre sygnały czuciowe wywołują natychmiastową reakcję w samym rdzeniu, bez jakiegokolwiek udziału mózgu. Przykładami mogą być: odruch kolanowy i reakcja cofania od gorącego przedmiotu. Gdy impuls czuciowy spełnia określone parametry, rdzeń kręgowy zapoczątkowuje odruch bezwarunkowy. Sygnał przechodzi z nerwu czuciowego do prostego ośrodka przetwarzania, z którego wychodzi komenda ruchowa. Oszczędza to sekundy, gdyż informacje nie muszą wędrować do mózgu, być tam przetwarzane i wracać. W sytuacjach zagrożenia odruchy rdzeniowe pozwalają ciału reagować naprawdę błyskawicznie.
Rdzeń kręgowy jest chroniony przez kręgi kostne i amortyzowany przez płyn mózgowo-rdzeniowy, ale urazy i tak się zdarzają. Gdy dojdzie do uszkodzenia na jakimś poziomie, wszystkie segmenty położone niżej zostają odcięte od informacji z mózgu, co wywołuje paraliż. Innymi słowy, im niżej jest uszkodzenie, tym mniejszy obszar ciała będzie dotknięty paraliżem.
### Półkule mózgowe
Najbardziej zewnętrzna warstwa mózgu, czyli kora mózgowa (in. kora mózgu) (ang. ), jest nierówna; tworzy ją sieć fałdów znanych jako zakręty (łac. ) oraz doliny, czyli bruzdy (łac. ), co pokazano na . Te zakręty i bruzdy wyznaczają obszary, dzięki którym możemy podzielić mózg na ośrodki czynnościowe. Najgłębsza bruzda, szczelina podłużna (ang. ), dzieli go na dwie półkule (ang. ): prawą i lewą.
Między półkulami istnieje pewna specjalizacja czynnościowa określana mianem lateralizacji (ang. ). Chodzi głównie o funkcje związane z mową i językiem, wiemy też, że lewa półkula kontroluje prawą połowę ciała, a prawa – lewą. Dekady badań nad lateralizacją, prowadzonych przez Michaela Gazzanigę i współpracowników, sugerują, że liczne funkcje mogą w pewnej mierze podlegać dominacji półkulowej, począwszy od rozumowania przyczynowo-skutkowego, a na rozpoznawaniu samego siebie kończąc (Gazzaniga, 2005). Na przykład lewa półkula okazuje się ważniejsza dla powstawania skojarzeń pamięciowych, selektywnej uwagi i pozytywnych emocji. Natomiast prawa półkula ma przewagę w przypadku percepcji wysokości dźwięków, pobudzenia i negatywnych emocji (Ehret, 2006). Należy jednak wskazać, że wyniki badań nad dominacją półkul w odniesieniu do różnych zachowań nie są jednoznaczne. Z tego powodu należy raczej analizować to, jak obie półkule współdziałają, aby wywołać określone zachowanie, niż przypisywać niektóre zachowania którejś z nich (Banich i Heller, 1998).
Obie półkule łączy gruba wiązka włókien nerwowych określanych jako spoidło wielkie (łac. ) (inaczej: ciało modzelowate), złożone z około 200 mln aksonów. Spoidło wielkie pozwala przekazywać informacje przetwarzane w jednej półkuli do drugiej półkuli.
Większość z nas nie zdaje sobie sprawy z różnych ról, jakie obie półkule odgrywają na co dzień, ale są i tacy, którzy poznali ich możliwości aż za dobrze. W niektórych przypadkach ciężkiej padaczki lekarze decydują się na przecięcie spoidła wielkiego, by ograniczyć rozprzestrzenianie się synchronicznych wyładowań neuronalnych (). Taka terapia jest skuteczna, ale w rezultacie poddana jej osoba ma rozdzielone półkule mózgowe. Po operacji zaczyna niekiedy przejawiać nietypowy wachlarz zachowań. Nie potrafi np. nazwać tego, co widzi w lewym polu widzenia, gdyż ta informacja jest skierowana tylko do prawej półkuli, w której w zasadzie nie występują ośrodki mowy. Umie jednak odtworzyć widziany rysunek lewą ręką, również kontrolowaną przez prawą półkulę. Za to gdy lewa półkula (w której głównie występują ośrodki mowy) „zobaczy” obrazek narysowany lewą ręką, pacjent może go nazwać (przyjmując, że lewa półkula umie zinterpretować to, co narysowała ręka).
Wiele z tego, co wiemy o funkcjach różnych obszarów mózgu, pochodzi z badań osób, u których uszkodzenie tego narządu wywołało zmiany zachowania. Naukowcy badają np. zmiany w zachowaniu po udarze, by dowiedzieć się, jaką rolę odgrywają określone obszary mózgu. Udar niedokrwienny, wywołany przerwaniem dopływu krwi do jakiejś części mózgu, prowadzi do utraty funkcji w tym obszarze. Uszkodzenie może być ograniczone do niewielkiego fragmentu tkanki i wtedy daje badaczom szanse połączenia ewentualnych zmian w zachowaniu z tym konkretnym rejonem. Rodzaj deficytów, jakie można obserwować po udarze, w dużej mierze zależy od tego, który obszar uległ uszkodzeniu.
Weźmy Theonę, inteligentną, samodzielną, 62-letnią kobietę. Niedawno przeszła udar przedniej części prawej półkuli. W rezultacie jest jej bardzo trudno poruszać lewą nogą (jak już wiesz, prawa półkula kontroluje lewą stronę ciała, a główne ośrodki ruchowe zlokalizowane są w przedniej części mózgu, w płatach czołowych). U Theony doszło też do zmian w zachowaniu. Na przykład gdy odwiedza dział warzywny supermarketu, zdarza jej się zjadać winogrona, truskawki albo jabłka z tacek bez płacenia. Takie zachowanie, którego przed udarem zapewne by się wstydziła, to efekt uszkodzenia innego regionu płata czołowego – tzw. kory przedczołowej, związanej z osądami, rozumowaniem i panowaniem nad popędami.
### Struktury przodomózgowia
Kora mózgowa obu półkul to część przodomózgowia (ang. ) (), które stanowi największą część mózgu. Poza korą należy do niego szereg innych struktur nazywanych podkorowymi, gdyż... leżą pod korą. Możemy wśród nich wyróżnić: wzgórze, przysadkę mózgową i układ limbiczny (na który składa się wiele struktur). Kora, stanowiąca zewnętrzną powierzchnię mózgu, jest związana z procesami wyższego rzędu: świadomością, myśleniem, emocjami, rozumowaniem, mową i pamięcią. Każdą półkulę mózgu można podzielić na cztery płaty, z których każdy pełni inne funkcje.
### Płaty mózgu
W każdej z półkul wyróżniamy cztery płaty: czołowy, ciemieniowy, skroniowy i potyliczny (). Płat czołowy (ang. ) leży z przodu i rozciąga się aż do szczeliny zwanej bruzdą środkową (bruzdą Rolanda). Płat ten jest związany z myśleniem, kontrolą ruchu, emocjami i mową. Należą do niego: kora ruchowa (ang. ), zaangażowana w planowanie i koordynację ruchów, kora przedczołowa (ang. ), odpowiedzialna za wyższe funkcje poznawcze, oraz ośrodek Broki (obszar Broki) (ang. ), zawiadujący generowaniem mowy.
Osoby z uszkodzeniem ośrodka Broki mają ogromne trudności z wyartykułowaniem jakichkolwiek zrozumiałych dźwięków mowy (). Przykładowo: Padma pracowała jako inżynier elektryk, była aktywnym członkiem lokalnej społeczności i kochającą, zaangażowaną matką. Dwadzieścia lat temu przeżyła wypadek samochodowy, w którym uszkodzeniu uległ jej ośrodek Broki. Zupełnie straciła zdolność mówienia i wypowiadania się w logiczny, zrozumiały sposób. Jej usta i struny głosowe są w najlepszym porządku, a mimo to nie umie wydobywać z siebie słów. Gdy ktoś daje jej wskazówki, potrafi z nich korzystać, ale nie odpowiada. Potrafi czytać, ale nie pisać. Rutynowe czynności, jak pójście do sklepu po mleko, nie sprawiają jej trudności, ale gdyby sytuacja tego od niej wymagała, nie potrafiłaby o nic zapytać ani porozmawiać.
Prawdopodobnie najsłynniejszym przypadkiem uszkodzenia płata czołowego jest historia mężczyzny nazwiskiem Phineas Gage (1823–1860). 13 września 1848 roku pracował on jak co dzień jako kierownik budowy torów kolejowych w Vermont. Wraz z zespołem miał wysadzać skały stojące na drodze planowanej linii kolejowej. Do ubijania materiałów wybuchowych w zagłębieniach strzelniczych wykorzystywano metalowy pręt. Niestety za którymś razem pręt wywołał iskrę, a ta – zapłon ładunku, który wybuchł Gage’owi w twarz, pręt zaś przebił mu czaszkę (). Mężczyzna nie stracił przytomności, choć przez dłuższą chwilę leżał w kałuży własnej krwi, a z jego czaszki wydobywały się fragmenty mózgu. Był w stanie wstać, mówić i chodzić o własnych siłach. Jednak ludzie zauważyli, że w ciągu kilku miesięcy po wypadku bardzo się zmienił. Wielu przyjaciół twierdziło wręcz, że przestał być sobą. Przed urazem Gage był dobrze wychowanym, spokojnym człowiekiem, a po nim zaczął zachowywać się dziwacznie i nieodpowiednio. Takie zmiany mogły wynikać z utraty umiejętności kontroli własnego zachowania – funkcji pełnionej przez płaty czołowe.
Oprócz uszkodzenia samego płata czołowego późniejsze badania drogi, którą przeszedł pręt, pozwoliły zidentyfikować również prawdopodobne uszkodzenia dróg łączących płat czołowy z innymi strukturami mózgu, w tym układem limbicznym. Zniszczenie połączeń między ośrodkami w płatach czołowych odpowiedzialnymi za funkcje planowania oraz ośrodkami w układzie limbicznym odpowiedzialnymi za procesy emocjonalne sprawiło, że Gage miał trudności z kontrolowaniem zachowań emocjonalnych.
Są jednak dane wskazujące, że wyraźne zmiany w osobowości mężczyzny zostały wyolbrzymione i mocno ubarwione. Przypadek Gage’a zdarzył się w szczytowym momencie dziewiętnastowiecznej debaty, w której spierano się, czy określone funkcje mózgu mają specyficzną lokalizację. Naukowcy starali się znaleźć potwierdzenie swoich poglądów niezależnie od tego, po której stronie opowiadali się w tym sporze, opierając się na bardzo ograniczonych informacjach o samym Gage’u, rozmiarach uszkodzeń mózgu oraz życiu mężczyzny sprzed i po wypadku (Macmillan, 1999).
Bezpośrednio za płatem czołowym znajduje się płat ciemieniowy (ang. ), zaangażowany w przetwarzanie informacji zmysłowych. Tworzy go kora somatosensoryczna (ang. ), nieodzowny element przetwarzania informacji czuciowych z całego organizmu, takich jak dotyk, temperatura i ból. Kora somatosensoryczna jest zorganizowana somatotopowo, to znaczy, że na jej powierzchni odzwierciedlone są relacje przestrzenne między obszarami ciała (). Na przykład obszar przetwarzający informacje czuciowe z dłoni leży w sąsiedztwie obszaru przetwarzającego informacje czuciowe z nadgarstka.
Płaty skroniowe (ang. ) leżą po bokach mózgu, w okolicach skroni. Odpowiadają za słyszenie, pamięć, uczucia i niektóre aspekty mowy. To tu zlokalizowana jest kora słuchowa (ang. ), główny obszar uczestniczący w przetwarzaniu informacji słuchowych. Tu także znajduje się ośrodek Wernickego (ang. ), kluczowy dla rozumienia mowy. Można powiedzieć, że podczas gdy ludzie z uszkodzonym ośrodkiem Broki mają problem z wypowiedzeniem choćby jednego zrozumiałego słowa, ci z urazem ośrodka Wernickego mówią słowa w sposób zrozumiały, ale ich wypowiedzi są pozbawione sensu ().
Płat potyliczny (ang. ) jest zlokalizowany z tyłu czaszki; mieści się tu pierwszorzędowa kora wzrokowa, odpowiedzialna za odczytywanie przychodzących z oczu bodźców wzrokowych. Kora potyliczna jest zorganizowana retinotopowo, co oznacza, że istnieje ścisły związek między położeniem obiektu w polu widzenia a pozycją, jaką reprezentacja tego obiektu zajmuje w korze wzrokowej. Więcej o przetwarzaniu informacji wzrokowych w płatach potylicznych dowiesz się, ucząc się o wrażeniach zmysłowych i percepcji w podrozdziale Wzrok.
### Inne obszary przodomózgowia
Inne obszary przodomózgowia to położone pod korą wzgórze i układ limbiczny. Wzgórze (łac. ) to stacja przekaźnikowa mózgu. Wszystkie szlaki zmysłowe, z wyjątkiem węchowego, przechodzą przez wzgórze, zanim dotrą do innych obszarów mózgu, gdzie odbywa się ich przetwarzanie ().
Układ limbiczny (ang. ) bierze udział w przetwarzaniu emocji i śladów pamięciowych. Co ciekawe, szlak węchowy biegnie bezpośrednio do układu limbicznego, więc nie dziwi fakt, że zapachy wywołują reakcje emocjonalne w takim stopniu, w jakim nie może wywołać ich żaden inny bodziec. Układ limbiczny składa się z szeregu struktur; trzy najważniejsze to hipokamp (łac. ), ciało migdałowate (łac. ) i podwzgórze (łac. ) (). Hipokamp, parzysty narząd, jest niezbędny w procesie uczenia się i zapamiętywania. Ciało migdałowate jest kluczowe w doświadczaniu emocji i nadawaniu wspomnieniom emocjonalnego znaczenia. Podwzgórze reguluje wiele procesów z zakresu homeostazy, w tym temperaturę ciała, apetyt i ciśnienie krwi. Jest także stacją przekaźnikową między układem nerwowym a wewnątrzwydzielniczym oraz nadzoruje popęd seksualny i zachowania reprodukcyjne.
### Przypadek Henry’ego Molaisona (H.M.)
W 1953 roku Henry Gustav Molaison (1926–2008) (H. M.) był dwudziestosiedmiolatkiem z ciężką padaczką. Aby ograniczyć rozległość występujących u niego napadów padaczki, wykonano u niego operację mózgu polegającą na usunięciu hipokampu i ciała migdałowatego. Po zabiegu napady padaczkowe rzeczywiście stały się mniej uciążliwe, ale sama operacja wywołała nieoczekiwane i tragiczne skutki uboczne. H.M. utracił zdolność tworzenia wielu typów nowych wspomnień. Nie potrafił np. zapamiętać nowych faktów w rodzaju „kto jest obecnym prezydentem”. Był w stanie nabywać nowe umiejętności, ale później zapominał, że je posiada. Na przykład uczył się korzystać z komputera, a później nie pamiętał, żeby kiedykolwiek widział to urządzenie. Nie potrafił zapamiętać nowych twarzy ani zdarzeń, nawet tuż po ich zajściu. Badacze byli nim zafascynowani i do dziś H. M. jest uznawany za jednego z najlepiej przebadanych pacjentów w historii medycyny i psychologii (Hardt, Einarsson, Nader, 2010; Squire, 2009). Jego historia pozwoliła wejrzeć głęboko w mózg i ustalić, jaką rolę odgrywa hipokamp w konsolidacji nowych śladów pamięciowych w pamięci deklaratywnej (świadomej).
### Struktury śródmózgowia i tyłomózgowia
Śródmózgowie (ang. ) tworzą struktury zlokalizowane głęboko w mózgu, między przodo- a tyłomózgowiem. W tej części leży centrum układu siatkowatego (ang. ), który jednak rozciąga się dalej, w górę do przodomózgowia i w dół do tyłomózgowia. Twór siatkowaty odgrywa istotną rolę w regulacji świadomości, pobudzenia, aktywności ruchowej i cyklu sen–czuwanie.
W śródmózgowiu znajdują się też substancja czarna (istota czarna) (łac. ) i pole brzuszne nakrywki (ang. ) przedstawione na . W obu tych obszarach zlokalizowane są komórki wytwarzające dopaminę i oba odgrywają istotną rolę w sterowaniu ruchem. Degeneracja substancji czarnej i VTA występuje w chorobie Parkinsona. Oprócz tego obie struktury wpływają na nastrój, doświadczanie przyjemności i... uzależnienia (Berridge i Robinson, 1998; Gardner, 2011; George et al., 2012).
Tyłomózgowie (ang. ) leży z tyłu czaszki i wygląda jak przedłużenie rdzenia kręgowego. Składa się z rdzenia przedłużonego, mostu i móżdżku (). Rdzeń przedłużony (łac. ) kontroluje automatyzmy autonomicznego układu nerwowego, takie jak oddychanie, ciśnienie krwi czy bicie serca. Zgodnie z nazwą most (ang. ) łączy tyłomózgowie z resztą mózgu oraz bierze udział w regulacji aktywności mózgu podczas snu. Pień mózgu (ang. ) w ujęciu klinicznym złożony jest z trzech pięter ośrodkowego układu nerwowego: śródmózgowia, mostu i rdzenia przedłużonego.
Móżdżek (łac. ) (czyli „mały mózg”) otrzymuje informacje z mięśni, ścięgien, stawów oraz struktur zlokalizowanych w uchu wewnętrznym. Dzięki nim kontroluje równowagę, koordynację ruchów i wyuczone sekwencje ruchowe. Uważa się też, że ta część mózgu pełni istotną funkcję w przetwarzaniu niektórych typów śladów pamięciowych, a w szczególności tzw. pamięci proceduralnej, związanej z uczeniem się i pamiętaniem, jak wykonywać określone czynności. Przypomnij sobie, że H. M. nie umiał zapisać nowych zdarzeń w pamięci deklaratywnej, ale potrafił uczyć się nowych czynności, prawdopodobnie dlatego, że jego móżdżek pozostał nietknięty.
### Obrazowanie mózgu
Wiesz już, że uszkodzenie mózgu może dostarczyć informacji o funkcjach różnych jego obszarów. Coraz częściej jednak te same informacje możemy uzyskać dzięki technikom obrazowania mózgu (ang. ), badając osoby, które nie doświadczyły żadnych uszkodzeń tego organu. W tym podrozdziale przyjrzymy się bliżej niektórym z tych technik, zarówno wykorzystującym promieniowanie rentgenowskie, jak i pola magnetyczne czy aktywność elektryczną mózgu.
### Techniki oparte na promieniowaniu
Tomografia komputerowa (TK) (ang. ) to obraz utworzony z wielu zdjęć rentgenowskich danej części ciała (w tym mózgu) (). Promienie X, przechodząc przez tkanki o różnej gęstości, są tłumione w różnym stopniu, dzięki czemu komputer może stworzyć całkowity obraz badanego obszaru. TK często jest wykorzystywana do stwierdzenia, czy w mózgu badanej osoby rozwija się guz albo czy dochodzi do znaczącego zaniku tkanki mózgowej.
Pozytonowa tomografia emisyjna (ang. ) tworzy obrazy żywego, aktywnego mózgu (). Osoba poddawana takiemu badaniu najpierw wypija (albo wstrzykuje się jej) płyn z nieznacznie radioaktywną substancją, tzw. znacznikiem. Gdy znacznik znajdzie się w krwiobiegu, można monitorować jego ilość w dowolnym obszarze mózgu. Wiadomo, że wzrost aktywności obszaru mózgu powoduje wzrost przepływu krwi przez ten obszar, a więc i wzrost stężenia znacznika. Komputer pozwala rejestrować ruchy znacznika i tworzy mapę aktywnych i nieaktywnych obszarów mózgu podczas określonego zachowania. Obrazy PET nie są zbyt szczegółowe, nie pozwalają na dokładne zobrazowanie aktywności w czasie i są związane z narażeniem mózgu na promieniowanie. Dlatego technikę tę zastępuje się obrazowaniem czynnościowym rezonansem magnetycznym (fMRI). Jednakże w połączeniu z tomografią komputerową badanie PET wciąż jest wykorzystywane w niektórych sytuacjach. Techniki TK/PET pozwalają np. lepiej zobrazować aktywność receptorów neuroprzekaźnika i otwierają nowe możliwości w badaniach nad schizofrenią. Hybrydowa technologia TK/PET to szczegółowy obraz struktur mózgu (TK) i jego aktywności (PET).
### Techniki wykorzystujące pola magnetyczne
W rezonansie magnetycznym (ang. magnetic resonance imaging (MRI)) uczestnik jest umieszczany wewnątrz urządzenia wytwarzającego silne pole magnetyczne. Pole to porządkuje atomy wodoru w komórkach. Po wyłączeniu pola atomy te wracają do pierwotnego położenia, emitując przy tym pole elektromagnetyczne. Tkanki o różnej gęstości wysyłają sygnały o różnym natężeniu, które komputer przetwarza i obraz badanego obszaru wyświetla na ekranie monitora. Czynnościowy rezonans magnetyczny (ang. ) działa na tej samej zasadzie, ale pokazuje zmiany aktywności mózgu w czasie, śledząc przepływ krwi i poziom wysycenia jej tlenem. fMRI dostarcza bardziej szczegółowych obrazów budowy mózgu, z większą dokładnością czasową niż w przypadku techniki PET (). Przy tak dużym poziomie szczegółowości MRI i fMRI często wykorzystuje się do porównywania mózgów osób zdrowych z mózgami osób ze zdiagnozowanymi zaburzeniami psychicznymi. Takie porównanie pomaga określić strukturalne i czynnościowe różnice między populacjami ludzi zdrowych i chorych.
### Techniki wykorzystujące aktywność elektryczną
W badaniach mózgu ważną rolę odgrywa analiza potencjałów elektrycznych tego narządu, która pozwala na bardzo dokładną rejestrację czasowych zmian aktywności przy niezbyt precyzyjnym ustaleniu miejsca jej występowania. Takie informacje o elektrycznej aktywności mózgu daje elektroencefalografia (ang. ). Na głowę badanego nakłada się specjalny czepek z odpowiednio rozmieszczonymi elektrodami (). Sygnały odbierane z elektrod pozwalają stworzyć wykres aktywności mózgu, tzw. fale mózgowe, rejestrując zmianę ich amplitudy (wysokość) z dokładnością do milisekund. Stosując odpowiednie techniki obliczeniowe, określa się częstotliwość składowych danego sygnału. Tego typu informacje są szczególnie przydatne naukowcom badającym wzorce snu u osób z jego zaburzeniami.
### Podsumowanie
Mózg składa się z dwóch półkul, z których prawa kontroluje lewą połowę ciała i na odwrót. Korę mózgową każdej z półkul można podzielić na płaty: czołowy, ciemieniowy, skroniowy i potyliczny. Oprócz kory mózgowej do przodomózgowia należą też wzgórze (stacja przekaźnikowa dla wrażeń zmysłowych) i układ limbiczny (system łączący pamięć i emocje). Śródmózgowie zawiera twór siatkowaty, kluczowy w regulacji cyklu snu i czuwania, oraz substancję czarną i pole brzuszne nakrywki. Te struktury odgrywają rolę w kontroli ruchów, doświadczaniu przyjemności i uzależnieniach. W tyłomózgowiu kryją się struktury pnia mózgu (rdzeń przedłużony, most i śródmózgowie) kontrolujące funkcje odruchowe, takie jak oddychanie czy ciśnienie krwi. Należy doń również móżdżek, który koordynuje ruchy ciała i przetwarza niektóre rodzaje wspomnień.
Dawniej, by zdobyć informacje o roli poszczególnych obszarów mózgu, trzeba było badać osoby, u których doszło do uszkodzenia mózgu. Dziś dzięki postępom technologii można zbierać takie informacje z badań obrazowych ukazujących zarówno strukturę mózgu, jak i jego czynność. Najważniejsze z tych badań to TK (CT), PET, MRI, fMRI i EEG.
### Review Questions
### Critical Thinking Questions
### Personal Application Questions
|
# Biopsychologia
## Układ hormonalny
Układ wewnątrzwydzielniczy (inaczej dokrewny, hormonalny lub endokrynny) (ang. ) to zestaw gruczołów wytwarzających substancje chemiczne – hormony (ang. ) (). Podobnie jak neuroprzekaźniki, hormony są chemicznymi przekaźnikami i żeby przesłać sygnał, muszą się związać z receptorem. W przeciwieństwie do neuroprzekaźników jednak nie muszą być wydzielane w bezpośrednim sąsiedztwie komórek docelowych. Zamiast tego są uwalniane do krwiobiegu i wędrują z krwią po całym ciele, oddziałując na wszystkie komórki posiadające odpowiednie receptory. Dlatego neuroprzekaźniki działają miejscowo, hormony zaś – całościowo. Działanie hormonów jest bardziej opóźnione niż neuroprzekaźników, ale efekt ich działania trwa dłużej.
Hormony regulują różne funkcje organizmu. Same są kontrolowane przez wzajemne interakcje podwzgórza (w ośrodkowym układzie nerwowym) i przysadki (w układzie hormonalnym). Zaburzenia równowagi hormonalnej są przyczyną licznych chorób. W tym podrozdziale przyjrzymy się głównym gruczołom tworzącym układ wewnątrzwydzielniczy i wydzielanym przez nie hormonom.
### Gruczoły wewnątrzwydzielnicze
Przysadka (ang. ) odchodzi od podwzgórza u podstawy mózgu i ściśle z podwzgórzem współpracuje. Często jest określana mianem „gruczołu nadrzędnego”, ponieważ wydzielane przez nią hormony przekaźnikowe kontrolują pracę wszystkich pozostałych gruczołów dokrewnych, choć ona sama głównie realizuje instrukcje płynące z podwzgórza. Poza hormonami przekaźnikowymi wydziela też hormon wzrostu, uśmierzające ból endorfiny i wiele hormonów regulujących ilość płynów w organizmie.
Zlokalizowana w szyi tarczyca (ang. ) uwalnia hormony odpowiedzialne za wzrost, metabolizm i apetyt. W nadczynności (chorobie Gravesa–Basedowa) tarczyca wydziela nadmiar hormonu zwanego tyroksyną, co wywołuje pobudzenie, wytrzeszcz oczu i chudnięcie. W niedoczynności obniżony poziom tyroksyny prowadzi do ciągłego zmęczenia, a chorzy często uskarżają się na marznięcie. Na szczęście zaburzenia czynności tarczycy najczęściej daje się opanować farmakologicznie, przywracając równowagę wydzielanych przez nią hormonów.
Nadnercza (ang. ) są położone nad nerkami i wydzielają hormony odpowiedzialne za reakcję na stres: adrenalinę (epinefrynę) i noradrenalinę (norepinefrynę). Trzustka (ang. ) jest narządem wewnętrznym, który wydziela hormony regulujące poziom glukozy we krwi: insulinę i glukagon. Hormony te są niezbędne do utrzymania stabilnych stężeń glukozy w ciągu dnia; insulina obniża poziom cukru, a glukagon go podnosi. Osoby cierpiące na cukrzycę (ang. ) wytwarzają niewystarczające ilości insuliny i muszą przyjmować leki pobudzające jej wydzielanie lub zastępujące ten hormon; muszą też kontrolować ilość spożywanych węglowodanów.
Gonady (ang. ) wydzielają hormony płciowe, ważne dla rozmnażania się, odpowiedzialne za motywację i zachowania seksualne. Żeńskie gonady to jajniki (ang. ), a męskie – jądra (ang. ). Jajniki wydzielają m.in. estrogeny i progesteron, a jądra – androgeny, takie jak testosteron.
### Summary
Gruczoły układu endokrynnego wydzielają hormony, które sterują procesami zachodzącymi w organizmie. Łącznikiem między układem nerwowym a wewnątrzwydzielniczym jest podwzgórze. Kontroluje ono czynność przysadki mózgowej. Przysadka jest gruczołem nadrzędnym, regulującym działanie wszystkich pozostałych gruczołów wewnątrzwydzielniczych. Tarczyca wydziela tyroksynę, odpowiedzialną za wzrost i podstawowe procesy metaboliczne; nadnercza – hormony zaangażowane w odpowiedź organizmu na stres; trzustka jest źródłem insuliny i glukagonu, regulujących poziom glukozy we krwi, a jajniki i jądra produkują hormony płciowe, odpowiedzialne za popęd seksualny i zachowania związane z reprodukcją.
### Review Questions
### Critical Thinking Questions
### Personal Application Questions
|
# Stany świadomości
## Wprowadzenie
W naszym życiu regularnie i znacząco zmienia się stopień, w jakim jesteśmy świadomi otoczenia oraz własnych stanów wewnętrznych. Gdy nie śpimy, jesteśmy uważni oraz świadomi wielu rzeczy i sytuacji wokół nas. Nasze doświadczenia radykalnie się zmieniają, kiedy wchodzimy w głęboki sen, a następnie, kiedy śnimy.
W tym rozdziale zajmiemy się stanami świadomości ze szczególnym uwzględnieniem snu. Opiszemy kolejne jego fazy, a także zaburzenia. Na końcu omówimy odmienne stany świadomości powstające w wyniku używania substancji psychoaktywnych oraz zastosowania hipnozy i medytacji.
### References
Aggarwal, S. K., Carter, G. T., Sullivan, M. D., ZumBrunnen, C., Morrill, R., & Mayer, J. D. (2009). Medicinal use of cannabis in the United States: Historical perspectives, current trends, and future directions. Journal of Opioid Management, 5, 153–168.
Alhola, P. & Polo-Kantola, P. (2007). Sleep deprivation: Impact on cognitive performance. Neuropsychiatric Disease and Treatment, 3, 553–557.
Alladin, A. (2012). Cognitive hypnotherapy for major depressive disorder. The American Journal of Clinical Hypnosis, 54, 275–293.
American Psychiatric Association. (2013). Diagnostic and statistical manual of mental disorders (5th ed.). Arlington, VA: Author.
Aquina, C. T., Marques-Baptista, A., Bridgeman, P., & Merlin, M. A. (2009). Oxycontin abuse and overdose. Postgraduate Medicine, 121, 163–167.
Arnulf, I. (2012). REM sleep behavior disorder: Motor manifestations and pathophysiology. Movement Disorders, 27, 677–689.
Augustinova, M., & Ferrand, L. (2012). Suggestion does not de-automatize word reading: Evidence from the semantically based Stroop task. Psychonomic Bulletin & Review, 19, 521–527.
Banks, S., & Dinges, D. F. (2007). Behavioral and physiological consequences of sleep restriction. Journal of Clinical Sleep Medicine, 3, 519–528.
Bartke, A., Sun, L. Y., & Longo, V. (2013). Somatotropic signaling: Trade-offs between growth, reproductive development, and longevity. Physiological Reviews, 93, 571–598.
Berkowitz, C. D. (2012). Sudden infant death syndrome, sudden unexpected infant death, and apparent life-threatening events. Advances in Pediatrics, 59, 183–208.
Berry, R. B., Kryger, M. H., & Massie, C. A. (2011). A novel nasal expiratory positive airway pressure (EPAP) device for the treatment of obstructive sleep apnea: A randomized controlled trial. Sleep, 34, 479–485.
Bixler, E. O., Kales, A., Soldatos, C. R., Kales, J. D., & Healey, S. (1979). Prevalence of sleep disorders in the Los Angeles metropolitan area. American Journal of Psychiatry, 136, 1257–1262.
Bostwick, J. M. (2012). Blurred boundaries: The therapeutics and politics of medical marijuana. Mayo Clinic Proceedings, 87, 172–186.
Brook, R. D., Appel, L. J., Rubenfire, M., Ogedegbe, G., Bisognano, J. D., Elliott, W. J., Fuchs F. D., Hughes J. W., Lackland D. T., Staffileno B. A., Townsend R. R., Rajagopalan, S. (2013). Beyond medications and diet: Alternative approaches to lowering blood pressure: A scientific statement from the American Heart Association. Hypertension, 61, 1360–1383.
Broughton, R., Billings, R., Cartwright, R., Doucette, D., Edmeads, J., Edwardh, M., Ervin F., Orchard B., Hill R., Turrell, G. (1994). Homicidal somnambulism: A case report. Sleep, 17, 253–264.
Brown, L. K. (2012). Can sleep deprivation studies explain why human adults sleep?. Current Opinion in Pulmonary Medicine, 18, 541–545.
Burgess, C. R., & Scammell, T. E. (2012). Narcolepsy: Neural mechanisms of sleepiness and cataplexy. Journal of Neuroscience, 32, 12305–12311.
Cai, D. J., Mednick, S. A., Harrison, E. M., Kanady, J. C., & Mednick, S. C. (2009). REM, not incubation, improves creativity by priming associative networks. Proceedings of the National Academy of Sciences, USA, 106, 10130–10134.
Caldwell, K., Harrison, M., Adams, M., Quin, R. H., & Greeson, J. (2010). Developing mindfulness in college students through movement based courses: Effects on self-regulatory self-efficacy, mood, stress, and sleep quality. Journal of American College Health, 58, 433–442.
Capellini, I., Barton, R. A., McNamara, P., Preston, B. T., & Nunn, C. L. (2008). Phylogenetic analysis of the ecology and evolution of mammalian sleep. Evolution, 62, 1764–1776.
Cartwright, R. (2004). Sleepwalking violence: A sleep disorder, a legal dilemma, and a psychological challenge. American Journal of Psychiatry, 161, 1149–1158.
Cartwright, R., Agargun, M. Y., Kirkby, J., & Friedman, J. K. (2006). Relation of dreams to waking concerns. Psychiatry Research, 141, 261–270.
Casati, A., Sedefov, R., & Pfeiffer-Gerschel, T. (2012). Misuse of medications in the European Union: A systematic review of the literature. European Addiction Research, 18, 228–245.
Chen, K. W., Berger, C. C., Manheimer, E., Forde, D., Magidson, J., Dachman, L., & Lejuez, C. W. (2013). Meditative therapies for reducing anxiety: A systematic review and meta-analysis of randomized controlled trials. Depression and Anxiety, 29, 545–562.
Chokroverty, S. (2010). Overview of sleep & sleep disorders. Indian Journal of Medical Research, 131, 126–140.
Christensen, A., Bentley, G. E., Cabrera, R., Ortega, H. H., Perfito, N., Wu, T. J., & Micevych, P. (2012). Hormonal regulation of female reproduction. Hormone and Metabolic Research, 44, 587–591.
CNN. (1999, June 25). ‘Sleepwalker’ convicted of murder. Retrieved from: http://www.cnn.com/US/9906/25/sleepwalker.01.
Cropley, M., Theadom, A., Pravettoni, G., & Webb, G. (2008). The effectiveness of smoking cessation interventions prior to surgery: A systematic review. Nicotine and Tobacco Research, 10, 407–412.
De la Herrán-Arita, A. K., & Drucker-Colín, R. (2012). Models for narcolepsy with cataplexy drug discovery. Expert Opinion on Drug Discovery, 7, 155–164.
Del Casale, A., Ferracuti, S., Rapinesi, C., Serata, D., Sani, G., Savoja, V., Kotzalidis G. D., Tatarelli R., Girardi, P. (2012). Neurocognition under hypnosis: Findings from recent functional neuroimaging studies. International Journal of Clinical and Experimental Hypnosis, 60, 286–317.
Elkins, G., Johnson, A., & Fisher, W. (2012). Cognitive hypnotherapy for pain management. The American Journal of Clinical Hypnosis, 54, 294–310.
Ellenbogen, J. M., Hu, P. T., Payne, J. D., Titone, D., & Walker, M. P. (2007). Human relational memory requires time and sleep. Proceedings of the National Academy of Sciencesof the United States of America,104, 7723–7728.
Fell, J., Axmacher, N., & Haupt, S. (2010). From alpha to gamma: Electrophysiological correlates meditation-related states of consciousness. Medical Hypotheses, 75, 218–224.
Fenn, K. M., Nusbaum, H. C., & Margoliash, D. (2003). Consolidation during sleep of perceptual learning of spoken language. Nature, 425, 614–616.
Ferini-Strambi, L. (2011). Does idiopathic REM sleep behavior disorder (iRBD) really exist? What are the potential markers of neurodegeneration in iRBD [Supplemental material]?. Sleep Medicine, 12(2 Suppl.), S43–S49.
Fiorentini, A., Volonteri, L. S., Dragogna, F., Rovera, C., Maffini, M., Mauri, M. C., & Altamura, C. A. (2011). Substance-induced psychoses: A critical review of the literature. Current Drug Abuse Reviews, 4, 228–240.
Fogel, S. M., & Smith, C. T. (2011). The function of the sleep spindle: A physiological index of intelligence and a mechanism for sleep-dependent memory consolidation. Neuroscience and Biobehavioral Reviews, 35, 1154–1165.
Frank, M. G. (2006). The mystery of sleep function: Current perspectives and future directions. Reviews in the Neurosciences, 17, 375–392.
Freeman, M. P., Fava, M., Lake, J., Trivedi, M. H., Wisner, K. L., & Mischoulon, D. (2010). Complementary and alternative medicine in major depressive disorder: The American Psychiatric Association task force report. The Journal of Clinical Psychiatry, 71, 669–681.
Giedke, H., & Schwärzler, F. (2002). Therapeutic use of sleep deprivation in depression. Sleep Medicine Reviews, 6, 361–377.
Gold, D. R., Rogacz, S. R., Bock, N., Tosteson, T. D., Baum, T. M., Speizer, F. M., & Czeisler, C. A. (1992). Rotating shift work, sleep, and accidents related to sleepiness in hospital nurses. American Journal of Public Health, 82, 1011–1014.
Golden, W. L. (2012). Cognitive hypnotherapy for anxiety disorders. The American Journal of Clinical Hypnosis, 54, 263–274.
Gómez, R. L., Bootzin, R. R., & Nadel, L. (2006). Naps promote abstraction in language-learning infants. Psychological Science, 17, 670–674.
Guilleminault, C., Kirisoglu, C., Bao, G., Arias, V., Chan, A., & Li, K. K. (2005). Adult chronic sleepwalking and its treatment based on polysomnography. Brain, 128, 1062–1069.
Gujar, N., Yoo, S., Hu, P., & Walker, M. P. (2011). Sleep deprivation amplifies reactivity of brain reward networks, biasing the appraisal of positive emotional experiences. The Journal of Neuroscience, 31, 4466–4474.
Guldenmund, P., Vanhaudenhuyse, A., Boly, M., Laureys, S., & Soddu, A. (2012). A default mode of brain function in altered states of consciousness. Archives Italiennes de Biologie, 150, 107–121.
Halász, P. (1993). Arousals without awakening—Dynamic aspect of sleep. Physiology and Behavior, 54, 795–802.
Han, F. (2012). Sleepiness that cannot be overcome: Narcolepsy and cataplexy. Respirology, 17, 1157–1165.
Hardeland, R., Pandi-Perumal, S. R., & Cardinali, D. P. (2006). Melatonin. International Journal of Biochemistry & Cell Biology, 38, 313–316.
Haasen, C., & Krausz, M. (2001). Myths versus experience with respect to cocaine and crack: Learning from the US experience. European Addiction Research, 7, 159–160.
Henry, D., & Rosenthal, L. (2013). „Listening for his breath”: The significance of gender and partner reporting on the diagnosis, management, and treatment of obstructive sleep apnea. Social Science & Medicine, 79, 48–56.
Herman, A., & Herman, A. P. (2013). Caffeine’s mechanism of action and its cosmetic use. Skin Pharmacology and Physiology, 26, 8–14.
Hicks, R. A., Fernandez, C., & Pelligrini, R. J. (2001). The changing sleep habits of university students: An update. Perceptual and Motor Skills, 93, 648.
Hicks, R. A., Johnson, C., & Pelligrini, R. J. (1992). Changes in the self-reported consistency of normal habitual sleep duration of college students (1978 and 1992). Perceptual and Motor Skills, 75, 1168–1170.
Hilgard, E. R., & Hilgard, J. R. (1994). Hypnosis in therelief ofpain. New York, NY: Brunner/Mazel.
Hishikawa, Y., & Shimizu, T. (1995). Physiology of REM sleep, cataplexy, and sleep paralysis. Advances in Neurology, 67, 245–271.
Hobson, J. A. (2009). REM sleep and dreaming: Towards a theory of protoconsciousness. Nature Reviews Neuroscience, 10, 803–814.
Horikawa, T., Tamaki, M., Miyawaki, Y. & Kamitani, Y. (2013). Neural decoding of visual imagery during sleep. Science, 340(6132), 639–642. doi:10.1126/science.1234330.
Hossain, J. L., & Shapiro, C. M. (2002). The prevalence, cost implications, and management of sleep disorders: An overview. Sleep and Breathing, 6, 85–102.
Huang, L. B., Tsai, M. C., Chen, C. Y., & Hsu, S. C. (2013). The effectiveness of light/dark exposure to treat insomnia in female nurses undertaking shift work during the evening/night shift. Journal of Clinical Sleep Medicine, 9, 641–646.
Huber, R., Ghilardi, M. F., Massimini, M., & Tononi, G. (2004). Local sleep and learning. Nature, 430, 78–81.
Jayanthi, L. D., & Ramamoorthy, S. (2005). Regulation of monoamine transporters: Influence of psychostimulants and therapeutic antidepressants. The AAPS Journal, 7, E728–738.
Julien, R. M. (2005). Opioid analgesics. In: A primer of drug action: A comprehensive guide to the actions, uses, and side effects of psychoactive drugs (pp. 461–500). Portland, OR: Worth.
Kihlstrom, J. F. (2013). Neuro-hypnotism: Prospects for hypnosis and neuroscience. Cortex, 49, 365–374.
Klein, D. C., Moore, R. Y., & Reppert, S. M. (eds.). (1991). Suprachiasmatic nucleus: The mind’s clock. New York, NY: Oxford University Press.
Kogan, N. M., & Mechoulam, R. (2007). Cannabinoids in health and disease. Dialogues in Clinical Neuroscience, 9, 413–430.
Kromann, C. B., & Nielson, C. T. (2012). A case of cola dependency in a woman with recurrent depression. BMC Research Notes, 5, 692.
LaBerge, S. (1990). Lucid dreaming: Psychophysiological studies of consciousness during REM sleep. In: R. R. Bootzen, J. F. Kihlstrom, & D. L. Schacter (eds.), Sleep and cognition (pp. 109–126). Washington, DC: American Psychological Association.
Lang, A. J., Strauss, J. L., Bomeya, J., Bormann, J. E., Hickman, S. D., Good, R. C., & Essex, M. (2012). The theoretical and empirical basis for meditation as an intervention for PTSD. Behavior Modification, 36, 759–786.
Lesku, J. A., Roth, T. C. 2nd, Amlaner, C. J., & Lima, S. L. (2006). A phylogenetic analysis of sleep architecture in mammals: The integration of anatomy, physiology, and ecology. The American Naturalist, 168, 441–453.
Levitt, C., Shaw, E., Wong, S., & Kaczorowski, J. (2007). Systematic review of the literature on postpartum care: Effectiveness of interventions for smoking relapse prevention, cessation, and reduction in postpartum women. Birth, 34, 341–347.
Lifshitz, M., Aubert Bonn, N., Fischer, A., Kashem, I. F., & Raz, A. (2013). Using suggestion to modulate automatic processes: From Stroop to McGurk and beyond. Cortex, 49, 463–473.
Luppi, P. H., Clément, O., Sapin, E., Gervasoni, D., Peyron, C., Léger, L., Salvert D., Fort, P. (2011). The neuronal network responsible for paradoxical sleep and its dysfunctions causing narcolepsy and rapid eye movement (REM) behavior disorder. Sleep Medicine Reviews, 15, 153–163.
Mage, D. T., & Donner, M. (2006). Female resistance to hypoxia: Does it explain the sex difference in mortality rates?. Journal of Women’s Health, 15, 786–794.
Mahowald, M. W., & Schenck, C. H. (2000). Diagnosis and management of parasomnias. Clinical Cornerstone, 2, 48–54.
Mahowald, M. W., Schenck, C. H., & Cramer Bornemann, M. A. (2005). Sleep-related violence. Current Neurology and Neuroscience Reports, 5, 153–158.
Mayo Clinic. (n.d.). Sleep terrors (night terrors). Retrieved from: http://www.mayoclinic.org/diseases-conditions/night-terrors/basics/treatment/con-20032552.
Mather, L. E., Rauwendaal, E. R., Moxham-Hall, V. L., & Wodak, A. D. (2013). (Re)introducing medical cannabis. The Medical Journal of Australia, 199, 759–761.
Maxwell, J. C. (2006). Trends in the abuse of prescription drugs. Gulf Coast Addiction Technology Transfer Center. Retrieved from: .
McCarty, D. E. (2010). A case of narcolepsy with strictly unilateral cataplexy. Journal of Clinical Sleep Medicine, 15, 75–76.
McDaid, C., Durée, K. H., Griffin, S. C., Weatherly, H. L., Stradling, J. R., Davies, R. J., Sculpher M. J., Westwood, M. E. (2009). A systematic review of continuous positive airway pressure for obstructive sleep apnoea-hypopnoea syndrome. Sleep Medicine Reviews, 13, 427–436.
McKim, W. A., & Hancock, S. D. (2013). Drugs and behavior: An introduction to behavioral pharmacology, 7th edition. Boston, MA: Pearson.
Mignot, E. J. M. (2012). A practical guide to the therapy of narcolepsy and hypersomnia syndromes. Neurotherapeutics, 9, 739–752.
Miller, N. L., Shattuck, L. G., & Matsangas, P. (2010). Longitudinal study of sleep patterns of United States Military Academy cadets. Sleep, 33, 1623–1631.
Mitchell, E. A. (2009). SIDS: Past, present and future. Acta Paediatrica, 98, 1712–1719.
Montgomery, G. H., Schnur, J. B., & Kravits, K. (2012). Hypnosis for cancer care: Over 200 years young. CA: A Cancer Journal for Clinicians, 63, 31–44.
National Institutes of Health. (n.d.). Information about sleep. Retrieved from: http://science.education.nih.gov/supplements/nih3/sleep/guide/info-sleep.htm.
National Research Council. (1994). Learning, remembering, believing: Enhancing human performance. Washington, DC: The National Academies Press.
National Sleep Foundation. (n.d.). How much sleep do we really need?. Retrieved from: http://sleepfoundation.org/how-sleep-works/how-much-sleep-do-we-really-need.
Ohayon, M. M. (1997). Prevalence of DSM-IV diagnostic criteria of insomnia: Distinguishing insomnia related to mental disorders from sleep disorders. Journal of Psychiatric Research, 31, 333–346.
Ohayon, M. M. (2002). Epidemiology of insomnia: What we know and what we still need to learn. Sleep Medicine Reviews, 6, 97–111.
Ohayon, M. M., Carskadon, M. A., Guilleminault, C., & Vitiello, M. V. (2004). Meta-analysis of quantitative sleep parameters from childhood to old age in healthy individuals: Developing normative sleep values across the human lifespan. Sleep, 27, 1255–1273.
Ohayon, M. M., & Roth, T. (2002). Prevalence of restless legs syndrome and periodic limb movement disorder in the general population. Journal of Psychosomatic Research, 53, 547–554.
Poe, G. R., Walsh, C. M., & Bjorness, T. E. (2010). Cognitive neuroscience of sleep. Progress in Brain Research, 185, 1–19.
Porkka-Heiskanen, T. (2011). Methylxanthines and sleep. Handbook of Experimental Pharmacology, 200, 331–348.
Presser, H. B. (1995). Job, family, and gender: Determinants of nonstandard work schedules among employed Americans in 1991. Demography, 32, 577–598.
Pressman, M. R. (2007). Disorders of arousal from sleep and violent behavior: The role of physical contact and proximity. Sleep, 30, 1039–1047.
Provini, F., Tinuper, P., Bisulli, F., & Lugaresi, E. (2011). Arousal disorders [Supplemental material]. Sleep Medicine, 12(2 Suppl.), S22–S26.
Rattenborg, N. C., Lesku, J. A., Martinez-Gonzalez, D., & Lima, S. L. (2007). The non-trivial functions of sleep. Sleep Medicine Reviews, 11, 405–409.
Raz, A. (2011). Hypnosis: A twilight zone of the top-down variety: Few have never heard of hypnosis but most know little about the potential of this mind-body regulation technique for advancing science. Trends in Cognitive Sciences, 15, 555–557.
Raz, A., Shapiro, T., Fan, J., & Posner, M. I. (2002). Hypnotic suggestion and the modulation of Stroop interference. Archives of General Psychiatry, 59, 1151–1161.
Reiner, K., Tibi, L., & Lipsitz, J. D. (2013). Do mindfulness-based interventions reduce pain intensity? A critical review of the literature. Pain Medicine, 14, 230–242.
Reinerman, C. (2007, October 14). 5 myths about that demon crack. Washington Post. Retrieved from: http://www.washingtonpost.com/wp-dyn/content/article/2007/10/09/AR2007100900751.html.
Reissig, C. J., Strain, E. C., & Griffiths, R. R. (2009). Caffeinated energy drinks—A growing problem. Drug and Alcohol Dependence, 99, 1–10.
Restless Legs Syndrome Foundation. (n.d.). Restless legs syndrome: Causes, diagnosis, and treatment for the patient living with Restless legs syndrome (RSL). Retrieved from: www.rls.org.
Rial, R. V., Nicolau, M. C., Gamundí, A., Akaârir, M., Aparicio, S., Garau, C., Tejada S., Roca C., Gené L., Moranta D.,Esteban, S. (2007). The trivial function of sleep. Sleep Medicine Reviews, 11, 311–325.
Riemann, D., Berger, M., & Volderholzer, U. (2001). Sleep and depression—Results from psychobiological studies: An overview. Biological Psychology, 57, 67–103.
Robson, P. J. (2014). Therapeutic potential of cannabinoid medicines. Drug Testing and Analysis, 6, 24–30.
Roth, T. (2007). Insomnia: Definition, prevalence, etiology, and consequences [Supplemental material]. Journal of Clinical Sleep Medicine, 3(5 Suppl.), S7–S10.
Rothman, R. B., Blough, B. E., & Baumann, M. H. (2007). Dual dopamine/serotonin releasers as potential medications for stimulant and alcohol addictions. The AAPS Journal, 9, E1–10.
Sánchez-de-la-Torre, M., Campos-Rodriguez, F., & Barbé, F. (2012). Obstructive sleep apnoea and cardiovascular disease. The Lancet Respiratory Medicine, 1, 31–72.
Savard, J., Simard, S., Ivers, H., & Morin, C. M. (2005). Randomized study on the efficacy of cognitive-behavioral therapy for insomnia secondary to breast cancer, part I: Sleep and psychological effects. Journal of Clinical Oncology, 23, 6083–6096.
Schicho, R., & Storr, M. (2014). Cannabis finds its way into treatment of Crohn’s disease. Pharmacology, 93, 1–3.
Shukla, R. K, Crump, J. L., & Chrisco, E. S. (2012). An evolving problem: Methamphetamine production and trafficking in the United States. International Journal of Drug Policy, 23, 426–435.
Siegel, J. M. (2008). Do all animals sleep?. Trends in Neuroscience, 31, 208–213.
Siegel, J. M. (2001). The REM sleep-memory consolidation hypothesis. Science, 294, 1058–1063.
Singh, G. K., & Siahpush, M. (2006). Widening socioeconomic inequalities in US life expectancy, 1980–2000. International Journal of Epidemiology, 35, 969–979.
Smedslund, G., Fisher, K. J., Boles, S. M., & Lichtenstein, E. (2004). The effectiveness of workplace smoking cessation programmes: A meta-analysis of recent studies. Tobacco Control, 13, 197–204.
Sofikitis, N., Giotitsas, N., Tsounapi, P., Baltogiannis, D., Giannakis, D., & Pardalidis, N. (2008). Hormonal regulation of spermatogenesis and spermiogenesis. Journal of Steroid Biochemistry and Molecular Biology, 109, 323–330.
Steriade, M., & Amzica, F. (1998). Slow sleep oscillation, rhythmic K-complexes, and their paroxysmal developments [Supplemental material]. Journal of Sleep Research, 7(1 Suppl.), 30–35.
Stickgold, R. (2005). Sleep-dependent memory consolidation. Nature, 437, 1272–1278.
Stone, K. C., Taylor, D. J., McCrae, C. S., Kalsekar, A., & Lichstein, K. L. (2008). Nonrestorative sleep. Sleep Medicine Reviews, 12, 275–288.
Suchecki, D., Tiba, P. A., & Machado, R. B. (2012). REM sleep rebound as an adaptive response to stressful situations. Frontiers in Neuroscience, 3. doi: 10.3389/fneur.2012.00041.
Task Force on Sudden Infant Death Syndrome. (2011). SIDS and other sleep-related infant deaths: Expansion of recommendations for a safe infant sleeping environment. Pediatrics, 128, 1030–1039.
Taillard, J., Philip, P., Coste, O., Sagaspe, P., & Bioulac, B. (2003). The circadian and homeostatic modulation of sleep pressure during wakefulness differs between morning and evening chronotypes. Journal of Sleep Research, 12, 275–282.
Thach, B. T. (2005). The role of respiratory control disorders in SIDS. Respiratory Physiology & Neurobiology, 149, 343–353.
U.S. Food and Drug Administration. (2013, October 24). Statement on Proposed Hydrocodone Reclassification from Janet Woodcock, M.D., Director, Center for Drug Evaluation and Research. Retrieved from: http://www.fda.gov/drugs/drugsafety/ucm372089.htm.
Vogel, G. W. (1975). A review of REM sleep deprivation. Archives of General Psychiatry, 32, 749–761.
Vøllestad, J., Nielsen, M. B., & Nielsen, G. H. (2012). Mindfulness- and acceptance-based interventions for anxiety disorders: A systematic review and meta-analysis. The British Journal of Clinical Psychology, 51, 239–260.
Wagner, U., Gais, S., & Born, J. (2001). Emotional memory formation is enhanced across sleep intervals with high amounts of rapid eye movement sleep. Learning & Memory, 8, 112–119.
Wagner, U., Gais, S., Haider, H., Verleger, R., & Born, J. (2004). Sleep improves insight. Nature, 427, 352–355.
Walker, M. P. (2009). The role of sleep in cognition and emotion. Annals of the New York Academy of Sciences, 1156, 168–197.
Wark, D. M. (2011). Traditional and alert hypnosis for education: A literature review. The American Journal of Clinical Hypnosis, 54(2), 96–106.
Waterhouse, J., Fukuda, Y., & Morita, T. (2012). Daily rhythms of the sleep-wake cycle [Special issue]. Journal of Physiological Anthropology, 31(5). doi:10.1186/1880-6805-31-5.
Welsh, D. K. Takahashi, J. S., & Kay, S. A. (2010). Suprachiasmatic nucleus: Cell autonomy and network properties. Annual Review of Physiology, 72, 551–577.
West, S., Boughton, M., & Byrnes, M. (2009). Juggling multiple temporalities: The shift work story of mid-life nurses. Journal of Nursing Management, 17, 110–119.
White, D. P. (2005). Pathogenesis of obstructive and central sleep apnea. American Journal of Respiratory and Critical Care Medicine, 172, 1363–1370.
Williams, J., Roth, A., Vatthauer, K., & McCrae, C. S. (2013). Cognitive behavioral treatment of insomnia. Chest, 143, 554–565.
Williamson, A. M., & Feyer, A. M. (2000). Moderate sleep deprivation produces impairments in cognitive and motor performance equivalent to legally prescribed levels of alcohol intoxication. Occupational and Environmental Medicine, 57, 649–655.
Wolt, B. J., Ganetsky, M., & Babu, K. M. (2012). Toxicity of energy drinks. Current Opinion in Pediatrics, 24, 243–251.
Zangini, S., Calandra-Buonaura, G., Grimaldi, D., & Cortelli, P. (2011). REM behaviour disorder and neurodegenerative diseases [Supplemental material]. Sleep Medicine, 12(2 Suppl.), S54–S58.
Zeidan, F., Grant, J. A., Brown, C. A., McHaffie, J. G., & Coghill, R. C. (2012). Mindfulness meditation-related pain relief: Evidence for unique brain mechanisms in the regulation of pain. Neuroscience Letters, 520, 165–173. |
# Stany świadomości
## Czym jest świadomość?
Świadomość (ang. ) to stan psychiczny, w którym jednostka zdaje sobie sprawę z oddziałujących na nią bodźców wewnętrznych i zewnętrznych. Bodźce wewnętrzne to np. ból, głód, pragnienie, senność, a także myśli i emocje. Natomiast świadomość bodźców zewnętrznych dotyczy m.in. dostrzegania światła słonecznego, odczuwania temperatury w pomieszczeniu czy też słyszenia głosu przyjaciela.
Na co dzień doświadczamy różnych stanów świadomości oraz różnych stopni przytomności umysłu. Można nawet pokusić się o opisanie świadomości jako kontinuum przechodzenia od stanu pełnej świadomości do głębokiego snu. Sen (ang. ) to stan charakteryzujący się relatywnie niskim poziomem aktywności oraz obniżoną świadomością sensoryczną, odmienny od stanu relaksu, który występuje podczas czuwania. Czuwanie (ang. ) charakteryzuje się wysokim poziomem świadomości sensorycznej, obecnością myśli oraz zachowań. Pomiędzy tymi dwiema skrajnościami znajdują się takie stany świadomości, jak sen na jawie, odurzenie alkoholem lub narkotykami, medytacja czy hipnoza, a także odmienne stany świadomości wynikające z deprywacji snu. Doświadczać możemy również stanów nieświadomości, np. wynikających z podania anestetyków w celach medycznych. Nawet obudzeni i przytomni często nie jesteśmy w pełni świadomi otoczenia. Przykładowo: czy zdarzyło ci się zamyślić podczas powrotu samochodem z pracy lub szkoły do domu i de facto nie myśleć w ogóle o kierowaniu pojazdem? Można zaangażować się w złożony proces obsługiwania pojazdu mechanicznego i wcale nie być tego świadomym. Wszystkie wspomniane procesy, podobnie jak większość zachowań psychologicznych, mają podłoże biologiczne.
### Rytmy biologiczne
Rytm biologiczny (ang. ) to wewnętrzny cykl procesów życiowych. Cykl menstruacyjny to przykład rytmu biologicznego – powtarzający się, okresowy schemat zmian w ciele. Pełen cykl menstruacyjny trwa ok. 28 dni, czyli miesiąc księżycowy, choć większość cyklów jest znacznie krótsza. Innym przykładem cyklu jest dobowa zmiana temperatury ciała (). Stan czuwania powiązany jest z wyższą temperaturą ciała niż sen.
Ten zachodzący codziennie schemat zmian temperatury jest jednym z przykładów rytmu okołodobowego. Rytm okołodobowy (in. rytm dobowy, cykl dobowy) (ang. ) to cykl procesów życiowych zachodzący w czasie dwudziestu czterech godzin. Cykl snu i czuwania, powiązany z naturalnym cyklem światła i ciemności na naszej planecie, jest prawdopodobnie najbardziej oczywistym przykładem rytmu dobowego. Fluktuacjom podlegają również tętno, ciśnienie krwi czy stężenie cukru we krwi. Niektóre z cyklów dobowych mają wpływ na zmiany stanów świadomości.
Jeśli procesy życiowe są cykliczne, czy istnieje coś takiego jak zegar biologiczny (ang. )? Zegar biologiczny zlokalizowany jest w obszarze podwzgórza zwanym jądrem nadskrzyżowaniowym (ang. ). Jądro nadskrzyżowaniowe przetwarza informacje odbierane przez światłoczułe neurony, których zakończenia (aksony) znajdują się w siatkówce naszego oka. Sygnałem tym jest dostępność światła, która umożliwia zsynchronizowanie wewnętrznego zegara ze światem zewnętrznym (Klein et al., 1991; Welsh et al., 2010) ().
Ważnym mechanizmem związanym z pracą zegara biologicznego jest zachowanie homeostazy. Homeostaza (ang. ) to zdolność do utrzymywania równowagi w organizmie. Dzięki mechanizmom homeostazy organizm jest w stanie sam regulować wiele zachodzących w nim procesów biologicznych, jak regulacja temperatury czy ciśnienia krwi. To właśnie za sprawą tych mechanizmów czując głód, dążymy do jego zaspokojenia.
Głównym ośrodkiem w mózgu odpowiedzialnym za utrzymywanie homeostazy jest umiejscowione nad przysadką mózgową podwzgórze.
### Problemy z rytmami okołodobowymi
U większości osób rytm okołodobowy skorelowany jest ze światem zewnętrznym. Ludzie zwykle sypiają w nocy i czuwają w ciągu dnia. Ważnym regulatorem cyklu snu i czuwania jest hormon zwany melatoniną (ang. ). Uważa się, że szyszynka – znajdujący się wewnątrz mózgu gruczoł wydzielający melatoninę – zaangażowana jest w regulację różnych cyklów życiowych oraz pracę układu odpornościowego podczas snu (Hardeland et al., 2006). Melatonina wydzielana jest pod wpływem ciemności, natomiast światło hamuje jej uwalnianie.
W cyklach snu i czuwania istnieją indywidualne różnice pomiędzy jednostkami. Niektóre osoby twierdzą, że są tak zwanymi rannymi ptaszkami, inne zaś uważają się za nocne marki. Te osobnicze różnice w dobowych rytmach aktywności nazywane są chronotypem, a badania potwierdzają istnienie różnic w regulacji snu u tzw. skowronków (rannych ptaszków) i sów (nocnych marków) (Taillard et al., 2003). Regulacja snu (ang. ) to kontrolowanie przez mózg procesu przełączania się pomiędzy okresami snu i czuwania, jak również synchronizowanie tego cyklu ze światem zewnętrznym.
### Zaburzenia snu
Bez względu na to, czy ktoś jest skowronkiem, sową, czy kimś pomiędzy nimi, są sytuacje, w których zegar biologiczny tej osoby przestaje funkcjonować zgodnie ze środowiskiem zewnętrznym. Jednym z powodów może być przemieszczanie się między strefami czasowymi, co skutkuje zwykle zespołem nagłej zmiany strefy czasowej, popularnie zwanym jet lagiem. Zespół nagłej zmiany strefy czasowej (ang. ) to zestaw objawów występujących w wyniku niedopasowania wewnętrznego rytmu okołodobowego i środowiska. Najważniejsze symptomy zespołu nagłej zmiany strefy czasowej to zmęczenie, wyczerpanie, złe samopoczucie, irytacja oraz bezsenność (ang. ) (czyli trwała trudność w zasypianiu lub utrzymywaniu stanu snu przez przynajmniej trzy noce w tygodniu w ciągu jednego miesiąca) (Roth, 2007).
Osoby, które pracują w trybie zmianowym, również są podatne na zaburzenia rytmu okołodobowego. Praca w systemie zmianowym (ang. ) to taki rodzaj pracy, w którym osoba pracuje na zmianę wcześnie rano lub późno w nocy. Na przykład w poniedziałek praca zaczyna się o 7:00 i trwa do 15:00, we wtorek osoba pracuje od 3:00 rano do 11:00, a we środę od 11:00 do 19:00. W takich przypadkach schemat godzin pracy zmienia się tak często, że niemożliwe staje się utrzymanie normalnego rytmu okołodobowego. Nierzadko powoduje to zaburzenia snu oraz prowadzi do wystąpienia symptomów depresji lub niepokoju. Praca w trybie zmianowym typowa jest dla służby zdrowia i sektora produkcji i usług, a pracownicy, którym towarzyszy uczucie wycieńczenia i pobudzenia, stają się bardziej podatni na popełnianie błędów w trakcie wykonywania zadań (Gold et al., 1992; Presser, 1995).
Ponadto praca zmianowa może wpływać na stosunki społeczne, w tym relacje z najbliższymi, co pokazują badania jakościowe pielęgniarek w średnim wieku, przeprowadzone w celu zestawienia doświadczeń osób pracujących w systemie rotacyjnej pracy zmianowej (West et al., 2009). Kilkanaście pielęgniarek potwierdziło, że godziny ich pracy wpłynęły na relacje z członkami rodziny. Jedna z nich powiedziała:
Zakłócenia rytmu dobowego mogą mieć negatywne konsekwencje, na szczęście istnieją sposoby na ponowne dostrojenie zegara biologicznego do środowiska zewnętrznego. Niektóre z tych sposobów, na przykład wykorzystanie jasnego światła, takiego jak na , zmniejszają problemy związane z jet lagiem lub rotacyjną pracą zmianową. Ponieważ zegar biologiczny jest regulowany światłem, ekspozycja na jasne światło podczas pracy zmianowej oraz przebywanie w ciemnościach w czasie przerw pomagają w zwalczaniu bezsenności oraz objawów niepokoju i depresji (Huang et al. 2013).
### Niedostateczna ilość snu
Niedostateczna ilość snu spowodowana pracą lub wymogami dnia codziennego prowadzi do skumulowanego efektu niedoboru snu (ang. ). Skutkuje to obniżonym poziomem koncentracji i mentalnej produktywności. Interesujące jest to, że od momentu wynalezienia światła elektrycznego liczba przesypianych przez ludzi godzin znacznie się zmniejszyła. Oczywiście, wygodnie jest móc rozjaśniać naturalną ciemność, lecz dobroczynna elektryczność powoduje również, że cierpimy z powodu niedostatecznej ilości snu, ponieważ jesteśmy bardziej aktywni w nocy niż nasi przodkowie. W rezultacie wielu z nas śpi w nocy mniej niż 7–8 godzin i doświadcza chronicznego niedoboru snu. Istnieją ogromne różnice w zapotrzebowaniu na sen, niemniej według największą potrzebę snu mają noworodki (12 –18 godzin dziennie), zaś u dorosłych ten przedział wynosi od 7 do 9 godzin.
Jeśli kładziesz się na krótką drzemkę i natychmiast zasypiasz, z dużym prawdopodobieństwem można powiedzieć, że masz niedobór snu. Według dostępnych badań studenci to grupa, która nagminnie doświadcza skumulowanego efektu niedoboru snu (Hicks et al., 2001; Hicks et al., 1992; Miller et al., 2010), stąd ty i twoi koledzy oraz koleżanki prawdopodobnie na co dzień musicie sobie radzić z tego rodzaju deficytem. W 2015 roku National Sleep Foundation zaktualizowała dane dotyczące liczby godzin snu tak, by lepiej odzwierciedlały indywidualne różnice. Te nowe zalecenia dla danego wieku pokazuje .
Skumulowany efekt niedoboru snu oraz deprywacja snu niosą ze sobą ogromne negatywne konsekwencje psychologiczne i fizjologiczne (). Jak powiedziano już wcześniej, brak snu powoduje spadek koncentracji oraz pogorszenie funkcji poznawczych. Dodatkowo skutkiem deprywacji snu są objawy podobne do depresji. Wspomniane dolegliwości mogą wystąpić zarówno w wyniku skumulowanego niedoboru snu, jak i w odpowiedzi na poważniejsze okresy deprywacji snu. Może cię to zdziwi, ale deprywacja snu zwiększa ryzyko otyłości, zwiększonego ciśnienia krwi i poziomu hormonów stresu oraz pogorszenia funkcjonowania układu odpornościowego (Banks i Dinges, 2007). Człowiek z niedoborem snu zwykle zasypia znacznie szybciej niż osoba bez niedoboru. Często zasypia natychmiast, gdy tylko przestanie się ruszać (na przykład przed telewizorem lub za kierownicą samochodu). Dlatego właśnie osoby cierpiące z powodu deprywacji snu stanowią zagrożenie dla siebie i innych, siadając za kółkiem lub pracując przy obsłudze niebezpiecznych maszyn. Według niektórych badań deprywacja snu wpływa na funkcje poznawcze i motoryczne tak samo albo nawet silniej niż odurzenie alkoholem (Williamson i Feyer, 2000).
Zapotrzebowanie na sen zmienia się wraz z wiekiem. Jako małe dzieci śpimy ponad 16 godzin dziennie. Im starsi jesteśmy, tym mniej śpimy. Według pewnej metaanalizy (ang. ) (czyli badania polegającego na zestawieniu danych zawartych w wielu publikacjach) wykonanej w ostatnim dziesięcioleciu, w wieku 65 lat śpimy średnio mniej niż 7 godzin dziennie (Ohayon et al., 2004). Skoro ilość czasu poświęcanego na sen zmienia się wraz z wiekiem, prawdopodobnie podobnym zmianom będzie podlegał skumulowany efekt niedoboru snu.
### Podsumowanie
Stany świadomości zmieniają się nie tylko w ciągu dnia, lecz także nieustannie przez całe nasze życie. Ważnymi czynnikami tych zmian są rytmy biologiczne, a przede wszystkim rytm okołodobowy regulowany przez jądro nadskrzyżowaniowe (SCN). Zegar biologiczny człowieka na ogół zsynchronizowany jest ze środowiskiem zewnętrznym, a światło jest rodzajem wskazówki pozwalającej go odpowiednio ustawić. Podróże wiążące się z pokonywaniem wielu stref czasowych lub rotacyjna praca zmianowa prowadzą do zaburzenia rytmu okołodobowego, co może powodować bezsenność, nadmierną senność oraz zmniejszoną uważność. W zaburzeniach rytmu okołodobowego skuteczna okazuje się terapia jasnym światłem. Osoby, które nie dostarczają sobie odpowiedniej ilości snu, mogą odczuwać z tego powodu negatywne skutki psychologiczne i fizyczne.
### Review Questions
### Critical Thinking Questions
### Personal Application Questions
|
# Stany świadomości
## Rola snu
Przesypiamy mniej więcej jedną trzecią życia. Wziąwszy pod uwagę, że średnia długość życia mieszkańca Stanów Zjednoczonych wynosi od 73 do 79 lat (Singh i Siahpush, 2006), to w stanie snu spędza on mniej więcej 25 lat. Podobne statystyki dotyczą również Polski, gdzie przeciętna długość życia mężczyzn wynosi ok. 74 lat, a w przypadku kobiet 82 lata (GUS 2018). Niektóre zwierzęta w ogóle nie śpią (kilka gatunków ryb oraz płazów), u innych, na przykład żyraf, obserwuje się długie okresy bez snu i bez wyraźnych negatywnych tego konsekwencji, a jeszcze inne, takie jak szczury, umierają po dwóch tygodniach deprywacji snu (Siegel, 2008). Dlaczego poświęcamy tak dużo czasu na sen? Czy jest dla nas koniecznością? W tym podrozdziale zastanowimy się nad odpowiedziami na te pytania i przedstawimy różne koncepcje dotyczące powodów występowania snu u ludzi.
### Czym jest sen?
Wiesz już, że stan snu charakteryzuje się niskim poziomem aktywności fizycznej i ograniczoną świadomością bodźców zmysłowych. Według Siegla (2008) definicja snu musi zawierać również wzmiankę na temat zależności mechanizmów okołodobowych oraz homeostatycznych regulujących sen. Homeostatyczną regulację snu potwierdza występowanie okresów odsypiania po deprywacji snu. Nadrabianie snu REM (ang. ) polega na tym, że przy kolejnej okazji do zaśnięcia osoba z deprywacją snu zasypia szybciej. Sen charakteryzuje się określonymi schematami aktywności mózgu, które można przedstawić graficznie za pomocą elektroencefalografii (EEG), a różne fazy snu rozróżniamy właśnie dzięki tej technice ().
Cykle snu i czuwania są kontrolowane przez wiele współpracujących ze sobą obszarów mózgu, m.in. wzgórze, podwzgórze oraz most. Jak już wspomniano, częścią podwzgórza jest jądro nadskrzyżowaniowe (SCN) – „zegar biologiczny” ciała – oraz inne jądra, które w połączeniu ze wzgórzem regulują sen wolnofalowy. Most odgrywa ważną rolę w regulacji fazy snu zwanej REM - o której będzie mowa w dalszych rozdziałach (National Institutes of Health, b.d.).
Sen jest również ważny z punktu widzenia gospodarki hormonalnej. Kiedy śpimy, następuje regulacja wydzielania hormonów z wielu gruczołów dokrewnych, m.in. melatoniny, folikulotropiny (hormonu folikulotropowego, FSH) stymulującej dojrzewanie pęcherzyków jajnikowych, lutropiny (hormonu luteinizującego, LH) oraz hormonu wzrostu (National Institutes of Health, b.d.). Wiesz już, że podczas snu szyszynka wydziela melatoninę (). Uważa się, że melatonina odgrywa istotną rolę w regulacji różnych cyklów biologicznych oraz układu odpornościowego (Hardeland et al., 2006). Podczas snu przysadka mózgowa wydziela zarówno FSH, jak i LH, hormony istotne dla właściwego funkcjonowania układu rozrodczego (Christensen et al., 2012; Sofikitis et al., 2008), oraz hormon wzrostu pobudzający fizyczny wzrost, dojrzewanie organizmu i inne procesy metaboliczne (Bartke et al., 2013).
### Dlaczego śpimy?
Wiemy już, że sen odgrywa ważną rolę w życiu człowieka, a deprywacja snu wiąże się z licznymi niekorzystnymi konsekwencjami. Wydawałoby się zatem, że powinniśmy w pełni rozumieć, dlaczego właściwie śpimy. Niestety, tak nie jest. Na szczęście dysponujemy kilkoma hipotezami starającymi się wyjaśnić funkcję snu u ludzi.
### Adaptacyjna funkcja snu
Jedna z popularnych teorii dotyczących funkcji snu przyjmuje perspektywę psychologii ewolucyjnej. Psychologia ewolucyjna (ang. ) to dyscyplina nauki, która bada, w jaki sposób uniwersalne wzorce zachowań oraz procesy poznawcze ewoluowały w wyniku doboru naturalnego (ang. ). Zróżnicowanie oraz umiejętności adaptacyjne w zakresie procesów poznawczych i zachowania wpływają na sukces w reprodukcji i przekazywaniu informacji genetycznych potomstwu.
Według jednej z hipotez ewolucyjnych celem snu jest przede wszystkim odzyskanie zasobów zużytych w ciągu dnia. Podobnie jak sen zimowy u niedźwiedzi, który służy przetrwaniu w okresie niedoboru zasobów w środowisku, nocny sen ludzi może być spowodowany koniecznością zmniejszenia nakładów energetycznych. Jest to nieco intuicyjne wyjaśnienie zjawiska zapadania w sen, gdyż istnieje mało badań je potwierdzających. Konkurencyjna hipoteza sugeruje, że tego rodzaju energetyczne potrzeby można by z łatwością zaspokajać, stosując okresy odpoczynku i braku aktywności (Frank, 2006; Rial et al., 2007). Z innych badań natomiast wyłania się negatywna korelacja między wymaganiami energetycznymi a ilością czasu spędzoną na spaniu (Capellini et al., 2008).
Jeszcze inna ewolucyjna hipoteza dotycząca snu zakłada, że nawyki spania wyewoluowały jako adaptacyjna reakcja na zagrożenie drapieżnikami, które wzrasta w nocy. Zatem śpimy w bezpiecznych miejscach, by zmniejszyć prawdopodobieństwo niebezpieczeństwa. I znów jest to dość intuicyjne, choć interesujące wyjaśnienie powodów, dla których śpimy. Być może nasi przodkowie spędzali długie godziny pogrążeni we śnie, aby ograniczyć czas wystawiania się na ataki potencjalnych drapieżników. Jednakże badania porównawcze pokazują, że powiązania między ryzykiem ataku drapieżników a snem są niezwykle złożone i niejednoznaczne. Niektóre prace sugerują, że gatunki bardziej zagrożone atakiem drapieżników śpią krócej niż inne gatunki (Capellini et al., 2008), natomiast według innych nie ma żadnej zależności między czasem, w którym osobnik danego gatunku głęboko śpi, a ryzykiem ze strony drapieżników (Lesku et al., 2006). Możliwe zatem, że sen nie pełni jednej, uniwersalnej funkcji adaptacyjnej, a u różnych gatunków wyewoluowały różne nawyki snu w reakcji na zróżnicowaną presję ewolucyjną.
Omawialiśmy już negatywne skutki deprywacji snu, warto zatem również wspomnieć o wielu korzyściach związanych z odpowiednią ilością snu. Według National Sleep Foundation są to m.in.: utrzymywanie zdrowej masy ciała, zmniejszenie poziomu stresu, poprawa nastroju czy koordynacji motorycznej oraz wiele korzyści powiązanych z funkcjami poznawczymi i tworzeniem wspomnień.
### Poznawcza funkcja snu
Istnieje również hipoteza, według której sen ma ogromne znaczenie dla funkcji poznawczych i tworzenia wspomnień (Rattenborg et al., 2007). Wiemy, że deprywacja snu wpływa negatywnie na procesy poznawcze oraz wywołuje deficyty pamięci (Brown, 2012), obniża zdolność koncentracji uwagi, podejmowania decyzji oraz korzystania ze wspomnień w pamięci długotrwałej. Ponadto te negatywne skutki pogłębiają się wraz ze zwiększaniem deprywacji snu (Alhola i Polo-Kantola, 2007). Dodatkowo sen wolnofalowy po nauczeniu się nowej umiejętności może poprawić skuteczność wykorzystania jej w praktyce (Huber et al., 2004) i wydaje się konieczny do tworzenia wspomnień (Stickgold, 2005). Zrozumienie wpływu snu na funkcje poznawcze wyjaśnia, dlaczego zakuwanie przez całą noc do testu może wcale nie być skuteczne, a nawet przynieść skutek przeciwny do zamierzonego.
Mówi się również o tym, że sen przynosi wiele innych korzyści poznawczych. Badania wskazują m.in. na pozytywny wpływ snu na zwiększenie zdolności kreatywnego myślenia (Cai et al., 2009; Wagner et al., 2004), nauki języków (Fenn et al., 2003; Gómez et al., 2006) i wnioskowania dedukcyjnego (Ellenbogen et al., 2007). Pewne aspekty snu prawdopodobnie mają też wpływ nawet na przetwarzanie informacji emocjonalnych (Walker, 2009).
### Summary
Sporą część naszego życia poświęcamy na sen, a w naszych mózgach rozwinęły się złożone układy kontrolujące różne jego aspekty. Podczas snu wydzielanych jest kilka hormonów ważnych z punktu widzenia procesów wzrostu oraz dojrzewania. Choć powód, dla którego śpimy, nadal pozostaje tajemnicą, niektóre badania sugerują, że sen odgrywa istotną rolę w uczeniu się i zapamiętywaniu.
### Review Questions
### Critical Thinking Questions
### Personal Application Question
|
# Stany świadomości
## Fazy snu
Sen nie jest stanem jednorodnym. Wyróżnia się kilka jego etapów, które można rozróżnić dzięki odmiennym wzorcom aktywności elektrycznej mózgu. Wzorce te można przedstawić graficznie dzięki elektroencefalografii. Fale różnią się zarówno częstotliwością, jak i amplitudą (). Sen człowieka można podzielić na dwa główne etapy: fazę z szybkimi ruchami gałek ocznych (REM) oraz bez szybkich ruchów gałek ocznych (NREM). Sen paradoksalny (in. faza REM) (ang. ) charakteryzują błyskawiczne ruchy gałek ocznych pod zamkniętymi powiekami. Fale mózgowe w tym stadium przypominają fale mózgowe podczas czuwania. Natomiast sen wolnofalowy (ang. ) składa się czterech faz, które od siebie i od stanu czuwania różnią się wykresami bioelektrycznej aktywności mózgu. Pierwsze cztery fazy snu to etap NREM, natomiast faza piąta i ostatnia to REM. W tym podrozdziale opiszemy każdą z tych faz snu oraz charakterystyczne dla niej wzorce fal aktywności elektrycznej mózgu.
### Fazy snu NREM
Początkowa faza snu NREM znana jest jako pierwsza faza snu. Pierwsza faza snu (ang. ) jest etapem przejściowym między czuwaniem a snem, gdy powoli zasypiamy. W tej fazie następuje spowolnienie tętna i oddechu. W tej fazie pojawiają się zarówno fale alfa, jak i theta. W początkowym momencie pierwszej fazy snu występują fale alfa (ang. ) (). Ten wzorzec aktywności elektrycznej mózgu przypomina pracę mózgu kogoś, kto jest niezwykle rozluźniony, nie mniej jednak świadomy. Im dłużej osoba trwa w pierwszej fazie snu, tym bardziej zwiększa się częstotliwość występowania fal theta (ang. ). Mają one jeszcze niższą częstotliwość (4–7 Hz) i wyższą amplitudę niż fale alfa. Dość ławo jest obudzić osobę z pierwszej fazy snu – większość ludzi obudzona w tej fazie odpowiada, że wcale nie spała.
Przechodząc do drugiej fazy snu (ang. ), ciało wchodzi w stan głębokiego rozluźnienia. Wciąż dominują tu fale theta, ale przerywane są krótkimi wybuchami czynności elektrycznej mózgu, zwanymi wrzecionami sennymi (). Wrzeciono snu (ang. ) to szybka eksplozja fal mózgowych o wyższej częstotliwości, które prawdopodobnie są istotne dla uczenia się i zapamiętywania (Fogel i Smith, 2011; Poe et al., 2010). Dodatkowo cechą charakterystyczną drugiej fazy snu jest występowanie zespołów K. Zespół K (ang. ) to pojedyncza fala o bardzo wysokiej amplitudzie, która w pewnych przypadkach może występować jako reakcja na bodźce pochodzące ze środowiska zewnętrznego. Zatem zespoły K mogą stanowić most do wyższych poziomów pobudzenia związanych z bodźcami ze środowiska zewnętrznego (Halász, 1993; Steriade i Amzica, 1998).
Trzecią fazę snu (ang. ) i czwartą fazę snu (ang. ) często określa się mianem snu głębokiego lub wolnofalowego, ponieważ charakteryzują się występowaniem fal o niskiej częstotliwości (do 4 Hz) i wysokiej amplitudzie – fal delta (ang. ) (). W tym czasie tętno i częstotliwość oddechu znacznie spadają. Znacznie trudniej jest obudzić osobę, która znajduje się w trzeciej lub czwartej fazie snu niż będącą w fazach wcześniejszych. Interesujące, że badani, którzy w trzeciej i czwartej fazie snu mają podwyższoną częstotliwość występowania fal alfa (zwykle kojarzonych raczej z czuwaniem i pierwszą fazą snu), po przebudzeniu – bez względu na to, jak długo spali – twierdzą, że wcale nie czują się wypoczęci (Stone et al., 2008).
### Sen REM
Jak już wspominaliśmy, sen REM to faza snu charakteryzująca się szybkimi ruchami gałek ocznych. Pojawiające się w tej fazie fale mózgowe podobne są do tych obserwowanych u osób w stanie czuwania, co widać na . To podczas niej śnimy. Cechą charakterystyczną tej fazy jest również paraliż układu mięśniowego, z wyjątkiem tych jego partii, które są odpowiedzialne za krążenie i oddychanie. Zatem podczas snu REM u zdrowego człowieka nie obserwuje się żadnych ruchów mięśni zależnych od woli. Należy jednak pamiętać, że podczas tej fazy snu utrzymywane są inne procesy życiowe niewymagające zaangażowania świadomości. Tę fazę snu nazywa się również snem paradoksalnym ze względu na wysoką aktywność mózgu przy jednoczesnym braku napięcia mięśniowego. Podobnie jak NREM, sen REM ważny jest z punktu widzenia różnych aspektów uczenia się i zapamiętywania (Siegel, 2001).
Ludzie pozbawieni możliwości snu REM, którym następnie pozwala się spać bez dalszych zakłóceń, spędzają więcej czasu w fazie REM, co przypomina próbę odzyskania straconego czasu REM. Dotyczy to zarówno sytuacji, w której dochodzi do deprywacji snu, jak również zakłóceń w ramach samej fazy REM. Zjawisko to nosi nazwę nadrabiania fazy snu REM i wydaje się wskazywać na to, że również sen REM podlega regulacji homeostatycznej. Niezależnie od roli w procesach związanych z uczeniem się oraz zapamiętywaniem sen REM prawdopodobnie pełni także ważną funkcję w przetwarzaniu emocji i ich regulacji. Z tego punktu widzenia sen REM może być adaptacyjną reakcją na stres u osób niecierpiących na depresję, zmniejszając emocjonalną wagę przykrych i nieprzyjemnych wydarzeń, które występują w okresach czuwania (Suchecki et al., 2012).
Podczas gdy deprywacja snu zasadniczo przynosi wiele negatywnych konsekwencji (Brown, 2012), skutki deprywacji REM wydają się nieco mniej jednoznaczne (Siegel, 2001). Niektórzy uważają nawet, że deprywacja REM w niektórych sytuacjach może być korzystna. Jak pokazują wybrane badania, osoby cierpiące na depresję wcześniej wchodzą w tę fazę snu i znacznie dłużej w niej pozostają. Uważa się zatem, że jej skrócenie może korzystnie wpływać na ich stany emocjonalne. Udowodniono na przykład, że skrócenie fazy REM przynosi złagodzenie objawów u osób z ciężką depresją; wiele skutecznych leków antydepresyjnych wygasza tę fazę (Riemann et al., 2001; Vogel, 1975).
Należy jednak wspomnieć o badaczach, którzy kwestionują powyższe odkrycia, sugerując, że deprywacja snu nieograniczona do fazy REM jest tak samo skuteczna, a nawet skuteczniejsza w wyciszaniu symptomów depresji u niektórych pacjentów. W każdym razie nie do końca rozumiemy jeszcze, dlaczego u niektórych pacjentów deprywacja snu sprzyja poprawie nastroju (Giedke i Schwärzler, 2002). Według ostatnich odkryć może ona zmieniać przetwarzanie informacji emocjonalnych w taki sposób, że różnego rodzaju bodźce jawią się jako pozytywne (Gujar et al., 2011). Poniższy hipnogram () pokazuje przechodzenie konkretnej osoby przez fazy snu.
### Marzenia senne
Znaczenie nadawane marzeniom sennym zależy od kultury i od czasów. Pod koniec XIX wieku austriacki psychiatra Zygmunt Freud (1856-1939) doszedł do wniosku, że dzięki snom można zyskać dostęp do nieświadomości. Jego zdaniem analiza marzeń sennych mogłaby pomóc ludziom zwiększyć samoświadomość oraz uzyskać rozeznanie potrzebne w radzeniu sobie z problemami codziennego życia. Freud dokonał rozróżnienia na jawną i utajoną treść snów. Treść jawna (ang. ) to rzeczywista treść snu, natomiast treść utajona (lub treść ukryta) (ang. ) to jego zamaskowane znaczenie. Przykładowo zgodnie z koncepcją Freuda kobieta, która śni o tym, że goni ją wąż, ujawnia lęk przed fizyczną bliskością, gdyż wąż w tej teorii reprezentowałby penisa.
Freud nie był jedynym teoretykiem zajmującym się snami. Dwudziestowieczny szwajcarski psychoterapeuta Carl Gustav Jung (1875–1961) w swoim podejściu uwzględnił szerszą gamę zjawisk, opartych nie tylko na indywidualnych doświadczeniach, lecz także na tych o charakterze społecznym. Uważał, że marzenia senne pozwalają dostroić się do nieświadomości zbiorowej. Opisywana przez Junga nieświadomość zbiorowa (ang. ) to teoretyczna skarbnica informacji dzielonych przez wszystkich ludzi. Według niego określone symbole występujące w snach odzwierciedlają uniwersalne wzorce, inaczej archetypy, o znaczeniu podobnym dla wszystkich ludzi bez względu na kulturę i miejsce zamieszkania.
Natomiast badaczka snu i marzeń sennych Rosalind Cartwright (ur. 1922) uważa sny za odzwierciedlenie wydarzeń ważnych z perspektywy życia śpiącej osoby. W odróżnieniu od idei Freuda i Junga jej koncepcje dotyczące snów znalazły swoje potwierdzenie w dowodach empirycznych. Wraz z kolegami opublikowała wyniki badania, w którym kobiety w trakcie procesu rozwodowego kilkukrotnie w okresie pięciu miesięcy proszono o opisywanie stopnia, w jakim myślały o byłych małżonkach. Te same kobiety budzono w fazie snu REM w celu szczegółowego zrelacjonowania treści snów. Występowała znacząca pozytywna korelacja między częstotliwością myśli o byłych partnerach na jawie i liczbą przypadków, kiedy pojawiali się jako bohaterowie ich snów (Cartwright et al., 2006). Badania (Horikawa et al., 2013) ujawniły nowe techniki, dzięki którym naukowcy mogą skutecznie wykrywać i klasyfikować obrazy wizualne podczas snów z wykorzystaniem fMRI, czyli funkcjonalnego obrazowania metodą rezonansu magnetycznego, by mierzyć neuronalną aktywność mózgu. Dzięki temu w tym obszarze pojawiają się nowe możliwości prowadzenia badań.
Naukowcy poszukują również powodów, dla których śnimy. Według Hobsona (2009) śnienie może reprezentować stan protoświadomości. Pośród wielu dowodów neurobiologicznych John Hobson cytuje też badania dotyczące świadomego śnienia i traktuje je jako szansę na lepsze zrozumienie marzeń sennych. Świadomy sen (przytomny sen) (ang. ) to stan śnienia, w którym są obecne pewne aspekty stanu czuwania. W świadomym śnie osoba uświadamia sobie, że śni, i dzięki temu może kontrolować jego przebieg (LaBerge, 1990).
### Summary
Różne fazy snu charakteryzują się aktywnością mózgu o różnych wzorcach fal mózgowych. Gdy przechodzimy ze stanu czuwania w stan snu, fale alfa zastępowane są falami theta. W drugiej fazie snu pojawiają się wrzeciona senne i zespoły K. Trzecia i czwarta faza snu to tak zwany sen długofalowy, charakteryzujący się przewagą fal delta. Podczas fazy REM, czyli snu z szybkimi ruchami gałek ocznych, następuje paraliż mięśni zależnych od woli i pojawiają się marzenia senne. Zarówno sen NREM, jak i REM wydają się odgrywać ważną rolę w uczeniu się i zapamiętywaniu. Marzenia senne mogą odzwierciedlać ważne z punktu widzenia osoby śniącej wydarzenia z dnia codziennego. Według innej teorii śnienie jest stanem protoświadomości lub rzeczywistości wirtualnej umysłu, która staje się pomocna, gdy znajdujemy się w stanie czuwania.
### Review Questions
### Critical Thinking Questions
### Personal Application Question
|
# Stany świadomości
## Zaburzenia snu
Wiele osób prędzej czy później doświadcza kłopotów ze snem. W zależności od populacji i zaburzeń, które są badane, w jakimś okresie życia cierpi na nie od 30% do 50% osób (Bixler et al., 1979; Hossain i Shapiro, 2002; Ohayon, 1997, 2002; Ohayon i Roth, 2002). W tym podrozdziale opiszemy kilka zaburzeń z obszaru snu oraz niektóre z możliwych metod ich leczenia.
### Bezsenność
Bezsenność, czyli przewlekła trudność w zasypianiu lub utrzymaniu snu, jest najczęściej występującym zaburzeniem snu. U osób cierpiących na tę przypadłość między położeniem się do łóżka a faktycznym zaśnięciem mija zwykle dużo czasu. Ponadto w nocy budzą się od kilku do kilkunastu razy i znów mają kłopoty z zaśnięciem. Jak już wspominaliśmy, jednym z kryteriów bezsenności jest doświadczanie tych objawów co najmniej przez trzy noce w tygodniu w ciągu jednego miesiąca (Roth, 2007).
Zazwyczaj osoby cierpiące na bezsenność doświadczają również zwiększonego niepokoju związanego z niemożnością zaśnięcia. Powoduje to błędne koło, ponieważ większy niepokój prowadzi do nadmiernego pobudzenia, ono zaś jeszcze bardziej utrudnia zaśnięcie. Chroniczna bezsenność prawie zawsze wiąże się z uczuciem przemęczenia, towarzyszą jej również symptomy depresji.
Do bezsenności może przyczyniać się wiele czynników, m.in. wiek, zażywanie narkotyków, ruch, kondycja psychiczna oraz nawyki związane ze snem. Nic więc dziwnego, że istnieje wiele różnych form leczenia bezsenności. Niektóre osoby borykające się z tym problemem ograniczają użycie stymulujących używek (na przykład kofeiny) lub zwiększają ilość ruchu w ciągu dnia. Inne sięgają po lekarstwa bez recepty lub na receptę. Należy jednak czynić to w ostateczności, gdyż wiele leków nasennych prowadzi do uzależnienia i zmienia naturalny cykl snu i czuwania, przyczyniając się tylko do pogłębienia bezsenności. Osoby, u których podejmowane na własną rękę działania nie przynoszą pożądanych rezultatów, a na domiar złego pogarszają jakość życia, powinny udać się po wsparcie do profesjonalistów.
W przypadku bezsenności pomagają niektóre formy psychoterapii, np. terapia poznawczo-behawioralna. Terapia poznawczo-behawioralna (ang. ) to terapia, która koncentruje się na procesach poznawczych i problematycznych zachowaniach. Leczenie bezsenności w takim przypadku uwzględniałoby techniki zarządzania stresem oraz zmianę zachowań, które mogą przyczyniać się do bezsenności (np.: ograniczenie czasu czuwania w łóżku). Udowodniono, że terapia poznawczo-behawioralna jest skuteczna i w leczeniu bezsenności przynosi pożądane rezultaty (Savard et al., 2005; Williams et al., 2013).
### Parasomnie
Parasomnie (ang. ) to grupa zaburzeń snu charakteryzujących się występowaniem niepożądanych oraz nieprawidłowych zachowań motorycznych lub doświadczeń. Parasomnie występują zarówno w fazie REM, jak i NREM snu. Lunatyzm, zespół niespokojnych nóg, lęki nocne – to wszystko przykłady parasomnii (Mahowald i Schenck, 2000).
### Lunatyzm
Lunatykowanie (inaczej zwane lunatyzmem, somnambulizmem lub sennowłóctwem – ang. ) to sytuacja, w której śpiąca osoba angażuje się w relatywnie złożone zachowania: od spacerowania po okolicy po prowadzenie samochodu. Podczas epizodów somnambulizmu osoba często ma otwarte oczy, ale nie reaguje na próby komunikacji podejmowane przez innych. Lunatykowanie zwykle występuje podczas snu wolnofalowego, lecz może też zachodzić w innych jego stadiach (Mahowald i Schenck, 2000).
W przeszłości somnambulizm leczony był farmakologicznie za pomocą różnorodnych środków, począwszy od benzodiazepin, a skończywszy na lekach przeciwdepresyjnych. Jednakże skuteczność tego rodzaju terapii została zakwestionowana. Guilleminault ze współpracownikami (2005) odkrył, że benzodiazepiny nie zapobiegają lunatykowaniu. Okazało się również, że u wszystkich jego somnambulicznych pacjentów, którzy w trakcie snu mieli również problemy z oddychaniem, odnotowano znaczące obniżenie się liczby epizodów lunatykowania po skutecznym wyleczeniu problemów oddechowych.
### Zaburzenia zachowania podczas fazy snu REM
Zaburzenia zachowania w czasie snu REM (ang. ) mają miejsce wtedy, gdy nie występuje zachodzący normalnie w fazie snu REM paraliż mięśni. Osoby zmagające się z RBD wykazują wysoki poziom aktywności fizycznej podczas fazy REM, szczególnie w trakcie nieprzyjemnych snów. Zachowania te są bardzo zróżnicowane. Może to być na przykład kopanie, uderzanie pięściami, drapanie, krzyk oraz zachowania typowe dla przestraszonych lub zaatakowanych zwierząt. Osoby cierpiące na tę przypadłość mogą zranić siebie lub śpiącego obok partnera. Ponadto tego rodzaju zachowania zakłócają normalny cykl snu, choć dotknięte zaburzeniem osoby nie pamiętają żadnych szczegółów dotyczących tych epizodów (Arnulf, 2012).
Zaburzenia zachowania podczas fazy snu REM są często powiązane z wieloma chorobami neurodegeneracyjnymi, takimi jak choroba Parkinsona. Powiązania są tak silne, że – według niektórych – występowanie RBD może pomóc w diagnozie i leczeniu wielu chorób z tej grupy (Ferini-Strambi, 2011). W leczeniu RBD najczęściej stosuje się klonazepam, środek przeciwlękowy o właściwościach uspokajających. Podaje się go niezależnie lub w połączeniu z melatoniną (hormonem wydzielanym przez szyszynkę). Częścią procesu leczenia jest również modyfikacja strefy przeznaczonej do spania tak, by stała się bezpieczniejszym miejscem dla osób cierpiących na RBD (Zangini et al., 2011).
### Inne parasomnie
Osoba z zespołem niespokojnych nóg (ang. ) odczuwa nieprzyjemne uczucie w nogach podczas okresów bezczynności lub w trakcie zasypiania. Dyskomfort mija wskutek celowego poruszania nogami, co oczywiście wzmacnia tylko trudność w zasypianiu lub utrzymaniu stanu snu. Syndrom niespokojnych nóg jest dość powszechną przypadłością, występującą równocześnie z wieloma innymi chorobami, na przykład chroniczną chorobą nerek czy cukrzycą (Mahowald i Schenck, 2000). Na rynku dostępnych jest sporo leków stosowanych w zespole niespokojnych nóg: benzodiazepiny, opiaty oraz leki przeciwpadaczkowe (Restless Legs Syndrome Foundation, b.d.).
Lęki nocne (ang. ) powodują panikę, dlatego często towarzyszą im krzyki oraz próby ucieczki z danego miejsca (Mahowald i Schenck, 2000). Osoby doświadczające tych lęków wydają się nie spać, ale zwykle nie potrafią przypomnieć sobie żadnych szczegółów tego, co się zdarzyło, a próby pocieszenia ich w trakcie napadu są bezskuteczne. Najczęściej ponownie szybko zasypiają. Lęki nocne mają miejsce podczas fazy snu REM (Provini et al., 2011). Nie ma potrzeby ich leczenia, chyba że ich podłożem są konkretne stany medyczne lub psychologiczne (Mayo Clinic, b.d.).
### Zespół bezdechu sennego
Zespół bezdechu sennego (ang. ) charakteryzuje się okresowym ustawaniem wentylacji (wdechu i wydechu) płuc u śpiącej osoby. Ustanie wentylacji może trwać 10–20 sekund lub dłużej i często jest połączone z krótkimi momentami pobudzenia. Podczas gdy osoby cierpiące na bezdech senny mogą nie być świadome tych powtarzalnych zaburzeń snu, często narzekają na większe zmęczenie. Powodem, dla którego szukają pomocy, są skargi osób, z którymi dzielą łóżko, na ich głośne nocne chrapanie, któremu mogą, ale nie muszą towarzyszyć długie przerwy w oddychaniu (Henry i Rosenthal, 2013). Tego rodzaju objawy występują częściej u ludzi otyłych i mogą dodatkowo powodować nasilenie chorób układu krążenia (Sánchez-de-la-Torre et al., 2012). Choć bezdech senny rzadko występuje u osób szczupłych, wizyta lekarska zalecana jest bez względu na masę ciała wszystkim, którzy podczas snu głośno chrapią lub z trudem łapią powietrze.
Choć ludzie często nie są świadomi, że cierpią na bezdech senny, to jednak mogą zdawać sobie sprawę z nieprzyjemnych konsekwencji niewystarczającej ilości snu. Pewien mężczyzna na przykład uważał, że z powodu bezdechu sennego miał trzy wypadki samochodowe w ciągu sześciu tygodni. „I wszystkie z MOJEJ winy. A w dwóch z nich dopiero po fakcie zorientowałem się, że coś jest nie tak!” (Henry i Rosenthal, 2013, s. 52). Nierzadko osoby z niezdiagnozowanym lub nieleczonym bezdechem sennym obawiają się, że brak snu wpłynie negatywnie na ich karierę, co świetnie ilustruje zdanie wypowiedziane przez innego pacjenta: „W mojej pracy premiuje się szybkość myślenia i sprawność umysłową, a ja bywałem naprawdę śpiący… miałem kłopoty z koncentracją… Dochodziło już naprawdę do przerażających sytuacji” (Henry i Rosenthal, 2013, s. 52).
Diagnozuje się dwa rodzaje zespołu bezdechu sennego: obturacyjny i centralny. Obturacyjny bezdech senny (ang. ) występuje wtedy, gdy bezdech pojawia się w wyniku zablokowania dróg oddechowych podczas snu, a powietrze nie może dostać się do płuc. W centralnym bezdechu sennym (ang. ) zatrzymanie oddychania wynika z czasowej przerwy w dopływie impulsów nerwowych z mózgu do mięśni oddechowych (White, 2005).
Jednym z najbardziej powszechnych sposobów leczenia bezdechu sennego jest leczenie za pomocą tzw. aparatu CPAP (stałe dodatnie ciśnienie w drogach oddechowych) (ang. ). Aparat ten składa się z maski zakrywającej usta i nos podłączonej do pompy, która wtłacza powietrze do dróg oddechowych, zmuszając je do pozostania otwartymi, jak pokazano na . Nowsze modele masek są mniejsze i zakrywają tylko nos. Skuteczność tego rodzaju terapii jest niezwykle duża zarówno u osób cierpiących na łagodną, jak i ostrą formę bezdechu sennego (McDaid et al., 2009). Jedną z podobnych metod, której skuteczności dowiodły już badania z podwójnie ślepą próbą, jest wykorzystanie urządzenia EPAP () wytwarzającego dodatnie ciśnienie wydechowe w drogach oddechowych tylko podczas wydechu (Berry et al., 2011).
### SIDS
W przypadku zespołu nagłego zgonu łóżeczkowego (SIDS) (ang. ), zwanego powszechnie nagłą śmiercią łóżeczkową, niemowlę podczas snu przestaje oddychać i umiera. Najbardziej narażone są dzieci poniżej pierwszego roku życia, częściej chłopcy niż dziewczynki. Wyróżnia się tu kilka czynników ryzyka, m.in. przedwczesny poród, palenie papierosów w domu oraz hipertermię. U niemowląt, które umierają nagłą śmiercią łóżeczkową, obserwuje się też różnice zarówno w strukturze mózgu, jak i jego funkcjonowaniu (Berkowitz, 2012; Mage i Donner, 2006; Thach, 2005).
Dzięki licznym badaniom dotyczącym nagłej śmierci łóżeczkowej istnieje wiele zaleceń, które skutecznie pomagają jej unikać (). Przede wszystkim niemowlęta należy do snu kłaść na wznak, w łóżeczku nie powinny znajdować się żadne przedmioty, które mogłyby prowadzić do uduszenia, jak koce, poduszki czy ochraniacze (poduszki zakrywające szczebelki łóżeczka, stanowiące ochronę przed uderzeniem się). Niemowlętom nie należy również zakładać do snu czapeczek, które często prowadzą do przegrzania ciała, a domownicy powinni powstrzymać się od palenia papierosów w mieszkaniu. W ostatnich latach te i podobne zalecenia zmniejszyły liczbę przypadków nagłej śmierci łóżeczkowej (Mitchell, 2009; Task Force on Sudden Infant Death Syndrome, 2011).
### Narkolepsja
Osoba cierpiąca na narkolepsję (ang. ) nie potrafi oprzeć się zaśnięciu nawet w najmniej odpowiednich momentach. Nagłe, mimowolne napady snu powiązane są z katapleksją (ang. ), czyli brakiem napięcia mięśniowego lub jego obniżeniem, a w niektórych przypadkach z całkowitym paraliżem mięśni zależnych od woli. Jest to stan podobny do tego, który występuje u zdrowych osób podczas fazy snu REM (Burgess i Scammell, 2012; Hishikawa i Shimizu, 1995; Luppi et al., 2011). Epizody narkoleptyczne przypominają okresy snu REM, gdyż ok. jedna trzecia pacjentów ze zdiagnozowaną narkolepsją podczas napadów snu doświadcza bardzo żywych, podobnych do marzeń sennych halucynacji (Chokroverty, 2010).
Co zaskakujące, epizody narkoleptyczne wywoływane są często przez stany podwyższonego pobudzenia lub stres. Typowy napad trwa od jednej, dwóch minut do pół godziny. Po przebudzeniu osoba zwykle czuje się odświeżona i wypoczęta (Chokroverty, 2010). Oczywiście powtarzające się napady mimowolnego snu zaburzają wykonywanie pracy lub uczestniczenie w zajęciach szkolnych, a w niektórych sytuacjach powodują poważne uszkodzenia i obrażenia ciała, na przykład podczas jazdy samochodem lub obsługi maszyn i innych niebezpiecznych urządzeń.
Standardowo w leczeniu narkolepsji wykorzystuje się leki psychostymulujące, na przykład amfetaminę (Mignot, 2012). Stymulują one ośrodkowy układ nerwowy i zwiększają jego aktywność. Narkolepsję wiąże się ze zmniejszonym poziomem neuroprzekaźnika hipokretyny w pewnych obszarach mózgu (De la Herrán-Arita i Drucker-Colín, 2012; Han, 2012), a tradycyjne leki stymulujące nie mają bezpośredniego wpływu na ten układ neuroprzekaźnikowy. Istnieje zatem duże prawdopodobieństwo, że nowa generacja leków na narkolepsję będzie wpływać również i na ten układ.
Wśród osób cierpiących na narkolepsję istnieje ogromne zróżnicowanie zarówno pod względem objawów, jak i skuteczności obecnie dostępnych metod leczenia. Świetnie widać to na przykładzie studium przypadku autorstwa McCarty’ego (2010), dotyczącym pięćdziesięcioletniej kobiety, która szukała pomocy w związku z trwającą kilka lat nadmierną sennością występującą w ciągu dnia. Mimowolnie zasypiała w niedogodnych lub niebezpiecznych sytuacjach, m.in. podczas jedzenia, spotkań z przyjaciółmi i prowadzenia samochodu. W chwilach emocjonalnego pobudzenia narzekała na swego rodzaju słabość odczuwaną po prawej stronie ciała. Choć nie doświadczała podobnych do snu halucynacji, po badaniu snu zdiagnozowano u niej narkolepsję. Jej przypadek katapleksji ograniczającej się tylko do prawej połowy ciała był dość nietypowy. Początkowe próby leczenia jej tylko z zastosowaniem leku stymulującego nie przyniosły rezultatów, dopiero gdy zaczęto podawać go w połączeniu z popularnym środkiem antydepresyjnym, jej stan uległ znacznej poprawie.
### Summary
Wiele osób w pewnym momencie życia doświadcza kłopotów ze snem lub cierpi na jego zaburzenia. Bezsenność to powszechna przypadłość polegająca na trudnościach w zasypianiu lub utrzymaniu snu. W parasomniach, do których zalicza się RBD, lunatyzm, zespół niespokojnych nóg oraz lęki nocne, w trakcie snu pojawiają się niepożądane zachowania ruchowe lub doświadczenia. Zespół bezdechu sennego objawia się zatrzymaniem przepływu powietrza w trakcie snu, a zespół nagłego zgonu łóżeczkowego skutkuje śmiercią niemowlęcia, które śpiąc, nagle przestaje oddychać. Narkolepsja powoduje ataki wyjątkowej senności podczas czuwania, tak silnej, że osoby dotknięte tym zaburzeniem praktycznie nie mogą powstrzymać się od zaśnięcia. Często towarzyszą jej katapleksja i halucynacje.
### Review Questions
### Critical Thinking Questions
### Personal Application Question
|
# Stany świadomości
## Używanie substancji psychoaktywnych
Podczas gdy wszyscy regularnie doświadczamy odmiennych stanów świadomości w postaci snu, niektóre osoby zażywają narkotyki i inne substancje, by wejść w nie celowo. W tym podrozdziale zaprezentujemy informacje dotyczące stosowania różnego rodzaju substancji psychoaktywnych oraz problemów z tym związanych. Na końcu krótko opiszemy działania niektórych z dobrze obecnie znanych i często zażywanych narkotyków.
### Zaburzenia związane z używaniem substancji psychoaktywnych
Piąte wydanie Diagnostycznego i statystycznego podręcznika zaburzeń psychicznych (ang. ) publikowanych przez Amerykańskie Towarzystwo Psychiatryczne jest wykorzystywane przez klinicystów do diagnozowania osób cierpiących z powodu różnych zaburzeń psychicznych. Zgodnie z klasyfikacją osoba o zaburzeniach wywołanych używaniem substancji psychoaktywnych stosuje większe ilości substancji niż zamierzała na początku i kontynuuje ich przyjmowanie pomimo doświadczania negatywnych tego konsekwencji. U osób, u których zdiagnozowano zaburzenia spowodowane zażywaniem substancji psychoaktywnych, obserwuje się kompulsywny schemat przyjmowania substancji połączony z uzależnieniem zarówno fizycznym, jak i psychicznym.
Uzależnienie fizyczne (ang. ) wywołuje zmiany w normalnych funkcjach organizmu – uzależniony doświadcza objawów abstynencyjnych po przerwaniu przyjmowania substancji. Z drugiej strony osoba uzależniona psychicznie (ang. ) wykazuje raczej emocjonalną niż fizyczną potrzebę używania narkotyku i może wykorzystywać go, aby złagodzić niepokój psychiczny. Tolerancja (ang. ) związana jest z uzależnieniem fizjologicznym, a jej wzrost oznacza, że osoba potrzebuje coraz większych ilości substancji, aby osiągnąć efekt, którego wcześniej doświadczała przy mniejszych dawkach. Zwiększenie tolerancji powoduje, że człowiek zwiększa dawki substancji do niebezpiecznego poziomu, który może prowadzić do przedawkowania i śmierci.
Odstawienie (ang. ) jest zaprzestaniem przyjmowania substancji. Powoduje objawy abstynencyjne, zwykle przeciwne do tych wywoływanych przez narkotyk. Na przykład odstawienie środków uspokajających skutkuje nieprzyjemnym pobudzeniem. Osoby, u których diagnozuje się zaburzenia związane z używaniem substancji psychoaktywnych, oprócz objawów abstynencyjnych rozwijają również tolerancję. Uzależnienie psychiczne, inaczej głód narkotykowy, zostało dodane jako kolejne kryterium diagnostyczne zaburzeń związanych z używaniem substancji w DSM-5. Jest to ważny czynnik diagnostyczny, ponieważ możemy rozwijać tolerancję oraz doświadczać objawów abstynencyjnych w przypadku różnych substancji, których nie nadużywamy. Innymi słowy samo fizyczne uzależnienie nie wystarczy, by określić, czy ktoś cierpi na zaburzenia związane z użyciem substancji psychoaktywnych, czy też nie.
### Kategorie substancji psychoaktywnych
Skutki przyjmowania wszystkich substancji psychoaktywnych są wynikiem ich interakcji z endogenicznymi układami neuroprzekaźników. Wiele z tych substancji i ich wzajemnych powiązań zostało przedstawionych na . Jak już wiesz, substancje psychoaktywne mogą działać jako agoniści lub antagoniści konkretnych układów neuroprzekaźników. Agonista (ang. ) generuje reakcję układu neuroprzekaźników, natomiast antagonista (ang. ) ją blokuje.
### Alkohol i inne trankwilizery
Etanol, czyli substancja obecna w napojach, które zwykliśmy nazywać napojami alkoholowymi, należy do kategorii substancji psychoaktywnych zwanych trankwilizerami (). Trankwilizer (ang. ) ma działanie uspokajające – spowalnia działanie ośrodkowego układu nerwowego. Inne tego typu substancje to m.in. barbiturany i benzodiazepiny. Cechą wspólną tych środków jest to, że są agonistami receptorów kwasu gammaaminomasłowego (GABA). Ponieważ neuroprzekaźniki GABA wpływają uspokajająco na mózg, agoniści receptorów GABA również dają taki efekt, stąd te rodzaje substancji psychoaktywnych często przepisuje się w przypadku lęków i bezsenności.
Nadmierne spożywanie alkoholu skutkuje różnorodnymi zmianami na poziomie świadomości. W małych ilościach alkohol przynosi ożywienie i euforię. Przy większych dawkach mówi się o uczuciu uspokojenia. Ogólnie rzecz biorąc, spożyciu alkoholu towarzyszy spowolnienie czasu reakcji, utrata ostrości widzenia, osłabienie poziomu koncentracji oraz zahamowań zachowania. Przy nadmiernym spożyciu osoba może doświadczyć całkowitej utraty świadomości, jak również trudności w przypomnieniu sobie tego, co działo się w czasie upojenia alkoholowego (McKim i Hancock, 2013). Alkohol spożywany przez kobiety w ciąży może prowadzić do wystąpienia u dziecka szeregu wad i symptomów rozwojowych określanych terminem spektrum alkoholowych uszkodzeń płodu (ang. ) lub alkoholowego zespołu płodowego (ang. ).
Systematyczne używanie substancji działających depresyjnie na ośrodkowy układ nerwowy, takich jak alkohol, prowadzi do fizycznego uzależnienia. Powoduje ono, że nadużywająca ich osoba będzie doświadczać efektu tolerancji oraz objawów abstynencyjnych. W przypadku tych substancji możliwe jest również uzależnienie psychiczne. Można zatem stwierdzić, że mają one dość wysoki wskaźnik właściwości uzależniających.
Odstawienie opisanych wyżej środków wiąże się z bardzo nieprzyjemnymi doświadczeniami i w przypadku osób, które mają za sobą długą historię przyjmowania dużych dawek alkoholu czy barbituranów, może zagrażać życiu. Warto zatem, by osoby starające się wyjść z uzależnienia od tych substancji robiły to wyłącznie przy wsparciu specjalistów.
### Stymulanty
Stymulanty (ang. ) to substancje pobudzające ośrodkowy układ nerwowy, zwiększające ogólny poziom aktywności nerwowej. Wiele z nich pełni funkcję agonistów dopaminy. Dopamina odgrywa ważną rolę w układzie nagrody i odczuwania łaknienia, zatem narkotyki, które wpływają na układ dopaminowy, mają duże właściwości uzależniające. Do tej kategorii należą kokaina, amfetaminy (łącznie z metamfetaminą (ang. )), katynony (na przykład sole do kąpieli), MDMA (ecstasy), nikotyna i kofeina.
Kokainę można przyjmować na wiele różnych sposobów. Popularne metody to wciąganie przez nos, rozpuszczanie w wodzie i wstrzykiwanie oraz przyjmowanie doustne. Kokaina wolnozasadowa, zwana crackiem, jest silnie działającym narkotykiem, który przyjmuje się w postaci wziewnej. Podobnie jak wiele innych substancji stymulujących, kokaina działa jako agonista układu neuroprzekaźników dopaminy, blokując wychwyt zwrotny dopaminy w synapsach.
Amfetaminy działają na podobnej zasadzie co kokaina, ale oprócz blokowania zwrotnego wychwytu dopaminy w szczelinie synaptycznej stymulują również jej wydzielanie (). Z jednej strony amfetaminy są często nadużywane, a z drugiej – lekarstwa na ich bazie często przepisywane są dzieciom z diagnozą zespołu nadpobudliwości psychoruchowej z deficytem uwagi (ang. ). Na pierwszy rzut oka może wydawać się, że leczenie zaburzeń nadpobudliwości poprzez podawanie substancji pobudzających przynosi efekty odwrotne do zamierzonych, lecz efekt terapeutyczny wynika ze zwiększenia aktywności neuroprzekaźnikowej w konkretnych obszarach mózgu odpowiadających za kontrolę impulsów.
W ostatnich latach coraz bardziej rozpowszechniona staje się metamfetamina. Metamfetamina to taki rodzaj amfetaminy, który można pozyskać z ogólnie dostępnych składników (np. z pseudoefedryny występującej w wielu środkach na przeziębienie i grypę sprzedawanych bez recepty). Pomimo ostatnich zmian w prawie amerykańskim, których celem było utrudnienie pozyskiwania pseudoefedryny, metamfetamina wciąż jest łatwo dostępną i względnie niedrogą substancją pobudzającą (Shukla et al., 2012).
Osoby zażywające kokainę, amfetaminę, katynony oraz MDMA poszukują stanu euforii (ang. ), uniesienia oraz przyjemności. Regularne przyjmowanie tych stymulantów ma niezwykle negatywne skutki dla ludzkiego organizmu. Może wywołać objawy fizyczne takie jak nudności, zwiększenie ciśnienia krwi i tętna. Ponadto uzależnieni doświadczają niepokoju, halucynacji oraz paranoi (Fiorentini et al., 2011). Długotrwałe przyjmowanie tych narkotyków prowadzi również do zmian w normalnym funkcjonowaniu mózgu. Powoduje np. ogólne zmniejszenie ilości neuroprzekaźników należących do grupy monamin, takich jak dopamina, noradrenalina i serotonina. Jednym z powodów kompulsywnego użycia tych substancji jest m.in. pragnienie odtworzenia przez organizm normalnych poziomów tych neuroprzekaźników (Jayanthi i Ramamoorthy, 2005; Rothman et al., 2007).
Kofeina to kolejna substancja pobudzająca, którą można nazwać najbardziej rozpowszechnionym narkotykiem na świecie, lecz jej moc w porównaniu z innymi stymulantami opisanymi w tym podrozdziale jest raczej nikła. Wykorzystuje się ją do utrzymania podwyższonego poziomu czujności i pobudzenia. Można ją znaleźć w wielu powszechnie używanych lekarstwach (np. wspierających utratę wagi), napojach, pożywieniu, a nawet kosmetykach (Herman i Herman, 2013). Kofeina ma pośredni wpływ na układ dopaminowy, ale jej główny mechanizm działania polega na antagonizowaniu działania adenozyny (Porkka-Heiskanen, 2011).
Mimo że kofeinę (ang. ) uważa się za względnie bezpieczną substancję psychoaktywną, podwyższane przez nią ciśnienie krwi może prowadzić do bezsenności, niepokoju, drgania mięśni, nudności, nieregularności tętna, a nawet śmierci (Reissig et al., 2009; Woltet al., 2012). W 2012 roku Kromann i Nielson opisali przypadek czterdziestoletniej kobiety, która doświadczała objawów chorobowych nadużywania kofeiny. W przeszłości spożywała kofeinę, aby poprawić sobie nastrój i zwiększyć poziom energii. W ciągu kilku lat zwiększyła konsumpcję kofeiny do tego stopnia, że spożywała trzy litry napojów gazowanych w ciągu dnia. Przyjmowała również przepisane przez lekarza środki przeciwdepresyjne, lecz jej stan psychiczny zamiast się poprawiać, pogarszał się. Zdrowie fizyczne również uległo pogorszeniu – miała oznaki choroby układu krążenia oraz cukrzycę. Gdy zgłosiła się do przychodni na leczenie zaburzeń nastroju, okazało się, że ma wszystkie symptomy diagnostyczne uzależnienia i poradzono jej, by radykalnie zmniejszyła dzienną dawkę kofeiny. Gdy udało się jej zejść poniżej 3 litrów napojów gazowanych dziennie, jej zdrowie psychiczne i fizyczne stopniowo zaczęło się poprawiać. Pomimo powszechnego spożycia kofeiny i ogromnej liczby osób, które przyznają się, że cierpią na uzależnienie od tej substancji, był to pierwszy opis uzależnienia od napojów gazowanych w literaturze naukowej.
Nikotyna jest substancją niezwykle uzależniającą, a użycie wyrobów tytoniowych wiąże się ze zwiększonym ryzykiem chorób układu krążenia, udaru oraz różnych form raka. Efekt nikotynowy spowodowany jest interakcją z receptorami acetylocholinowymi. Acetylocholina pełni rolę neuroprzekaźnika w neuronach ruchowych. W ośrodkowym układzie nerwowym zaangażowana jest w mechanizmy pobudzenia i nagrody. Nikotyna jest powszechnie używana w wyrobach tytoniowych takich jak papierosy czy tytoń do żucia, stąd istnieje ogromne zainteresowanie rozwojem skutecznych programów rzucania palenia. Do tej pory stworzono wiele różnych terapii zastępowania nikotyny oraz narzędzi psychoterapeutycznych w celu wspierania osób uzależnionych w rozstaniu się z nałogiem. Programy rzucania palenia są skuteczne na krótką metę, nie jest jednak pewne, czy ich efekty utrzymują się w dłuższej perspektywie (Cropley et al., 2008; Levitt et al., 2007; Smedslund et al., 2004).
### Opioidy
Opioidy (in. opiaty) (ang. ) to kategoria substancji psychoaktywnych, do której należą heroina, morfina, metadon oraz kodeina. Mają one właściwości przeciwbólowe. Człowiek posiada endogenny opioidowy układ neuroprzekaźnikowy – ciało wytwarza niewielkie ilości opioidów, które łączą się z receptorami opioidowymi, powodując zmniejszenie bólu i uczucie euforii. Zatem opioidy, które naśladują ten wrodzony mechanizm analgezji, są substancjami o wysokim potencjale uzależnienia. Naturalne opioidy, nazywane opiatami, są pochodnymi opium, czyli substancji pozyskiwanej z maku lekarskiego. Obecnie na rynku istnieje kilka syntetycznych wersji opioidów, potocznie nazywanych opiatami, skutecznie uśmierzających ból i nadużywanych. Według badania wykonanego na zlecenie National Institues of Drug Abuse nieodpowiednie używanie i nadużywanie hydrokodonu oraz oksykodonu, czyli lekarstw przeciwbólowych, staje się powoli znaczącym problemem zdrowia społecznego w Stanach Zjednoczonych (Maxwell, 2006). W 2013 roku amerykańska Agencja Żywności i Leków (FDA) zaleciła zwiększenie kontroli nad ich wykorzystaniem medycznym.
W przeszłości najczęściej nadużywanym opioidem była heroina (). Przyjmuje się ją, wciągając przez nos, paląc lub wstrzykując dożylnie. Podobnie jak w przypadku innych opisanych powyżej stymulantów, przyjęcie heroiny początkowo skutkuje uczuciem euforii i ekscytacji, po którym następuje okres pobudzenia i zdenerwowania. Regularne dożylne podawanie heroiny pozostawia ślady po wkłuciach na przedramionach, a osoby przyjmujące ją (oraz inne narkotyki) w ten sposób narażone są na większe ryzyko zarażenia gruźlicą i wirusem HIV.
Substancje psychoaktywne zawierające opioidy mają nie tylko zastosowanie przeciwbólowe, lecz znaleźć je można również w lekarstwach na kaszel oraz tych zapobiegających nudnościom i biegunkom. Wziąwszy pod uwagę, że odstawienie każdego narkotyku wiąże się z doświadczaniem efektów przeciwnych do wywoływanych przez sam narkotyk, nie powinno dziwić, że odstawienie opioidów wywołuje objawy przypominające ciężką postać grypy. By ułatwić skuteczne odstawienie opioidów, osobom borykającym się z objawami abstynencyjnymi podaje się metadon. Metadon (ang. ) jest syntetycznym opioidem niewywołującym takiej euforii jak heroina i jej pochodne, stosowanym w metadonowych klinikach odwykowych (ang. ). W łagodzeniu objawów abstynencyjnych po odstawieniu opioidów wykorzystuje się z dużą skutecznością również inne substancje, m.in. półsyntetyczny opioidowy lek: buprenorfinę.
Kodeina (ang. ) jest opioidem o względnie słabym działaniu. Często przepisuje się ją na lekki ból, a w niektórych krajach można ją dostać bez recepty. Podobnie jak inne opioidy, może uzależniać. Nadużywanie leków na receptę zawierających opioidy staje się istotnie coraz większym światowym problemem (Aquina et al., 2009; Casati et al., 2012).
### Halucynogeny
Halucynogeny (ang. ) należą do grupy substancji psychoaktywnych, które powodują głębokie zmiany w doświadczeniach na poziomie zmysłów i postrzegania (). W niektórych przypadkach zażywający je doznają intensywnych i jaskrawych halucynacji wzrokowych. Narkotyki z tej grupy często powodują halucynacje na poziomie doznań cielesnych (np. można mieć wrażenie, że jest się olbrzymem) oraz skutkują wypaczoną percepcją upływu czasu.
W obrębie grupy halucynogeny różnią się od siebie niezwykle, jeśli chodzi o oddziaływanie na układy neuroprzekaźnikowe. Meskalina i LSD są agonistami serotoniny, natomiast Fencyklidyna (inaczej znana jako PCP - anielski pył) oraz ketamina (legalnie stosowana jako środek znieczulający) antagonistami receptora NMDA (N-metylo-D-asparaginowego). Przyjmuje się, że te substancje nie mają tak dużego potencjału uzależnieniowego jak inne typy substancji psychoaktywnych opisanych w tym podrozdziale.
### Summary
W piątym wydaniu Diagnostycznego i statystycznego podręcznika zaburzeń psychicznych (DSM-5) zaburzenia wywołane użyciem substancji psychoaktywnych zdefiniowane są jako kompulsywne przyjmowanie substancji pomimo związanych z tym negatywnych konsekwencji. Ważnym aspektem tych zaburzeń jest psychiczne i fizyczne uzależnienie. Alkohol, barbiturany i benzodiazepiny wpływają depresyjnie na ośrodkowy układ nerwowy (OUN), a konkretnie na układ neuroprzekaźnikowy GABA. Kokaina, amfetaminy, katynony oraz MDMA należą do stymulantów, czyli pobudzają OUN i są agonistami dopaminy, podczas gdy nikotyna i kofeina reagują odpowiednio z acetylocholiną i adenozyną. Opiaty są silnymi narkotycznymi środkami przeciwbólowymi, oddziałującymi na endogenny opioidowy układ przekaźnikowy. Substancje halucynogenne powodują wyraźne zmiany w doświadczeniach zmysłowych i percepcyjnych. Halucynogeny wpływają na różne układy neuroprzekaźnikowe.
### Review Questions
### Critical Thinking Questions
### Personal Application Question
|
# Stany świadomości
## Inne stany świadomości
Stan naszej świadomości zmienia się podczas przechodzenia ze stanu czuwania do stanu snu. Na stan świadomości możemy również wpływać za pomocą substancji psychoaktywnych. W tym podrozdziale omówimy stany hipnotyczne i medytacyjne jako jeszcze inne przykłady odmiennych stanów świadomości.
### Hipnoza
Hipnoza (ang. ) to stan skrajnej koncentracji uwagi na sobie samym i zminimalizowania uwagi poświęcanej bodźcom zewnętrznym. Klinicysta, by zmienić myśli i postrzeganie pacjenta, może wykorzystać techniki relaksacyjne i sugestię. Hipnozę wykorzystuje się również do uzyskania dostępu do informacji, które uważa się za ukryte głęboko w pamięci. W przypadku osób szczególnie podatnych na sugestię hipnoza może okazać się niezwykle skuteczną techniką, a badania z wykorzystaniem neuroobrazowania potwierdzają, że stany hipnotyczne powodują zmiany w funkcjonowaniu mózgu (Del Casale et al., 2012; Guldenmund et al., 2012).
W przeszłości do hipnozy podchodzono z podejrzliwością z powodu sposobu, w jaki przedstawiano ją w mediach oraz w popkulturze (). Ważne zatem, by dokonać rozróżnienia na hipnozę jako empirycznie potwierdzoną formę podejścia terapeutycznego oraz jako formę rozrywki. W przeciwieństwie do popularnego wyobrażenia, osoby poddające się hipnozie zwykle wyraźnie pamiętają to doświadczenie i kontrolują własne zachowanie. Hipnozę można wykorzystywać również do wzmocnienia wspomnień lub umiejętności, lecz tego rodzaju wzmocnienia przynoszą dość ograniczone rezultaty terapeutyczne (Raz, 2011).
W jaki sposób hipnoterapeuta wprowadza pacjenta w stan hipnozy? Choć oczywiście w każdym procesie występują pewne różnice, poniższe cztery kroki wydają się niezmienne we wprowadzaniu osób w stan podatności na sugestię, który uważa się za element stanu hipnotycznego (National Research Council, 1994). Oto one:
1. Uwagę osoby poddającej się hipnozie kieruje się na jedną rzecz, na przykład głos hipnoterapeuty lub tykający zegarek.
2. Uczestnikowi tworzy się komfortowe warunki oraz poleca się, by się rozluźnił.
3. Sugeruje mu się, by był otwarty na proces hipnozy, zaufał hipnoterapeucie i przestał się kontrolować.
4. Zachęca się go również do wykorzystania w procesie własnej wyobraźni.
Ludzie różnią się poziomem podatności na hipnozę, lecz z przeglądu obecnie dostępnych badań wynika, że większość osób wykazuje umiarkowaną podatność (Kihlstrom, 2013). Hipnoza w połączeniu z innymi technikami wykorzystywana jest z wielu terapeutycznych powodów i w pewnym stopniu jest skuteczna w leczeniu bólu, depresji oraz niepokoju, w rzucaniu palenia i redukcji masy ciała (Alladin, 2012; Elkins et al., 2012; Golden, 2012; Montgomery et al., 2012).
Bada się również możliwość wykorzystania hipnozy w edukacji, sprawdzając, czy potęga sugestii może wpłynąć na procesy uczenia się (Wark, 2011). Ponadto istnieją pewne dowody na potwierdzenie faktu, że hipnoza może zmieniać procesy, które kiedyś uważano za automatyczne i pozostające poza świadomą kontrolą, takie jak czytanie (Lifshitz et al., 2013; Raz et al., 2002). Należy też wspomnieć o innych badaczach, według których automatyczność tych procesów pozostaje nienaruszona (Augustinova i Ferrand, 2012).
Jak działa hipnoza? W odpowiedzi na to pytanie pojawiły się dwie teorie. Według jednej hipnoza jest stanem dysocjacji, natomiast druga postrzega ją jako wejście w pewną rolę społeczną. Zgodnie z poglądem dysocjacyjnym hipnoza jest wynikiem zdysocjowanego stanu świadomości, podobnego do tego z przykładu z prowadzeniem samochodu, gdy osoba wykonująca tę czynność jest tylko w minimalnym stopniu świadoma procesu kierowania pojazdem, gdyż jej świadomość skoncentrowana jest na czymś innym. Teorię tę wspierają badania Ernesta Hilgarda (1904-2001) z zakresu hipnozy i bólu. Podczas eksperymentów wprowadzał pacjentów w stan hipnozy i wkładał ich dłonie do zimnej wody. Uczestnikom mówiono następnie, że nie będą czuć bólu, ale mogą wcisnąć przycisk, jeśli jednak go poczują. Uczestnicy mówili, że nie czują bólu, lecz mimo to wciskali przycisk, co sugeruje dysocjację świadomości podczas stanu hipnotycznego (Hilgard i Hilgard, 1994).
W społeczno-poznawczym podejściu do hipnozy pojawia się zupełnie inny tok myślenia. Zgodnie z nim ludzie w stanie hipnotycznym po prostu wchodzą w społeczną rolę osoby zahipnotyzowanej. Z rozdziału poświęconego psychologii społecznej dowiesz się, że to, jak zachowują się ludzie, może być uzależnione od ich przekonań na temat tego, jak w danej sytuacji powinno wyglądać ich zachowanie. Dla niektórych zachowania osoby zahipnotyzowanej nie wynikają z odmiennego lub zdysocjowanego stanu świadomości, lecz są rezultatem przyjmowania przekonań, jakie dana osoba żywi na temat danej roli społecznej.
### Medytacja
Medytacja (ang. ) to akt koncentracji na pojedynczym celu (np. oddechu lub powtarzalnym dźwięku) w celu zwiększenia uważności. Podczas gdy hipnoza jest wynikiem interakcji terapeuty oraz osoby poddawanej leczeniu, medytację można wykonywać samemu. Często jednak osoby pragnące nauczyć się medytować przechodzą trening, podczas którego uczą się technik pozwalających na wejście w stan medytacji. Stan medytacji jest stanem odmiennej świadomości, co pokazują wykresy EEG osób rozpoczynających swoją przygodę z medytacją, jednakże wzorce fal mózgowych osób zaawansowanych w medytacji mogą reprezentować rzadkie stany świadomości (Fell, Axmacher i Haupt, 2010).
Istnieją różne techniki medytacyjne, można jednak zaryzykować stwierdzenie, że nadrzędnym celem medytacji jest oczyszczenie umysłu w celu osiągnięcia stanu odprężenia i uważności (Chen et al., 2013; Lang et al., 2012). Ostatnimi czasy popularność zdobywa medytacja mindfulness. W jednej z jej odmian uwaga medytującego skierowana jest na proces wewnętrzny lub znajdujący się na zewnątrz przedmiot (Zeidan et al., 2012).
Techniki medytacyjne czerpią z doświadczeń duchowych i religijnych (). Badania pokazują, że medytacja pomaga obniżyć ciśnienie krwi, a według American Heart Association w połączeniu z nieco bardziej tradycyjnymi metodami leczenia można ją wykorzystywać w radzeniu sobie z nadciśnieniem tętniczym, choć nie istnieją wystarczające dane do stworzenia formalnych zaleceń (Brook et al., 2013). Wydaje się, że podobnie jak hipnoza, medytacja jest pomocna w zarządzaniu stresem, poprawie jakości snu (Caldwell et al., 2010), leczeniu zaburzeń nastroju i lękowych (Chen et al., 2013; Freeman et al., 2010; Vøllestad et al., 2012) oraz uwalnianiu się od bólu (Reiner et al., 2013).
### Summary
Hipnoza to silne skupienie uwagi na sobie, podczas którego następują sugerowane przez inną osobę zmiany zachowania i doświadczania rzeczywistości. Z kolei medytacja to głębokie odprężenie przy jednoczesnej koncentracji uwagi. Zarówno stan hipnotyczny, jak i medytacyjny mogą być odmiennymi stanami świadomości potencjalnie wykorzystywanymi do leczenia różnych zaburzeń fizycznych i psychicznych.
### Review Questions
### Critical Thinking Questions
### Personal Application Question
|
# Wrażenia zmysłowe i spostrzeganie
## Wprowadzenie
Wyobraź sobie, że stoisz na rogu ulic. Dostrzegasz wszechobecny ruch samochodów i ludzi udających się w sobie tylko znanych kierunkach, słyszysz dźwięk melodii wygrywanej przez ulicznego grajka lub sygnał klaksonu rozlegający się w oddali, dociera do ciebie zapach spalin i jedzenia sprzedawanego w pobliżu oraz czujesz twardość chodnika pod stopami.
Polegamy na naszych układach zmysłowych, które przekazują nam istotne informacje o otoczeniu. Wykorzystujemy je, aby poruszać się w środowisku i wchodzić z nim w interakcje, aby znaleźć pożywienie, schronienie, podtrzymywać stosunki towarzyskie i unikać potencjalnie niebezpiecznych sytuacji.
Ten rozdział opisuje pokrótce, w jaki sposób informacje zmysłowe są odbierane i przetwarzane przez układ nerwowy i w jaki sposób wpływa to na świadome doświadczanie świata. Zaczniemy od rozróżnienia dwóch pojęć: „wrażeń zmysłowych” i „spostrzegania”. Następnie opiszemy fizyczne właściwości bodźców wzrokowych i słuchowych oraz podstawowe struktury i funkcje głównych układów zmysłowych. Pod koniec rozdziału omówimy ważną z historycznego punktu widzenia teorię spostrzegania zwaną „psychologią postaci” ().
### References
Aaron, J. I., Mela, D. J., & Evans, R. E. (1994). The influences of attitudes, beliefs, and label information on perceptions of reduced-fat spread. Appetite, 22, 25–37.
Abraira, V. E., & Ginty, D. D. (2013). The sensory neurons of touch. Neuron, 79, 618–639.
Ayabe-Kanamura, S., Saito, S., Distel, H., Martínez-Gómez, M., & Hudson, R. (1998). Differences and similarities in the perception of everyday odors: A Japanese-German cross-cultural study. Annals of the New York Academy of Sciences, 855, 694–700.
Chen, Q., Deng, H., Brauth, S. E., Ding, L., & Tang, Y. (2012). Reduced performance of prey targeting in pit vipers with contralaterally occluded infrared and visual senses. PloS ONE, 7(5), e34989. doi:10.1371/journal.pone.0034989
Comfort, A. (1971). Likelihood of human pheromones. Nature, 230, 432–479.
Correll, J., Park, B., Judd, C. M., & Wittenbrink, B. (2002). The police officer’s dilemma: Using ethnicity to disambiguate potentially threatening individuals. Journal of Personality and Social Psychology, 83, 1314–1329.
Correll, J., Urland, G. R., & Ito, T. A. (2006). Event-related potentials and the decision to shoot: The role of threat perception and cognitive control. The Journal of Experimental Social Psychology, 42, 120–128.
Dunkle T. (1982). The sound of silence. Science, 82, 30–33.
Fawcett, S. L., Wang, Y., & Birch, E. E. (2005). The critical period for susceptibility of human stereopsis. Investigative Ophthalmology and Visual Science, 46, 521–525.
Furlow, F. B. (1996, 2012). The smell of love. Pobrano z: http://www.psychologytoday.com/articles/200910/the-smell-love
Galanter, E. (1962). Contemporary Psychophysics. W: R. Brown, E. Galanter, E. H. Hess, & G. Mandler (red.), New directions in psychology. New York: Holt, Rinehart & Winston.
Garland, E. L. (2012). Pain processing in the human nervous system: A selective review of nociceptive and biobehavioral pathways. Primary Care, 39, 561–571.
Goolkasian, P. & Woodbury, C. (2010). Priming effects with ambiguous figures. Attention, Perception & Psychophysics, 72, 168–178.
Grothe, B., Pecka, M., & McAlpine, D. (2010). Mechanisms of sound localization in mammals. Physiological Reviews, 90, 983–1012.
Hartline, P. H., Kass, L., & Loop, M. S. (1978). Merging of modalities in the optic tectum: Infrared and visual integration in rattlesnakes. Science, 199, 1225–1229.
Kaiser, P. K. (1997). The joy of visual perception: A web book. Pobrano z: http://www.yorku.ca/eye/noframes.htm
Khan, S., & Chang, R. (2013). Anatomy of the vestibular system: A review. NeuroRehabilitation, 32, 437–443.
Kinnamon, S. C., & Vandenbeuch, A. (2009). Receptors and transduction of umami taste stimuli. Annals of the New York Academy of Sciences, 1170, 55–59.
Kunst-Wilson, W. R., & Zajonc, R. B. (1980). Affective discrimination of stimuli that cannot be recognized. Science, 207, 557–558.
Lackner, J. R., & DiZio, P. (2005). Vestibular, proprioceptive, and haptic contributions to spatial orientation. Annual Review of Psychology, 56, 115–147.
Land, E. H. (1959). Color vision and the natural image. Part 1. Proceedings of the National Academy of Science, 45(1), 115–129.
Liem, D. G., Westerbeek, A., Wolterink, S., Kok, F. J., & de Graaf, C. (2004). Sour taste preferences of children relate to preference for novel and intense stimuli. Chemical Senses, 29, 713–720.
Lodovichi, C., & Belluscio, L. (2012). Odorant receptors in the formation of olfactory bulb circuitry. Physiology, 27, 200–212.
Loersch, C., Durso, G. R. O., & Petty, R. E. (2013). Vicissitudes of desire: A matching mechanism for subliminal persuasion. Social Psychological and Personality Science, 4(5), 624–631.
Maffei, A., Haley, M., & Fontanini, A. (2012). Neural processing of gustatory information in insular circuits. Current Opinion in Neurobiology, 22, 709–716.
Milner, A. D., & Goodale, M. A. (2008). Two visual systems re-viewed. Neuropsychological, 46, 774–785.
Mizushige, T., Inoue, K., Fushiki, T. (2007). Why is fat so tasty? Chemical reception of fatty acid on the tongue. Journal of Nutritional Science and Vitaminology, 53, 1–4.
Most, S. B., Simons, D. J., Scholl, B. J., & Chabris, C. F. (2000). Sustained inattentional blindness: The role of location in the detection of unexpected dynamic events. PSYCHE, 6(14).
Nelson, M. R. (2008). The hidden persuaders: Then and now. Journal of Advertising, 37(1), 113–126.
Niimura, Y., & Nei, M. (2007). Extensive gains and losses of olfactory receptor genes in mammalian evolution. PLoS ONE, 2, e708.
Okawa, H., & Sampath, A. P. (2007). Optimization of single-photon response transmission at the rod-to-rod bipolar synapse. Physiology, 22, 279–286.
Payne, B. K. (2001). Prejudice and perception: The role of automatic and controlled processes in misperceiving a weapon. Journal of Personality and Social Psychology, 81, 181–192.
Payne, B. K., Shimizu, Y., & Jacoby, L. L. (2005). Mental control and visual illusions: Toward explaining race-biased weapon misidentifications. Journal of Experimental Social Psychology, 41, 36–47.
Peck, M. (2012, July 19). How a movie changed one man’s vision forever. Pobrano z: http://www.bbc.com/future/story/20120719-awoken-from-a-2d-world
Peterson, M. A., & Gibson, B. S. (1994). Must figure-ground organization precede object recognition? An assumption in peril. Psychological Science, 5, 253–259.
Petho, G., & Reeh, P. W. (2012). Sensory and signaling mechanisms of bradykinin, eicosanoids, platelet-activating factor, and nitric oxide in peripheral nociceptors. Physiological Reviews, 92, 1699–1775.
Proske, U. (2006). Kinesthesia: The role of muscle receptors. Muscle & Nerve, 34, 545–558.
Proske, U., & Gandevia, S. C. (2012). The proprioceptive senses: Their roles in signaling body shape, body position and movement, and muscle force. Physiological Reviews, 92, 1651–1697.
Purvis, K., & Haynes, N. B. (1972). The effect of female rat proximity on the reproductive system of male rats. Physiology & Behavior, 9, 401–407.
Radel, R., Sarrazin, P., Legrain, P., & Gobancé, L. (2009). Subliminal priming of motivational orientation in educational settings: Effect on academic performance moderated by mindfulness. Journal of Research in Personality, 43(4), 1–18.
Rauschecker, J. P., & Tian, B. (2000). Mechanisms and streams for processing “what” and “where” in auditory cortex. Proceedings of the National Academy of Sciences, USA, 97, 11800–11806.
Renier, L. A., Anurova, I., De Volder, A. G., Carlson, S., VanMeter, J., & Rauschecker, J. P. (2009). Multisensory integration of sounds and vibrotactile stimuli in processing streams for “what” and “where.” Journal of Neuroscience, 29, 10950–10960.
Rensink, R. A. (2004). Visual sensing without seeing. Psychological Science, 15, 27–32.
Rock, I., & Palmer, S. (1990). The legacy of Gestalt psychology. Scientific American, 262, 84–90.
Roper, S. D. (2013). Taste buds as peripheral chemosensory receptors. Seminars in Cell & Developmental Biology, 24, 71–79.
Russell, M. J. (1976). Human olfactory communication. Nature, 260, 520–522.
Sachs, B. D. (1997). Erection evoked in male rats by airborne scent from estrous females. Physiology & Behavior, 62, 921–924.
Segall, M. H., Campbell, D. T., & Herskovits, M. J. (1963). Cultural differences in the perception of geometric illusions. Science, 139, 769–771.
Segall, M. H., Campbell, D. T., & Herskovits, M. J. (1966). The influence of culture on visual perception. Indianapolis: Bobbs-Merrill.
Segall, M. H., Dasen, P. P., Berry, J. W., & Poortinga, Y. H. (1999). Human behavior in global perspective (2nd ed.). Boston: Allyn & Bacon.
Semaan, M. T., & Megerian, C. A. (2010). Contemporary perspectives on the pathophysiology of Meniere’s disease: implications for treatment. Current opinion in Otolaryngology & Head and Neck Surgery, 18(5), 392–398.
Shamma, S. (2001). On the role of space and time in auditory processing. Trends in Cognitive Sciences, 5, 340–348.
Simons, D. J., & Chabris, C. F. (1999). Gorillas in our midst: Sustained inattentional blindness for dynamic events. Perception, 28, 1059–1074.
Spors, H., Albeanu, D. F., Murthy, V. N., Rinberg, D., Uchida, N., Wachowiak, M., & Friedrich, R. W. (2013). Illuminating vertebrate olfactory processing. Journal of Neuroscience, 32, 14102–14108.
Spray, D. C. (1986). Cutaneous temperature receptors. Annual Review of Physiology, 48, 625–638.
Strain, G. M. (2003). How well do dogs and other animals hear? Pobrano z: http://www.lsu.edu/deafness/HearingRange.html
Swets, J. A. (1964). Signal detection and recognition by human observers. Psychological Bulletin, 60, 429–441.
Ungerleider, L. G., & Haxby, J. V. (1994). ‘What’ and ‘where’ in the human brain. Current Opinion in Neurobiology, 4, 157–165.
U.S. National Library of Medicine. (2013). Genetics home reference: Congenital insensitivity to pain. Pobrano z: http://ghr.nlm.nih.gov/condition/congenital-insensitivity-to-pain
Vecera, S. P., & O’Reilly, R. C. (1998). Figure-ground organization and object recognition processes: An interactive account. Journal of Experimental Psychology-Human Perception and Performance, 24, 441–462.
Wakakuwa, M., Stavenga, D. G., & Arikawa, K. (2007). Spectral organization of ommatidia in flower-visiting insects. Photochemistry and Photobiology, 83, 27–34.
Weller, A. (1998). Human pheromones: Communication through body odour. Nature, 392, 126–127.
Wells, D. L. (2010). Domestic dogs and human health: An overview. British Journal of Health Psychology, 12, 145–156.
Wolfgang-Kimball, D. (1992). Pheromones in humans: myth or reality? Pobrano z: http://www.anapsid.org/pheromones.html
Wysocki, C. J., & Preti, G. (2004). Facts, fallacies, fears, and frustrations with human pheromones. The Anatomical Record Part A: Discoveries in Molecular, Cellular, and Evolutionary Biology, 281, 1201–1211. |
# Wrażenia zmysłowe i spostrzeganie
## Czym różnią się wrażenia zmysłowe i spostrzeganie
Co to znaczy, że „coś czujemy”? Receptory zmysłowe to wyspecjalizowane neurony, które reagują na określone rodzaje bodźców. Gdy informacje zmysłowe zostaną odebrane przez receptor zmysłowy, pojawia się wrażenie zmysłowe (ang. ). Na przykład światło, które wpada do oka, wywołuje zmiany chemiczne w komórkach wyściełających tylną część oka. Komórki te wysyłają komunikaty w postaci potencjałów czynnościowych (o czym można było dowiedzieć się z rozdziału o biopsychologii) do ośrodkowego układu nerwowego. Przekształcenie energii bodźca zmysłowego w potencjał czynnościowy to tak zwana transdukcja (przetwarzanie).
### Wrażenia zmysłowe
Zapewne już od czasów szkoły podstawowej wiesz, że mamy pięć zmysłów: wzrok, słuch, węch, smak i dotyk. Okazuje się jednak, że taki podział jest nadmiernym uproszczeniem. Oprócz wymienionych powyżej mamy także układy zmysłowe, które przekazują informacje o równowadze (układ przedsionkowy), położeniu ciała i ruchu (propriocepcja i kinestezja), bólu (nocycepcja) i temperaturze (termocepcja).
Wrażliwość danego układu zmysłowego na odpowiedni bodziec można wyrazić jako próg absolutny. Próg absolutny (ang. ) to minimalne natężenie bodźca, przy którym jest on wykrywany w 50% przypadków. Można to sobie też wyobrazić, zadając pytanie, jak przyćmione może być światło lub jak cichy może być dźwięk, aby w połowie przypadków nadal mogły zostać dostrzeżone. Wrażliwość naszych receptorów zmysłowych bywa niezwykła. Oszacowano, że w pogodną noc najbardziej wrażliwe komórki zmysłowe w tylnej części oka potrafią wykryć płomień świecy z odległości około 48 kilometrów (30 mil) (Okawa i Sampath, 2007). W ciszy komórki włoskowate (komórki receptorowe w uchu wewnętrznym) mogą wykryć tykanie zegarka z odległości około 6 metrów (20 stóp) (Galanter, 1962).
Wiadomość, która dociera na poziomie poniżej tego progu, to wiadomość podprogowa. Odbieramy ją, ale nie jesteśmy jej świadomi. To tak zwane przekazy podprogowe (ang. ). Przez lata wiele spekulowano na temat wykorzystania komunikatów podprogowych w reklamie, muzyce rockowej i nagraniach samomotywacyjnych. W warunkach laboratoryjnych wykazano, że ludzie potrafią przetwarzać i reagować na informacje poza świadomością. Ale to nie znaczy, że jesteśmy tym wiadomościom posłuszni jak zombie; w rzeczywistości ukryte przekazy mają niewielki wpływ na zachowanie poza laboratorium badawczym (Kunst-Wilson i Zajonc, 1980; Rensink, 2004; Nelson, 2008; Radel et al., 2009; Loersch et al., 2013).
Progi absolutne zwykle mierzy się w ściśle kontrolowanych warunkach, w sytuacjach optymalizowanych pod kątem wrażliwości na bodziec. W niektórych przypadkach bardziej interesuje nas, jaka zmiana bodźca jest potrzebna, aby można było wykryć tę różnicę. Nazywamy to ledwie dostrzegalną różnicą (ang. ) lub progiem różnicy (ang. ). W przeciwieństwie do progu absolutnego próg różnicy zmienia się w zależności od natężenia bodźca. Na przykład wyobraź sobie, że jesteś w bardzo ciemnej sali kinowej. Jeśli ktoś z widowni otrzyma wiadomość na komórkę, co sprawi, że ekran telefonu się zaświeci, to jest duża szansa, że wiele osób zauważy zmianę oświetlenia na sali. Jednak gdy ta sama sytuacja wydarzy się na jasno oświetlonym stadionie w czasie meczu, wówczas bardzo niewiele osób to zauważy. Jasność ekranu telefonu nie zmienia się, ale możliwość jej wykrycia zmienia się w zależności od kontekstu. Ernst Heinrich Weber (1795-1878) stworzył tę teorię zmiany progu różnicy w latach 30. XIX wieku i jest ona znana jako „prawo Webera”: ledwie dostrzegalna różnica pomiędzy bodźcami jest stałym ułamkiem natężenia pierwotnego bodźca, co pokazuje powyższy przykład.
### Spostrzeganie
Nasze receptory zmysłowe stale gromadzą informacje ze środowiska. Jednak to, jak interpretujemy odebrane informacje, wpływa na nasze interakcje ze światem. Spostrzeganie (percepcja) (ang. ) odnosi się do sposobu, w jaki informacje zmysłowe są organizowane, interpretowane i świadomie doświadczane. Postrzeganie obejmuje przetwarzanie zarówno oddolne, jak i odgórne. Przetwarzanie oddolne (ang. ) odnosi się do faktu, że percepcja budowana jest na bazie informacji zmysłowych. Z drugiej strony, na interpretację informacji zmysłowych wpływają nasza wiedza, doświadczenia i myśli. To nazywamy przetwarzaniem odgórnym (ang. ). Pokazano to na (Egeth i Yantis, 1997; Fine i Minnery, 2009; Yantis i Egeth, 1999). Przetwarzanie oddolne zachodzi, gdy odbieramy podstawowe cechy zmysłowe bodźców i dokonujemy ich integracji.
Wyobraź sobie, że siedzisz z kilkorgiem przyjaciół w zatłoczonej restauracji, jedząc lunch i rozmawiając. Jest bardzo głośno i koncentrujesz swoją uwagę na twarzy przyjaciółki, aby usłyszeć, co mówi. Nagle rozlega się dźwięk tłuczonego szkła i uderzenia metalowych naczyń o podłogę. To kelner upuścił dużą tacę. Chociaż twoja uwaga skupiała się na jedzeniu i rozmowie, na pewno te głośne dźwięki przebiły się przez twoje filtry uwagowe i przyciągnęły twoją uwagę. Nie było wyboru: trzeba było je zauważyć. Pochwycenie uwagi zostało spowodowane przez hałas z zewnątrz, ma zatem charakter oddolny.
Z drugiej strony procesy typu góra-dół są na ogół ukierunkowane na cel, powolne, zamierzone, wymagające wysiłku i pozostające pod kontrolą (Fine i Minnery, 2009; Miller i Cohen, 2001; Miller i D'Esposito, 2005). Na przykład jeśli wypadło ci z pamięci, gdzie masz klucze, to jak zaplanujesz ich poszukiwania? Jeśli są one na żółtym breloczku, zapewne zaczniesz szukać czegoś o określonym rozmiarze w kolorze żółtym na blacie, stoliku kawowym itd. Nie będziesz szukać czegoś żółtego na wiatraku na suficie, gdyż wiesz, że klucze na ogół nie znajdują się w takich miejscach. Poszukiwanie żółtego przedmiotu o określonym rozmiarze w niektórych miejscach, a nie w innych ma charakter odgórny - jest pod twoją kontrolą i wynika z twojego doświadczenia.
Innymi słowy: wrażenia zmysłowe to proces fizyczny, spostrzeganie zaś to proces psychologiczny. Na przykład gdy wchodzisz do kuchni i czujesz słodki zapach piekących się w piekarniku bułeczek cynamonowych, za wrażenia zmysłowe odpowiadają receptory węchowe wykrywające zapach cynamonu, ale spostrzeganie to na przykład „Mmm, pachnie jak bułeczki, które babcia piekła, gdy wszyscy zjeżdżali się na święta”.
Choć dla spostrzegania niezbędne są wrażenia zmysłowe, to nie wszystkie odbierane przez narządy zmysłów wrażenia prowadzą do spostrzegania. W rzeczywistości często nie spostrzegamy bodźców, które pozostają względnie stałe przez długi czas. Nazywamy to adaptacją sensoryczną (ang. ). Wyobraź sobie, że wchodzisz do sali ze starym zegarem ściennym. Na początku słyszysz jego tykanie, ale gdy zaczynasz rozmawiać z innymi studentami lub słuchasz, jak profesor wita grupę, twoja świadomość przestaje rejestrować tykanie. Zegar nadal tyka i ta informacja wciąż wpływa na receptory twojego układu słuchowego. Fakt, że już nie spostrzegasz dźwięku, to właśnie adaptacja sensoryczna – pokazuje to, że wrażenia zmysłowe i spostrzeganie to różne zjawiska, choć powiązanie między nimi jest bliskie.
Istnieje pewien czynnik, który wpływa na wrażenia zmysłowe i spostrzeganie: to uwaga. Uwaga odgrywa istotną rolę w określaniu, co jest wrażeniem zmysłowym, a co jest spostrzegane. Wyobraź sobie, że jesteś na przyjęciu, wokół rozbrzmiewają muzyka, rozmowy i śmiech. Wdajesz się w ciekawą dyskusję z przyjacielem i zupełnie nie zwracasz uwagi na szum wokół. Gdyby ktoś przerwał wam rozmowę i zapytał o piosenkę, która właśnie się skończyła, najpewniej nie będziesz w stanie odpowiedzieć na to pytanie.
Jedna z najciekawszych demonstracji znaczenia uwagi w postrzeganiu otoczenia pochodzi ze słynnego badania przeprowadzonego przez Daniela Simonsa i Christophera Chabrisa (1999). W tym badaniu uczestnicy oglądali trwające około minuty wideo z ludźmi ubranymi na biało i czarno, podającymi sobie piłkę do koszykówki. Uczestników poproszono, aby policzyli, ile razy drużyna w białych strojach podała piłkę. W trakcie filmu między zawodnikami chodziła osoba ubrana w czarny strój goryla. Prawie połowa osób, które oglądały film, jej nie zauważyła, choć była wyraźnie widoczna przez dziewięć sekund. Uczestnicy byli tak skupieni na liczeniu podań białej drużyny, że zignorowali dopływ pozostałych informacji wzrokowych. Niezauważenie czegoś, co jest doskonale widoczne, z powodu braku uwagi to tak zwana ślepota pozauwagowa (ang. ).
W podobnym eksperymencie naukowcy badali ślepotę pozauwagową, prosząc uczestników o obserwowanie obrazów poruszających się po ekranie komputera. Badani mieli skupiać się albo na białych, albo na czarnych obiektach, ignorując drugi kolor. Gdy na ekranie pojawił się czerwony krzyż, mniej więcej jedna trzecia uczestników badania go nie zauważyła () (Most et al., 2000).
Motywacja także może wpływać na spostrzeganie. Pewnie znasz taką sytuację: czekasz na bardzo ważny telefon, idziesz pod prysznic i wydaje ci się, że słyszysz dzwonek, ale okazuje się, że telefon wcale nie dzwonił. Jeśli tak, to wiesz, jak motywacja, aby wykryć istotny bodziec, może zmienić naszą zdolność do odróżnienia faktycznego bodźca zmysłowego od szumu tła. O zdolności identyfikacji bodźca występującego w szumie mówi tak zwana teoria detekcji sygnałów (ang. ). Pozwala ona także wyjaśnić, dlaczego matkę budzi najcichsze kwilenie dziecka, ale nie inne dźwięki, które słyszy podczas snu. Teoria detekcji sygnałów ma praktyczne zastosowania na przykład dla zwiększania dokładności kontrolerów ruchu lotniczego. Kontrolerzy muszą być w stanie wykryć samoloty wśród wielu sygnałów (pulsujących punktów) widocznych na ekranie radaru i monitorować te samoloty, gdy poruszają się po niebie. W rzeczywistości oryginalna praca badacza, który stworzył teorię detekcji sygnałów, skupiała się na poprawie czujności kontrolerów ruchu lotniczego na pulsujące sygnały radaru oznaczające samoloty (Swets, 1964).
Na spostrzeganie mogą też wpływać nasze przekonania, wartości, uprzedzenia, oczekiwania i doświadczenie życiowe. Jak okaże się później w tym rozdziale, osoby pozbawione widzenia obuocznego w krytycznych okresach rozwoju mają problem ze spostrzeganiem głębi (Fawcett et al., 2005). Wspólne doświadczenia ludzi z danym kontekstem kulturowym mogą mieć duży wpływ na spostrzeganie. Na przykład Marshall Segall, Donald Campbell oraz Melville Herskovits (1963) opublikowali wyniki wielonarodowego badania, w którym pokazali, że osoby z kultur zachodnich są bardziej podatne na określone rodzaje złudzeń wzrokowych niż osoby z kultur niezachodnich, a w stosunku do niektórych innych złudzeń jest odwrotnie. Jednym z takich złudzeń, na które bardziej podatni są ludzie z kultur zachodnich, jest złudzenie Müllera-Lyera (ang. ) (): wydaje się, że linie mają różne długości, ale tak naprawdę są tak samo długie.
Te różnice w spostrzeganiu były spójne z różnicami w rodzajach cech środowiska, jakie ludzie z danego kontekstu kulturowego napotykają w życiu codziennym. Na przykład ludzie z kultur zachodnich doświadczają kontekstu budynków z prostymi liniami, co w badaniu Segalla nazwano światem stolarskim (ang. ) – zbudowanym z prostopadłościanów (Segall et al., 1966). Dla odmiany ludzie z kultur niezachodnich, bez postrzegania „stolarskiego”, na przykład lud Zulusów z Południowej Afryki, gdzie wioski składają się z okrągłych chat ustawionych w okręgi, są mniej podatni na to złudzenie (Segall et al., 1999). Czynniki kulturowe wpływają nie tylko na wzrok. Badania wykazały, że zdolność identyfikowania zapachu i tego, w jakim stopniu jest on przyjemny, różni się dla różnych kultur (Ayabe-Kanamura et al., 1998).
Dzieci opisywane przez psychologów jako „poszukiwacze wrażeń” z większym prawdopodobieństwem preferowały intensywne smaki wytrawne (Liem et al., 2004), co sugeruje, że niektóre aspekty osobowości mogą wpływać na spostrzeganie, będące podstawą preferencji. Co więcej, osoby z pozytywnym podejściem do potraw ze zmniejszoną zawartością tłuszczu z większym prawdopodobieństwem ocenią wyżej smak potraw oznaczonych jako potrawy z obniżoną zawartością tłuszczu niż osoby, które podchodzą mniej pozytywnie do takich produktów (Aaron et al., 1994).
### Podsumowanie
Wrażenia zmysłowe występują, gdy receptory wykryją bodziec zmysłowy. Spostrzeganie wiąże się z organizacją, interpretacją i świadomym doświadczaniem wrażeń zmysłowych. Wszystkie układy zmysłowe mają progi absolutne i różnicowe, oznaczające odpowiednio minimalne natężenie bodźca niezbędne do jego wykrycia w 50% przypadków oraz różnicy między nimi. Adaptacja sensoryczna, uwaga selektywna i teoria detekcji sygnałów mogą pomóc wyjaśnić, co jest spostrzegane, a co nie. Dodatkowo na nasze spostrzeganie wpływa wiele czynników, w tym motywacja, przekonania, wartości, uprzedzenia, kultura i doświadczenie życiowe.
### Pytania sprawdzające
### Myśl krytycznie
### Pytanie do pracy własnej
|
# Wrażenia zmysłowe i spostrzeganie
## Fale i długości fal
Bodźce wzrokowe i słuchowe docierają do nas w postaci fal. Choć te dwa rodzaje bodźców bardzo różnią się pod względem budowy, to przebiegi fal mają pewne cechy wspólne, które są szczególnie ważne dla spostrzegania wzrokowego i słuchowego. W tym rozdziale opiszemy fizyczne własności fal, a także związane z nimi doświadczenia percepcyjne.
### Amplituda i długość fali
Dwie fizyczne charakterystyki fali to amplituda i długość fali (). Amplituda (ang. ) fali to odległość od linii środkowej do górnego punktu grzbietu (ang. ) lub od linii środkowej do dolnego punktu wgłębienia (doliny (ang. ). Długość fali (ang. ) odnosi się do długości fali mierzonej od jednego szczytu do drugiego.
Długość fali bezpośrednio wiąże się z częstotliwością danego przebiegu fal. Częstotliwość (ang. ) określa, ile fal przechodzi przez dany punkt w określonym czasie i często wyrażana jest w hercach (ang. ) (Hz), czyli cyklach na sekundę. Fale o większej długości mają mniejszą częstotliwość, a fale o mniejszej długości mają większą częstotliwość ().
### Fale świetlne
Światło widzialne (ang. ) to część większego widma elektromagnetycznego (ang. ), którą możemy zobaczyć. Jak pokazuje , widmo elektromagnetyczne obejmuje całe promieniowanie elektromagnetyczne, jakie występuje w środowisku, w tym promieniowanie gamma, fale rentgenowskie, światło ultrafioletowe, widzialne, podczerwone, mikrofale i fale radiowe. Widmo widzialne dla człowieka to fale o długości w zakresie od 380 do 740 nm. To bardzo niewiele, ponieważ nanometr (nm) to miliardowa część metra. Inne gatunki zwierząt mogą wykrywać inne zakresy widma elektromagnetycznego. Na przykład pszczoły widzą promieniowanie ultrafioletowe (Wakakuwa et al., 2007), a niektóre węże, jak grzechotniki, oraz niektóre owady wykrywają promieniowanie podczerwone.
U ludzi długość fali świetlnej wiąże się ze spostrzeganiem koloru (). W obrębie widma widzialnego doświadczanie koloru czerwonego jest wywoływane w naszym oku i mózgu przez fale długości około 640 nm. Zieleń jest falą około 500 nm, a fale mające około 450 nm długości rejestrujemy jako barwę fioletową. Fal dłuższych niż czerwona oraz fal krótszych niż fioletowa po prostu nie widzimy. Doświadczanie jasności i natężenia barw przez człowieka jest procesem dość skomplikowanym i opisywanym jakościowo. Można je powiązać z amplitudą fali (im większa amplituda fal, tym jaśniejszy widzimy obraz), jednak będzie to zależność opisana z dużym przybliżeniem. Precyzyjny termin definiujący to zjawisko ilościowo jest używany przez inżynierów i nosi nazwę „natężenia światła”; stosuje się go np. do opisu światła emitowanego przez lasery wykorzystywane w przemyśle.
### Fale dźwiękowe
Podobnie jak w przypadku fal świetlnych nasze postrzeganie dźwięku jest ściśle związane z fizycznymi właściwościami fal dźwiękowych. Fale dźwiękowe o wysokiej częstotliwości są postrzegane jako dźwięki wysokie, fale dźwiękowe o niskiej częstotliwości zaś jako niskie dźwięki. Zakres słyszalny częstotliwości dźwięku wynosi 20-20 000 Hz, przy czym najbardziej wrażliwi jesteśmy na dźwięki ze środka tego zakresu.
Podobnie jak w przypadku światła widzialnego zakres słyszalności fal dźwiękowych jest różny dla różnych gatunków zwierząt. Na przykład kurczęta mają bardzo ograniczony zakres słyszalności: od 125 do 2000 Hz. Myszy słyszą dźwięki o częstotliwości od 1000 do 91 000 Hz, a wieloryby bieługi od 1000 do 123 000 Hz. Psy i koty domowe słyszą dźwięki w zakresie odpowiednio 70–45 000 Hz i 45–64 000 Hz (Strain, 2003).
Głośność konkretnego dźwięku jest blisko powiązana z amplitudą fali dźwiękowej. Wyższe amplitudy oznaczają głośniejszy dźwięk. Głośność mierzona jest w decybelach (ang. ) (dB), w logarytmicznej skali natężenia dźwięku. Typowa rozmowa odpowiada głośności około 60 dB; koncert rockowy może mieć głośność nawet 120 dB (). Szept w odległości 1,5 m lub szum liści to dźwięk na granicy naszego zakresu słyszalności; dźwięki takie jak odgłosy klimatyzacji okiennej, normalnej rozmowy czy nawet ruchu na ulicy są w zakresie tolerancji. Jednak w zakresie od około 80 dB do 130 dB istnieje ryzyko uszkodzenia słuchu: to dźwięk robota kuchennego, kosiarki elektrycznej, ciężarówki (z odległości 7,5 m), przejazdu metra (z odległości 6 m), muzyki rockowej na żywo i pracującego młota pneumatycznego. Wartość progowa wywołująca ból to około 130 dB, jest to dźwięk wydawany przez startujący odrzutowiec lub wystrzał z rewolweru (Dunkle, 1982).
Nasza percepcja głośności konkretnej fali dźwiękowej zależy od jej amplitudy, czyli im wyższa amplituda, tym głośniejszy jest dźwięk. Gdy jednak będziemy słuchać różnych dźwięków, które mają identyczną amplitudę, okaże się, że jedne dźwięki odbieramy jako głośniejsze, a inne jako cichsze.
Oczywiście różne instrumenty muzyczne mogą zagrać ten sam ton z taką samą głośnością, a mimo to brzmią zupełnie inaczej. Nazywamy to tembrem dźwięku. Tembr (ang. ) odnosi się do czystości dźwięku i wpływa na niego złożona interakcja częstotliwości, amplitudy i czasu nadejścia fal dźwiękowych.
### Summary
Światło i dźwięk to fale o określonych właściwościach fizycznych, takich jak amplituda, długość. Długość fali i częstotliwość są odwrotnie proporcjonalne, czyli dłuższe fale mają mniejszą częstotliwość, a krótsze fale mają większą częstotliwość. W układzie wzrokowym długość fali światła wiąże się z kolorem, a amplituda z jasnością. W układzie słuchowym częstotliwość dźwięku wiąże się z jego wysokością, a amplituda z głośnością.
### Review questions
### Critical thinking
### Pytanie do pracy własnej
|
# Wrażenia zmysłowe i spostrzeganie
## Wzrok
Układ wzrokowy buduje umysłową reprezentację świata, który jest wokół nas (). Dzięki temu możemy poruszać się z powodzeniem w przestrzeni fizycznej i wchodzić w interakcje z istotnymi osobami i przedmiotami w naszym środowisku. Ten rozdział opisuje podstawowe cechy anatomii i funkcjonowanie układu wzrokowego. Dodatkowo omówimy naszą zdolność postrzegania kolorów i głębi.
### Anatomia układu wzrokowego
Głównym narządem wzroku (ang. ) jest oko (). Fale świetlne przechodzą przez rogówkę i wchodzą do oka przez źrenicę. Rogówka (ang. ) to przezroczysta powłoka oka. Pełni funkcję bariery między wewnętrzną częścią oka a światem zewnętrznym i bierze udział w skupianiu fal świetlnych, które wchodzą do wnętrza oka. Źrenica (ang. ) to niewielki otwór w oku, przez który przechodzi światło. Wielkość źrenicy może się zmieniać w zależności od natężenia światła i od pobudzenia emocjonalnego. Źrenice rozszerzają się, gdy doświadczamy pozytywnych emocji lub przebywamy w otoczeniu o niskim natężeniu światła. Natomiast zwężone źrenice są naszą reakcją na silne światło i negatywne emocje. Zmiany wielkości źrenicy kontrolują mięśnie połączone z tęczówką (ang. ), czyli kolorową częścią oka.
Po przedostaniu się przez źrenicę światło przechodzi przez soczewkę (ang. ), zakrzywioną, przezroczystą strukturę, która skupia fale świetlne. Soczewka połączona jest z mięśniami zmieniającymi jej kształt, dzięki czemu możliwe jest skupianie światła pochodzącego od przedmiotów znajdujących się w różnej odległości. U osoby z prawidłowym widzeniem soczewka dokładnie skupia obrazy na niewielkim wgłębieniu w tylnej części oka, zwanym plamką żółtą (ang. ). Jest ona częścią siatkówki (ang. ), wrażliwej na światło wyściółki oka. Plamka żółta zawiera liczne, ściśle ułożone komórki fotoreceptorowe (). W naszych oczach znajdują się dwa rodzaje komórek fotoreceptorowych [fotoreceptory (ang. )]: czopki i pręciki. Czopki (ang. ) to wyspecjalizowany rodzaj fotoreceptorów, który działa najskuteczniej w jasnym świetle. Są bardzo wrażliwe na drobne szczegóły i zapewniają dużą rozdzielczość przestrzenną. Biorą też bezpośredni udział w postrzeganiu przez ludzi kolorów.
Podczas gdy czopki są skoncentrowane w plamce żółtej, pręciki (komórki pręcikonośne) (ang. ) są rozmieszczone w pozostałej części siatkówki. To wyspecjalizowane fotoreceptory, które pracują dobrze przy słabym oświetleniu i nie zapewniają takiej rozdzielczości przestrzennej ani widzenia barw jak czopki, ale biorą udział w widzeniu w warunkach niewielkiego oświetlenia, a także w postrzeganiu ruchu w peryferycznym polu widzenia.
Wszyscy doświadczamy różnic w czułości pręcików i czopków na światło, gdy przechodzimy z miejsca dobrze oświetlonego do zaciemnionego. Wyobraź sobie, że idziesz obejrzeć najnowszy film w jasny, letni dzień. Gdy wchodzisz z jasno oświetlonego lobby do ciemnej sali kinowej, masz problem z dostrzeżeniem czegokolwiek. Po kilku chwilach zaczynasz przyzwyczajać się do ciemności i widzisz wnętrze sali. W jasnym otoczeniu funkcje wzroku były zdominowane głównie przez aktywność czopków. Po przejściu do ciemnego otoczenia dominuje aktywność pręcików, ale występuje pewne opóźnienie w przejściu między tymi fazami. Jeśli pręciki nie przetwarzają światła w impulsy nerwowe tak łatwo i wydajnie, jak powinny, mamy do czynienia z trudnościami w widzeniu przy słabym oświetleniu, a schorzenie to nazywamy „ślepotą zmierzchową” (pot. „kurzą ślepotą”).
Pręciki i czopki są połączone (za pośrednictwem kilku interneuronów) z komórkami zwojowymi siatkówki. Aksony komórek zwojowych siatkówki zbiegają się i wychodzą z tylnej części oka, tworząc nerw wzrokowy (ang. ). Nerw wzrokowy przenosi informacje wzrokowe z siatkówki do mózgu. W polu widzenia znajduje się pewien punkt zwany plamką ślepą (ang. ): jeśli światło z małego obiektu zostanie skupione na plamce ślepej, to nie widzimy go. Nie mamy świadomości istnienia plamki ślepej z dwóch powodów. Po pierwsze, każde oko nieco inaczej postrzega pole widzenia: dlatego plamki ślepe nie nakładają się. Po drugie, nasz układ wzrokowy uzupełnia obraz w plamce ślepej, więc choć nie możemy reagować na informacje wzrokowe pojawiające się w tej części pola widzenia, nie jesteśmy świadomi, że te informacje nie są dostępne.
Nerwy wzrokowe wychodzące z każdego oka krzyżują się tuż poniżej tkanki mózgowej w punkcie zwanym skrzyżowaniem wzrokowym (ang. ). Jak przedstawia , skrzyżowanie wzrokowe to struktura w kształcie litery X, która znajduje się tuż poniżej kory mózgowej w przedniej części mózgu. W punkcie skrzyżowania wzrokowego informacje z prawego pola widzenia (które pochodzą z obojga oczu) są przesyłane do lewej strony mózgu, a informacje z lewego pola widzenia są przesyłane do prawej części mózgu.
Gdy informacje wzrokowe trafią do mózgu, są przesyłane za pośrednictwem licznych struktur do płata potylicznego w tylnej części mózgu, gdzie rozpoczyna się ich przetwarzanie. Informacje wzrokowe mogą być przetwarzane w dwóch równoległych drogach (grzbietowej i brzusznej), które można ogólnie opisać jako droga „co” i droga „gdzie/jak”. Droga „co” bierze udział w rozpoznawaniu i identyfikacji przedmiotów, droga „gdzie/jak” zaś zajmuje się lokalizacją w przestrzeni i możliwością interakcji z danym bodźcem wzrokowym (Milner i Goodale, 2008; Ungerleider i Haxby, 1994). Na przykład gdy widzisz piłkę toczącą się po ulicy, droga „co” identyfikuje obiekt, natomiast droga „gdzie/jak” identyfikuje położenie lub ruch w przestrzeni.
### Postrzeganie koloru i głębi
Nie widzimy świata w czerni i bieli. Nie widzimy go też jako przestrzeni dwuwymiarowej (2D), czyli płaskiej (tylko wysokość i szerokość, bez głębokości). Przyjrzyjmy się teraz, jak działa widzenie barwne i jak postrzegamy trzy wymiary (wysokość, szerokość i głębokość).
### Widzenie barwne
Osoby widzące prawidłowo mają trzy różne rodzaje czopków, które odpowiadają za widzenie barwne (ang. ). Każdy z tych rodzajów czopków jest najbardziej czuły na odmienne długości fal świetlnych. Zgodnie z teorią trichromatyczną (teorią trzech barw), (ang. ), którą przedstawia , wszystkie kolory w widmie można uzyskać, łącząc czerwień, zieleń i kolor niebieski. Spośród trzech rodzajów czopków każdy reaguje na jeden z tych kolorów.
Teoria trichromatyczna to nie jedyna istniejąca teoria — drugą znaczącą teorią widzenia barwnego jest tak zwana teoria procesów przeciwstawnych (ang. ). Według tej teorii barwa jest zakodowana w parach przeciwnych: czarny – biały, żółty – niebieski i zielony – czerwony. Podstawowym założeniem jest to, że niektóre komórki układu wzrokowego są wzbudzane przez jeden z kolorów przeciwstawnych i hamowane przez drugi kolor z pary. Czyli komórki wzbudzane światłem o długości odpowiadającej kolorowi zielonemu będą hamowane przez światło czerwone i odwrotnie. Jedną z implikacji teorii przetwarzania przeciwstawnego jest to, że nie spostrzegamy koloru zielonkawoczerwonego i żółtawoniebieskiego. Inną implikacją jest fakt, że spostrzeganie prowadzi do powstawania powidoków negatywnych (obrazów następczych). Powidok (ang. ) opisuje kontynuację wrażenia wzrokowego po usunięciu bodźca. Na przykład gdy zerkniesz na Słońce, a następnie odwrócisz wzrok, nadal możesz widzieć plamę światła, choć bodziec (światło słoneczne) został usunięty. Gdy bodziec wiąże się z kolorem, pary kolorów zidentyfikowane w teorii procesów przeciwstawnych prowadzą do powstawania powidoków w negatywie. Możesz przetestować tę koncepcję za pomocą flagi, którą przedstawia .
Jednak te dwie teorie — teoria trichromatyczna i teoria procesów przeciwstawnych — nie wykluczają się wzajemnie. Badania wykazały, że dotyczą innych poziomów układu wzrokowego. W przypadku przetwarzania wzrokowego na siatkówce zastosowanie ma teoria trzech barw: czopki reagują na trzy różne długości fal świetlnych, które odpowiadają kolorom: czerwonemu, niebieskiemu i zielonemu. Ale gdy sygnał przemieści się poza siatkówkę i jest w drodze do mózgu, komórki reagują w sposób zgodny z teorią procesów przeciwstawnych (Land, 1959; Kaiser, 1997).
### Postrzeganie głębi
Nasza zdolność do postrzegania zależności przestrzennych w przestrzeni trójwymiarowej (3D) to tak zwane postrzeganie głębi (ang. ). Dzięki postrzeganiu głębi możemy określić położenie przedmiotów jako pojawiających się przed lub za innymi elementami, powyżej, poniżej lub obok innych elementów.
Nasz świat jest trójwymiarowy, więc logiczne jest, że nasza psychiczna reprezentacja świata ma właściwości trójwymiarowe. Wykorzystujemy różne wskazówki w danej scenie wzrokowej, aby określić nasze poczucie głębi. Niektóre z tych wskazówek to dwuoczne wskazówki (ang. ), oparte na wykorzystaniu obojga oczu. Przykładem takiej wskazówki dwuocznej jest rozbieżność w widzeniu dwuocznym (widzenie stereoskopowe, binokularne) (ang. ), czyli nieco inny obraz świata odbierany przez każde z naszych oczu. Aby doświadczyć tej różnicy w obrazie, możesz wykonać proste ćwiczenie: wyciągnij przed siebie rękę, wyprostuj jeden z palców i skup na nim wzrok. Teraz, nie ruszając głową, zamknij lewe oko, potem je otwórz i zamknij prawe oko, nie ruszając głową. Zauważysz, że palec jakby przesuwa się, gdy zmieniasz oko, którym patrzysz, właśnie dlatego, że każde oko widzi go trochę inaczej.
Na tej samej zasadzie działają filmy 3D: specjalne okulary pozwalają, aby dwa trochę różniące się od siebie obrazy były widziane niezależnie przez lewe i prawe oko. Gdy oglądasz film i twój mózg przetwarza te informacje, masz wrażenie, że w twoją stronę biegnie zwierzę lub osoba.
Choć aby doświadczyć głębi w trójwymiarowym świecie, polegamy na wskazówkach obuocznych, możemy też postrzegać głębię na obrazach wyświetlonych na płaskim ekranie 2D. Przypomnij sobie widziane obrazy i zdjęcia, Wychwytujesz głębię na tych obrazach, choć bodziec wzrokowy jest dwuwymiarowy. W trakcie tego procesu polegamy na wielu wskazówkach jednoocznych (ang. ), czyli takich, które wymagają użycia tylko jednego oka. Jeśli uważasz, że nie można dostrzec głębi tylko jednym okiem, zauważ, że nie wpadasz na przedmioty, gdy idziesz, patrząc jednym okiem — tak naprawdę wskazówek jednoocznych jest więcej niż obuocznych.
Przykładem wskazówki jednoocznej jest to, co nazywamy perspektywą linearną. Perspektywa linearna (zbieżna) (ang. ) dotyczy faktu, że postrzegamy głębię, gdy widzimy dwie równoległe linie, które zdają się zbiegać na obrazie (). Inne jednooczne wskazówki dotyczące głębi to częściowe nałożenie przedmiotów, ich względna wielkość i bliskość horyzontu.
### Podsumowanie
Fale świetlne przechodzą przez rogówkę i wnikają do oka przez źrenicę. Soczewka oka skupia światło tak, aby obraz został zogniskowany w obszarze siatkówki zwanym plamką żółtą. Plamka żółta zawiera czopki, które zapewniają wysoki poziom ostrości widzenia i najlepiej działają w warunkach dobrego oświetlenia. Pręciki znajdują się w całej siatkówce i działają najlepiej w warunkach słabego oświetlenia. Informacje wzrokowe opuszczają oko przez nerw wzrokowy. Informacje z każdego pola widzenia są przesyłane do przeciwnej strony mózgu w skrzyżowaniu wzrokowym. Przechodzą następnie przez liczne obszary w mózgu, docierając ostatecznie do płata potylicznego, gdzie rozpoczyna się ich przetwarzanie.
Postrzeganie barw opisują dwie teorie. Teoria trichromatyczna zakłada, że trzy różne grupy czopków są dostrojone do nieco innych długości fal świetlnych i że to kombinacja aktywności tych rodzajów czopków prowadzi do widzenia przez nas kolorów. Teoria procesów przeciwstawnych w widzeniu barwnym zakłada, że kolor jest przetwarzany w parach przeciwstawnych i daje efekt powidoków negatywnych. Głębię postrzegamy dzięki kombinacji wskazówek obuocznych i jednoocznych.
### Pytania sprawdzające
### Myśl krytycznie
### Pytanie do pracy własnej
|
# Wrażenia zmysłowe i spostrzeganie
## Słuch
Nasz układ słuchowy przekształca drgania powietrza w dźwięki. Przekłada się to na naszą zdolność słyszenia dźwięków natury, doceniania piękna muzyki oraz komunikowania się ze sobą za pośrednictwem mowy. W tym rozdziale omówimy podstawowe cechy anatomiczne i funkcje układu słuchowego. Poznamy sposób przekształcania bodźca zmysłowego w impulsy nerwowe, dowiemy się, gdzie w mózgu te informacje są przetwarzane, jak postrzegamy wysokość dźwięku oraz dlaczego wiemy, skąd dźwięk pochodzi.
### Anatomia układu słuchowego
Ucho można podzielić na trzy części: zewnętrzne, środkowe i wewnętrzne. Ucho zewnętrzne składa się z małżowiny usznej (ang. ), czyli widocznej części ucha, wystającej z głowy, z kanału słuchowego oraz błony bębenkowej (ang. ). Ucho środkowe zawiera trzy maleńkie kości zwane kosteczkami słuchowymi (ang. ), czyli młoteczek (ang. ) (łac. ), kowadełko (ang. ) (łac. ) i strzemiączko (ang. ) (łac. ). Ucho wewnętrzne zawiera strukturę zwaną ślimakiem oraz kanały półkoliste biorące udział w utrzymaniu równowagi i ruchu (układ przedsionkowy). Zwój ślimakowy (ślimak) (ang. ) to wypełniona płynem struktura w kształcie ślimaka, która zawiera czuciowe komórki receptorowe (komórki włoskowate) układu słuchowego ().
Fale dźwiękowe przemieszczają się w kanale słuchowym i uderzają w błonę bębenkową, wywołując jej wibracje. Te wibracje powodują ruch trzech kosteczek. Strzemiączko naciska na cienką błonę w ślimaku, zwaną okienkiem owalnym. Gdy strzemiączko naciśnie na okienko owalne, płyn wewnątrz ślimaka zaczyna się poruszać, co z kolei stymuluje komórki włoskowate (inaczej: rzęskowe, rzęsate) (ang. ), czyli słuchowe komórki receptorowe znajdujące się w uchu wewnętrznym w błonie podstawnej. Błona podstawna (ang. ) to cienki pasek tkanki w ślimaku.
Stymulacja komórek włoskowatych przez fale przenoszone przez płyn wypełniający ślimak ma charakter mechaniczny. Gdy komórki włoskowate zostaną pobudzone, generują impuls nerwowy, który przemieszcza się wzdłuż nerwu słuchowego do mózgu. Informacje słuchowe są przesyłane do wzgórka dolnego blaszki czworaczej, środkowego ciała kolankowego we wzgórzu i wreszcie do kory słuchowej w płacie skroniowym mózgu, gdzie są przetwarzane. Podobnie jak w przypadku układu wzrokowego istnieją dowody wskazujące, że informacje dotyczące rozpoznawania i lokalizacji dźwięku są przetwarzane równolegle (Rauschecker i Tian, 2000; Renier et al., 2009).
### Postrzeganie wysokości dźwięku
Różne częstotliwości fal dźwiękowych wiązane są z różnicami w naszym postrzeganiu wysokości dźwięku. Dźwięki o małej częstotliwości są niższe, a dźwięki o większej częstotliwości są wyższe. W jaki sposób układ słuchowy różnicuje wysokość dźwięku?
Zaproponowano kilka teorii opisujących postrzeganie wysokości dźwięku. Omówimy dwie z nich: teorię czasową i teorię miejsca w różnicowaniu wysokości dźwięku. Teoria czasowa (ang. ) zakłada, że częstotliwość jest kodowana przez poziom aktywności neuronu czuciowego. To oznacza, że dana komórka włoskowata generuje potencjały czynnościowe związane z określoną częstotliwością fali dźwiękowej. Choć jest to dość intuicyjne wyjaśnienie, wykrywamy tak szerokie spektrum częstotliwości (20–20 000 Hz), że częstotliwość potencjałów czynnościowych wyzwolonych przez komórki włoskowate nie mogłaby pokryć całego zakresu. Ze względu na właściwości kanałów sodowych w błonie nerwowej, biorących udział w generowaniu potencjałów czynnościowych, istnieje wartość progowa określająca maksymalne tempo wzbudzania potencjałów czynnościowych. Komórka włoskowata nie może wyzwalać potencjałów czynnościowych szybciej niż po pewnym określonym czasie (Shamma, 2001).
Teoria miejsca w różnicowaniu wysokości dźwięku (ang. ) sugeruje, że różne fragmenty błony podstawnej są wrażliwe na dźwięki o różnej częstotliwości. Dokładniej, podstawa błony podstawnej reaguje najlepiej na wysokie częstotliwości, a jej szczyt – na niskie. Dlatego komórki włoskowate znajdujące się w podstawie błony będą oznaczone jako receptory wysokich dźwięków, te zaś na jej szczycie będą receptorami niskich dźwięków (Shamma, 2001).
W rzeczywistości obie teorie wyjaśniają różne aspekty postrzegania wysokości dźwięku. Przy częstotliwościach do około 4000 Hz jasne jest, że zarówno częstotliwość potencjałów czynnościowych, jak i miejsce w błonie przyczyniają się do postrzegania wysokości dźwięku. Jednak dźwięki o dużo wyższej częstotliwości można odkodować wyłącznie za pomocą wskazówek dotyczących miejsca w błonie podstawnej (Shamma, 2001).
### Lokalizacja źródła dźwięku
Zdolność lokalizowania źródła dźwięku w środowisku to ważna funkcja zmysłu słuchu (ang. ). Zdolność ta może być rozumiana podobnie jak postrzeganie głębi w polu widzenia. Tak samo jak wskazówki obuoczne i jednooczne zapewniały informacje o głębi, tak system słuchowy wykorzystuje informacje wpadające do obojga uszu i do każdego ucha z osobna, aby lokalizować dźwięk.
Każda małżowina uszna reaguje odmiennie na napływające fale dźwiękowe, w zależności od umiejscowienia źródła dźwięku względem naszego ciała. Ta interakcja dostarcza wskazówki jednousznej, która pomaga w lokalizowaniu dźwięków pochodzących ponad, pod, przed lub za nami. Fale dźwiękowe odbierane przez oboje uszu są identyczne, zatem wskazówki jednouszne mają w tym przypadku zasadnicze znaczenie (Grothe, Pecka i McAlpine, 2010).
Z drugiej strony, wskazówki dwuuszne dostarczają informacji o lokalizacji dźwięku na osi poziomej na podstawie różnic we wzorcach wibracji błony bębenkowej pomiędzy obu uszami. Jeśli dźwięk pochodzi z lokalizacji niecentralnej, dostarcza dwa rodzaje wskazówek dwuusznych: międzyuszne różnice natężenia dźwięku i międzyuszne różnice czasu. Międzyuszna różnica natężenia dźwięku (ang. ) odnosi się do tego, że dźwięk pochodzący z twojej prawej strony ma większe natężenie w prawym uchu niż lewym z powodu osłabienia fali dźwiękowej w trakcie jej przemieszczania się przez głowę. Międzyuszna różnica czasu (ang. ) odnosi się do niewielkiej różnicy czasu, w jakim dana fala dźwiękowa dociera do każdego ucha (). Określone obszary mózgowe monitorują te różnice, aby pomóc określić, skąd na osi poziomej pochodzi dźwięk (Grothe et al., 2010).
### Ubytek słuchu
Głuchota (ang. ) to częściowa lub całkowita niezdolność słyszenia. Niektórzy ludzie rodzą się głusi, czyli występuje u nich głuchota wrodzona (ang. ). U innych dochodzi do przewodzeniowego ubytku słuchu (ang. ) spowodowanego starzeniem, predyspozycjami genetycznymi lub wpływem środowiska, w tym narażeniem na wysoki poziom dźwięku (niedosłuch indukowany hałasem, patrz ), przebyciem chorób (np. ospa lub odra) lub uszkodzeniem wywołanym toksynami (obecnymi w pewnych rozpuszczalnikach i metalach).
Biorąc pod uwagę mechaniczny charakter procesu, w trakcie którego bodziec w postaci fali dźwiękowej jest przekazywany z błony bębenkowej przez kosteczki słuchowe do okienka owalnego w ślimaku, wystąpienie pewnego stopnia niedosłuchu jest nieuniknione wraz z upływem lat. W przypadku przewodzeniowego ubytku słuchu problemy ze słuchem wiążą się z upośledzeniem drgania błony bębenkowej lub ruchu kosteczek słuchowych. Te problemy często leczy się aparatami słuchowymi, które wzmacniają docierające fale dźwiękowe, aby zwiększyć prawdopodobieństwo wzbudzenia drgań błony bębenkowej lub ruchu kosteczek słuchowych.
Gdy problem ze słuchem wiąże się z niezdolnością przekazania sygnałów nerwowych ze ślimaka do mózgu, mówimy o odbiorczym ubytku słuchu (ang. ). Jedną z chorób prowadzących do odbiorczego ubytku słuchu jest choroba Ménière’a (ang. ). Choć nie została jeszcze dobrze poznana, to wiadomo, że prowadzi do degeneracji struktur ucha wewnętrznego, co może spowodować ubytek słuchu, szumy uszne (ciągłe dzwonienie lub brzęczenie), zawroty głowy (łac. ) (uczucie wirowania) i wzrost ciśnienia w uchu wewnętrznym (Semaan i Megerian, 2011). Tego rodzaju niedosłuchu nie można leczyć aparatami słuchowymi, ale niektórzy pacjenci kwalifikują się do zabiegu wszczepienia implantu ślimakowego. Implanty ślimakowe (ang. ) to urządzenia elektroniczne składające się z mikrofonu, procesora mowy i układu elektrod. Urządzenie odbiera napływające informacje dźwiękowe i bezpośrednio stymuluje nerw słuchowy, aby przesłać je do mózgu.
### Podsumowanie
Fale dźwiękowe są przekazywane do kanału słuchowego i wywołują drgania błony bębenkowej. Te drgania powodują ruch kosteczek słuchowych. Strzemiączko naciska na okienko owalne ślimaka, co wywołuje ruch płynu w ślimaku. W efekcie komórki włoskowate znajdujące się w błonie podstawnej powiększają się, przez co wysyłają impulsy nerwowe do mózgu za pośrednictwem nerwu słuchowego.
Postrzeganie wysokości dźwięku i lokalizacja dźwięku to ważne aspekty słyszenia. Nasza zdolność do postrzegania wysokości dźwięku zależy zarówno od częstości, z jaką komórki włoskowate w błonie podstawnej wysyłają impulsy, jak i od ich położenia w błonie. W przypadku lokalizacji źródła dźwięku w środowisku wykorzystywane są zarówno wskazówki jednouszne, jak i obuuszne.
Niektóre osoby rodzą się głuche, u innych zaś ubytek słuchu może rozwinąć się z wiekiem, na skutek predyspozycji genetycznych i/lub przyczyn środowiskowych. Utrata słuchu wynikająca z braku drgania błony bębenkowej lub z braku ruchu kosteczek słuchowych to przewodzeniowy ubytek słuchu. Utrata słuchu związana z brakiem przesyłania impulsów przez nerw słuchowy do mózgu to odbiorczy ubytek słuchu.
### Pytania sprawdzające
### Myśl krytycznie
### Pytanie do pracy własnej
|
# Wrażenia zmysłowe i spostrzeganie
## Inne zmysły
Od lat wzrok i słuch wzbudzały zainteresowanie i często były przedmiotem badań naukowych. Choć nadal dużo musimy się dowiedzieć o funkcjonowaniu tych układów, rozumiemy je o wiele lepiej niż pozostałe zmysły. W tym podrozdziale omówimy zmysły chemiczne (smak i węch) oraz zmysły somatyczne (zmysł dotyku, temperatury, bólu, równowagi i położenia ciała).
### Zmysły chemiczne
Smak (ang. ) i węch (ang. ) nazywamy zmysłami chemicznymi, ponieważ właściwe dla nich receptory zmysłowe reagują na cząsteczki znajdujące się w pokarmie, który jemy, lub w powietrzu, którym oddychamy. Między zmysłami chemicznymi istnieje silna zależność: na odczuwanie smaku potrawy wpływa kombinacja jej właściwości smakowych i zapachowych.
### Smak
Powszechne jest przekonanie o istnieniu czterech podstawowych smaków: słodkiego, słonego, kwaśnego i gorzkiego. Jednak badania pokazują, że rozróżniamy co najmniej sześć rodzajów smaku. Piątym smakiem jest umami. Słowem umami (ang. ), które po japońsku oznacza „pyszny, bardzo smaczny”, opisujemy smak glutaminianu monosodowego (Kinnamon i Vandenbeuch, 2009). Istnieje też coraz więcej dowodów naukowych świadczących o tym, że mamy komórki receptorowe odpowiedzialne za wyczuwanie tłuszczu w pożywieniu (Mizushige et al., 2007).
Cząsteczki spożywanych przez nas pokarmów i napojów rozpuszczają się w ślinie i oddziałują z receptorami smaku na języku i w jamie ustnej oraz w gardle. Kubki smakowe (ang. ) to zgrupowania receptorowych komórek smakowych z podobnymi do włosków wypustkami, które wystają z centralnego pora kubka smakowego (). Kubki smakowe żyją od dziesięciu dni do dwóch tygodni, więc nawet jeśli zniszczysz część z nich, parząc sobie język, to efekt nie będzie długotrwały, bo kubki smakowe odrosną. Cząsteczki poszczególnych smaków wiążą się z receptorami w wypustkach i powodują zmiany chemiczne w komórkach czuciowych, co prowadzi do powstania impulsów nerwowych przesyłanych do mózgu za pośrednictwem różnych nerwów, w zależności od lokalizacji danego receptora. Informacje smakowe są przekazywane do rdzenia przedłużonego, wzgórza i układu limbicznego, a także do kory smakowej znajdującej się pod obszarem, w którym nakładają się płaty czołowy i skroniowy (Maffei et al., 2012; Roper, 2013).
### Zapach
Komórki receptorów węchowych (ang. ) znajdują się w błonie śluzowej w górnej części nosa. Małe włosowate wypustki tych receptorów służą jako miejsca, gdzie cząsteczki zapachowe rozpuszczone w śluzie oddziałują z receptorami chemicznymi znajdującymi się na tych wypustkach (). Gdy cząsteczka zapachowa zwiąże się z konkretnym receptorem, zmiany chemiczne w komórce powodują wysłanie sygnałów do opuszki węchowej (ang. ): jest to podobna kształtem do bulwy struktura w przedniej części płata czołowego, gdzie zaczynają się nerwy węchowe. Z opuszki węchowej informacje są wysyłane do określonych obszarów w układzie limbicznym i do pierwotnej kory węchowej, która znajduje się bardzo blisko kory smakowej (Lodovichi i Belluscio, 2012; Spors et al., 2013).
Zakres wrażliwości węchu jest różny dla różnych gatunków zwierząt. Badania sugerują, że psy potrafią u człowieka wywęszyć gwałtowny spadek stężenia glukozy we krwi, a nawet rozwijający się nowotwór (Wells, 2010). Niezwykłe zdolności węchowe psów mogą wynikać z większej liczby genów odpowiedzialnych za receptory zapachów (od 800 do 1200 genów), w porównaniu z niespełna 400, jakie występują u ludzi i innych ssaków naczelnych (Niimura i Nei, 2007). Zwierzęta o bardzo dobrze rozwiniętym węchu określamy jako makrosmatyczne, natomiast te, dla których węch jest mniej istotny – jako mikrosmatyczne. Występują także zwierzęta pozbawione zmysłu węchu, czyli anosmatyczne, jak walenie.
Wiele zwierząt reaguje na komunikaty przekazywane przez inne osobniki tego samego gatunku za pomocą feromonów (ang. ) (Wysocki i Preti, 2004). Do tego rodzaju komunikacji dochodzi również pomiędzy gatunkami, np. w przypadku feromonów markujących. Komunikacja za pośrednictwem feromonów w obrębie gatunku często wiąże się z przekazaniem informacji o rozrodczym potencjale ewentualnego partnera/partnerki. Na przykład gdy samica szczura jest gotowa do krycia, wydziela feromony mające przyciągnąć uwagę samców znajdujących się w pobliżu. Aktywacja feromonowa stanowi zatem jeden z istotnych elementów wzbudzania zachowań seksualnych u samców szczurów (Furlow, 1996, 2012; Purvis i Haynes, 1972; Sachs, 1997). Istnieje też wiele badań (i kontrowersji) dotyczących ludzkich feromonów (Comfort, 1971; Russell, 1976; Wolfgang-Kimball, 1992; Weller, 1998).
### Dotyk, termocrepcja i nocycepcja
W skórze znajdują się receptory, które reagują na rozmaite bodźce związane z dotykiem (). Te receptory to ciałka Meissnera (ciałka dotykowe), ciałka Vatera-Paciniego (ciałka blaszkowate), dyski Merkla i ciałka Ruffiniego. Ciałka Meissnera (ang. ) reagują na nacisk i wibracje o niskiej częstotliwości, a ciałka Vatera–Paciniego (ang. ) wykrywają lekki nacisk i wibracje o wyższych częstotliwościach. Dyski Merkla (ang. ) reagują na lekki nacisk, ciałka Ruffiniego (ang. ) zaś wykrywają rozciąganie (Abraira i Ginty, 2013).
Oprócz receptorów funkcje czuciowe w skórze pełnią także liczne wolne zakończenia nerwowe. Reagują one na różne rodzaje bodźców dotykowych i służą jako receptory czuciowe dla zmysłów termorecepcji (ang. ) (czucia temperatury) oraz nocycepcji (odczuwanie bólu) (ang. ) (sygnały wskazujące potencjalne uszkodzenie i być może ból) (Garland, 2012; Petho i Reeh, 2012; Spray, 1986). Informacje zmysłowe pochodzące od receptorów i wolnych zakończeń nerwowych przekazywane są w górę rdzenia kręgowego i przesyłane do określonych obszarów rdzenia przedłużonego, wzgórza i wreszcie do kory somatyczno-sensorycznej, znajdującej się w zakręcie zaśrodkowym płata ciemieniowego.
### Postrzeganie bólu
Ból to nieprzyjemne doznanie zawierające składowe zarówno fizyczne, jak i psychiczne. Odczuwanie bólu jest mechanizmem adaptacyjnym, ponieważ dzięki niemu dowiadujemy się o urazie i motywuje nas do odsunięcia się od przyczyny urazu. Ponadto odczuwanie bólu sprawia, że prawdopodobieństwo dodatkowego urazu jest mniejsze, gdyż bolące części ciała bardziej oszczędzamy.
Ból sygnalizujący uszkodzenie tkanki to tak zwany ból zapalny (ang. ). Natomiast ból wynikający z uszkodzenia neuronów w obwodowym lub ośrodkowym układzie nerwowym jest nazywany bólem neuropatycznym (ang. ). Nie w każdym przypadku można usunąć źródło bólu. Należy w takiej sytuacji ulżyć cierpieniu chorego. Liczne opcje leczenia bólu tworzą pełne spektrum: od terapii relaksacyjnej, przez stosowanie leków przeciwbólowych, po głęboką stymulację mózgu. Najskuteczniejsza opcja terapeutyczna dla danej osoby będzie zależeć od wielu czynników, w tym od nasilenia i uporczywości bólu, a także od wszelkich występujących u niej schorzeń medycznych i psychologicznych.
Niektóre osoby rodzą się bez zdolności odczuwania bólu. To bardzo rzadkie zaburzenie genetyczne zwane wrodzoną niewrażliwością na ból (ang. ) [inaczej analgezja wrodzona (ang. )]. Choć osoby z analgezją wrodzoną mogą wykrywać różnice temperatury i nacisku, to nie czują bólu. W efekcie często dochodzi u nich do poważnych urazów. Dzieci często poważnie kaleczą jamę ustną i język, ponieważ wciąż się mocno gryzą. Co nie jest zaskakujące, prognozowany czas przeżycia osób z tym zaburzeniem jest o wiele krótszy niż osób bez tej dysfunkcji w związku z częstymi urazami i wtórnymi zakażeniami miejsc dotkniętych urazem (U.S. National Library of Medicine, 2013).
### Zmysł równowagi, propriocepcja i kinestezja
Zmysł równowagi (ang. ), zwany także przedsionkowym, wpływa na naszą zdolność utrzymania równowagi i pozycji ciała. Jak pokazuje , główne narządy czuciowe (łagiewka, woreczek i trzy kanały półkoliste) tego układu znajdują się obok ślimaka w uchu wewnętrznym. Narządy układu przedsionkowego wypełnione są płynem i mają komórki włosowate (podobne do komórek włoskowatych występujących w układzie słuchowym), które reagują na ruch głowy i siłę ciążenia. Pod wpływem stymulacji komórki włoskowate wysyłają sygnały do mózgu za pośrednictwem nerwu przedsionkowego. Choć w normalnych warunkach nie jesteśmy świadomi informacji zmysłowych pochodzących od układu przedsionkowego, jego znaczenie staje się oczywiste, gdy cierpimy na chorobę lokomocyjną lub zawroty głowy związane z zakażeniami ucha wewnętrznego (Khan i Chang, 2013).
Poza zachowaniem równowagi układ przedsionkowy gromadzi informacje niezbędne do kontrolowania ruchu i odruchów, wywołujących zmiany w różnych częściach naszego ciała, kompensujące zmiany jego położenia. Dlatego zarówno zmysł propriocepcji (ang. ) (percepcja pozycji ciała), jak i kinestezji (ang. ) (percepcja ruchu ciała w przestrzeni) wchodzą w interakcję z informacjami dostarczanymi przez zmysł równowagi.
Te układy zmysłowe gromadzą też informacje pochodzące z receptorów reagujących na rozciągnięcie i napięcie w mięśniach, stawach, skórze i ścięgnach (Lackner i DiZio, 2005; Proske, 2006; Proske i Gandevia, 2012). Informacje proprioceptywne i kinestetyczne są przekazywane do mózgu przez rdzeń kręgowy. Pewne obszary korowe, a także móżdżek, odbierają informacje od narządów czuciowych układów proprioceptywnego i kinestetycznego oraz wysyłają je do nich.
### Podsumowanie
Smak i węch to zmysły chemiczne wykorzystujące receptory znajdujące się głównie na języku i w nosie, pobudzane przez cząsteczki – odpowiednio: smakowe i zapachowe – do przesyłania informacji do mózgu w celu ich przetworzenia. Nasza zdolność do postrzegania zarówno dotyku, temperatury, jak i bólu wiąże się z wieloma receptorami i wolnymi zakończeniami nerwowymi, które znajdują się w skórze i różnych tkankach organizmu. Zmysł równowagi pomaga nam zachować równowagę dzięki reakcji komórek włoskowatych w łagiewce, woreczku i kanałach półkolistych, reagują one na zmiany położenia głowy i sił oddziałujących na nasz organizm, np. siły ciążenia czy siły odśrodkowej. Nasze układy proprioceptywny i kinestetyczny dostarczają informacji o postawie ciała i o jego ruchu za pośrednictwem receptorów wykrywających rozciągnięcie i naprężenie mięśni, stawów, ścięgien i skóry.
### Pytania sprawdzające
### Myśl krytycznie
### Pytanie do pracy własnej
|
# Wrażenia zmysłowe i spostrzeganie
## Zasady postrzegania w psychologii Gestalt
Max Wertheimer (1880-1943) na początku XX wieku opublikował pracę, w której opisał, jak ludzie dostrzegają ruch w szybko zmieniających się nieruchomych obrazach. Wertheimer i jego asystenci: Wolfgang Köhler (1887-1967) oraz Kurt Koffka(1886-1941), którzy później zostali jego współpracownikami, uważali, że percepcja obejmuje więcej niż prostą kombinację bodźców zmysłowych. To przekonanie doprowadziło do powstania nowego ruchu w psychologii, znanego jako psychologia Gestalt, (ang. ). W polskiej literaturze psychologicznej używana jest także nazwa psychologia postaci. Słowo oznacza dosłownie postać, formę lub wzór, ale jego użycie odzwierciedla ideę, że całość różni się jakościowo od sumy swoich części. Innymi słowy, mózg tworzy percepcję, która jest czymś więcej niż sumą dostępnych bodźców zmysłowych, i robi to w sposób przewidywalny. Psychologowie pracujący w nurcie Gestalt przełożyli te przewidywalne sposoby na zasady, które opisują, jak organizujemy informacje zmysłowe. W efekcie psychologia Gestalt zyskała ogromny wpływ na myślenie o wrażeniach zmysłowych i spostrzeganiu (Rock i Palmer, 1990).
Jedną z zasad Gestalt jest relacja figura–tło (ang. ). Zgodnie z tą zasadą mamy tendencję do dzielenia naszego świata wizualnego na figury i tło. Figura to przedmiot lub osoba znajdujące się w centrum pola widzenia, tło zaś to drugi plan. Jak pokazuje , nasza percepcja może być znacząco różna, w zależności od tego, co będzie postrzegane jako figura, a co jako tło. Uważa się, że nasza zdolność do interpretowania informacji zmysłowej zależy od tego, co w danym przypadku nazwiemy figurą, a co tłem, choć to założenie było kwestionowane (Peterson i Gibson, 1994; Vecera i O’Reilly, 1998).
Inną zasadą Gestalt opisującą organizację bodźców zmysłowych w znaczące spostrzeżenia jest bliskość (ang. ). Ta zasada zakłada, że obiekty będące blisko siebie grupowane są razem, co pokazuje .
Sposób, w jaki odczytujemy tekst, to kolejna ilustracja zasady bliskości. Na przykład czytamy to zdanie w ten sposób, an iewt aki. Grupujemy litery danego słowa razem, ponieważ nie ma między nimi przerw, i zauważamy słowa, ponieważ są między nimi przerwy. Oto jeszcze kilka przykładów: Cz yje steśwst ani eprzecz yta ćtozd anie? C ozna cząt esł owa?
Do grupowania przedmiotów w polu widzenia możemy też użyć zasady podobieństwa (ang. ). Zgodnie z nią podobne obiekty będą grupowane razem (). Na przykład gdy oglądasz mecz piłkarski, grupujesz graczy na podstawie koloru ich strojów. Gdy obserwujemy akcję pod bramką, możemy wyodrębnić dwie drużyny, grupując piłkarzy na podstawie tego kryterium.
Dodatkowe dwie zasady Gestalt to prawo ciągłości (ang. ) (inaczej dobra kontynuacja (ang. )) oraz prawo domknięcia (ang. ). Prawo ciągłości sugeruje, że z większym prawdopodobieństwem będziemy postrzegać ciągłe, gładkie linie, nie zaś nieciągłe, łamane linie (). Zasada domknięcia (ang. ) głosi, że organizujemy postrzegane przez nas obiekty raczej w kompletne całości, nie zaś w serię części ().
Według teoretyków psychologii Gestalt postrzeganie wzorców (ang. ), czyli nasza zdolność do rozróżnienia figur i kształtów, zachodzi zgodnie z opisanymi powyżej zasadami. Prawdopodobnie masz pewność, że to, co postrzegasz, dokładnie odzwierciedla rzeczywistość, ale nie zawsze tak jest. Nasze postrzeganie wykorzystuje hipotezy percepcyjne (ang. ) – oparte na wiedzy wybory, jakich dokonujemy, interpretując informacje zmysłowe. Te hipotezy mają wiele źródeł, w tym naszą osobowość, doświadczenia i oczekiwania. Za pomocą tych hipotez tworzymy nastawienie percepcyjne. Na przykład badania pokazały, że osoby, u których poprzedzano percepcję dwuznacznych figur wskazówkami słownymi, dokonywały tendencyjnej interpretacji tych figur (Goolkasian i Woodbury, 2010).
### Podsumowanie
Teoretycy zajmujący się psychologią Gestalt mieli ogromny wpływ na badania nad wrażeniami zmysłowymi i percepcją. Zasady Gestalt, takie jak relacja figura–tło, grupowanie na podstawie bliskości lub podobieństwa, prawo dobrej kontynuacji i domknięcia, wykorzystuje się do wyjaśniania, w jaki sposób organizujemy informacje zmysłowe. Nasza percepcja nie jest niezawodna; mogą na nią wpływać tendencyjność, uprzedzenia i inne czynniki.
### Pytania sprawdzające
### Myśl krytycznie
### Pytanie do pracy własnej
|
# Uczenie się
## Wprowadzenie
Letnie słońce świeci jasno na bezludnej plaży. Z piasku wyłania się maleńka szara główka, a następnie kolejna i jeszcze kolejna. Wkrótce na plaży aż kłębi się od żółwiątek z gatunku (). Żółwiki te dokładnie wiedzą, co mają zrobić, chociaż wykluły się zaledwie kilkanaście minut temu. Chociaż ich płetwy nie są jeszcze wystarczająco sprawne w poruszaniu się po gorącym piasku, zwierzątka instynktownie kontynuują spacer w kierunku wody. Na niektóre z nich szybko rzucą się krążące w górze mewy, inne zaś staną się obiadem dla głodnych krabów wyskakujących ze swoich nor. Mimo czających się niebezpieczeństw coś popycha żółwiątka do porzucenia bezpiecznych schronień i szukania oceanu.
Niedaleko tej samej plaży Ben i jego syn, Julian, pływają po oceanie na deskach surfingowych. Zbliża się fala, więc Julian przykuca na desce, a następnie podskakuje i surfuje kilka sekund na fali, traci równowagę i, płynąc obok deski, obserwuje swojego ojca sprawnie ślizgającego się po fali.
W przeciwieństwie do małych żółwiątek morskich, które bez pomocy rodziców potrafią znaleźć ocean i pływać, my – ludzie – nie rodzimy się z umiejętnością pływania (czy surfowania); jesteśmy jednak dumni z naszej zdolności uczenia się. I rzeczywiście: przez tysiące lat w różnych kulturach stworzyliśmy instytucje poświęcone wyłącznie edukacji. Ale czy kiedykolwiek zadawaliście sobie pytanie, jak to się dzieje, że potrafimy się uczyć? Jakie procesy sprawiają, że zaczynamy gromadzić wiedzę? W tym rozdziale przyjrzymy się podstawowym rodzajom uczenia się.
### References
Anderson, C. A., & Gentile, D. A. (2008). Media violence, aggression, and public policy. In E. Borgida & S. Fiske (Eds.), Beyond common sense: Psychological science in the courtroom (p. 322). Malden, MA: Blackwell.
Bandura, A., Ross, D., & Ross, S. A. (1961). Transmission of aggression through imitation of aggressive models. Journal of Abnormal and Social Psychology, 63, 575–582.
Cangi, K., & Daly, M. (2013). The effects of token economies on the occurrence of appropriate and inappropriate behaviors by children with autism in a social skills setting. West Chester University: Journal of Undergraduate Research. Retrieved from http://www.wcupa.edu/UndergraduateResearch/journal/documents/cangi_S2012.pdf
Carlson, L., Holscher, C., Shipley, T., & Conroy Dalton, R. (2010). Getting lost in buildings. Current Directions in Psychological Science, 19(5), 284–289.
Cialdini, R. B. (2008). Influence: Science and practice (5th ed.). Boston, MA: Pearson Education.
Chance, P. (2009). Learning and behavior (6th ed.). Belmont, CA: Wadsworth, Cengage Learning.
DeAngelis, T. (2010). ‘Little Albert’ regains his identity. Monitor on Psychology, 41(1), 10.
Franzen, H. (2001, May 24). Gambling, like food and drugs, produces feelings of reward in the brain. Scientific American [online]. Retrieved from http://www.scientificamerican.com/article.cfm?id=gamblinglike-food-and-dru
Fryer, R. G., Jr. (2010, April). Financial incentives and student achievement: Evidence from randomized trials. National Bureau of Economic Research [NBER] Working Paper, No. 15898. Retrieved from http://www.nber.org/papers/w15898
Garcia, J., & Koelling, R. A. (1966). Relation of cue to consequence in avoidance learning. Psychonomic Science, 4, 123–124.
Garcia, J., & Rusiniak, K. W. (1980). What the nose learns from the mouth. In D. Müller-Schwarze & R. M. Silverstein (Eds.), Chemical signals: Vertebrates and aquatic invertebrates (pp. 141–156). New York, NY: Plenum Press.
Gershoff, E. T. (2002). Corporal punishment by parents and associated child behaviors and experiences: A meta-analytic and theoretical review. Psychological Bulletin, 128(4), 539–579. doi: 10.1037//0033-2909.128.4.539
Gershoff, E.T., Grogan-Kaylor, A., Lansford, J. E., Chang, L., Zelli, A., Deater-Deckard, K., & Dodge, K. A. (2010). Parent discipline practices in an international sample: Associations with child behaviors and moderation by perceived normativeness. Child Development, 81(2), 487–502.
Hickock, G. (2010). The role of mirror neurons in speech and language processing. Brain and Language, 112, 1–2.
Holmes, S. (1993). Food avoidance in patients undergoing cancer chemotherapy. Support Care Cancer, 1(6), 326–330.
Hunt, M. (2007). The story of psychology. New York, NY: Doubleday.
Huston, A. C., Donnerstein, E., Fairchild, H., Feshbach, N. D., Katz, P. A., Murray, J. P., . . . Zuckerman, D. (1992). Big world, small screen: The role of television in American society. Lincoln, NE: University of Nebraska Press.
Hutton, J. L., Baracos, V. E., & Wismer, W. V. (2007). Chemosensory dysfunction is a primary factor in the evolution of declining nutritional status and quality of life with patients with advanced cancer. Journal of Pain Symptom Management, 33(2), 156–165.
Illinois Institute for Addiction Recovery. (n.d.). WTVP on gambling. Retrieved from http://www.addictionrecov.org/InTheNews/Gambling/
Jacobsen, P. B., Bovbjerg, D. H., Schwartz, M. D., Andrykowski, M. A., Futterman, A. D., Gilewski, T., . . . Redd, W. H. (1993). Formation of food aversions in cancer patients receiving repeated infusions of chemotherapy. Behaviour Research and Therapy, 31(8), 739–748.
Kirsch, SJ (2010). Media and youth: A developmental perspective. Malden MA: Wiley Blackwell.
Lefrançois, G. R. (2012). Theories of human learning: What the professors said (6th ed.). Belmont, CA: Wadsworth, Cengage Learning.
Miller, L. E., Grabell, A., Thomas, A., Bermann, E., & Graham-Bermann, S. A. (2012). The associations between community violence, television violence, intimate partner violence, parent-child aggression, and aggression in sibling relationships of a sample of preschoolers. Psychology of Violence, 2(2), 165–78. doi:10.1037/a0027254
Murrell, A., Christoff, K. & Henning, K. (2007) Characteristics of domestic violence offenders: associations with childhood exposure to violence. Journal of Family Violence, 22(7), 523-532.
Pavlov, I. P. (1927). Conditioned reflexes: An investigation of the physiological activity of the cerebral cortex (G. V. Anrep, Ed. & Trans.). London, UK: Oxford University Press.
Rizzolatti, G., Fadiga, L., Fogassi, L., & Gallese, V. (2002). From mirror neurons to imitation: Facts and speculations. In A. N. Meltzoff & W. Prinz (Eds.), The imitative mind: Development, evolution, and brain bases (pp. 247–66). Cambridge, United Kingdom: Cambridge University Press.
Rizzolatti, G., Fogassi, L., & Gallese, V. (2006, November). Mirrors in the mind. Scientific American [online], pp. 54–61.
Roy, A., Adinoff, B., Roehrich, L., Lamparski, D., Custer, R., Lorenz, V., . . . Linnoila, M. (1988). Pathological gambling: A psychobiological study. Archives of General Psychiatry, 45(4), 369–373. doi:10.1001/archpsyc.1988.01800280085011
Skinner, B. F. (1938). The behavior of organisms: An experimental analysis. New York, NY: Appleton-Century-Crofts.
Skinner, B. F. (1953). Science and human behavior. New York, NY: Macmillan.
Skinner, B. F. (1961). Cumulative record: A selection of papers. New York, NY: Appleton-Century-Crofts.
Skinner’s utopia: Panacea, or path to hell? (1971, September 20). Time [online]. Retrieved from http://www.wou.edu/~girodm/611/Skinner%27s_utopia.pdf
Skolin, I., Wahlin, Y. B., Broman, D. A., Hursti, U-K. K., Larsson, M. V., & Hernell, O. (2006). Altered food intake and taste perception in children with cancer after start of chemotherapy: Perspectives of children, parents and nurses. Supportive Care in Cancer, 14, 369–78.
Thorndike, E. L. (1911). Animal intelligence: An experimental study of the associative processes in animals. Psychological Monographs, 8.
Tolman, E. C., & Honzik, C. H. (1930). Degrees of hunger, reward, and non-reward, and maze performance in rats. University of California Publications in Psychology, 4, 241–256.
Tolman, E. C., Ritchie, B. F., & Kalish, D. (1946). Studies in spatial learning: II. Place learning versus response learning. Journal of Experimental Psychology, 36, 221–229. doi:10.1037/h0060262
Watson, J. B. & Rayner, R. (1920). Conditioned emotional reactions. Journal of Experimental Psychology, 3, 1–14.
Watson, J. B. (1919). Psychology from the standpoint of a behaviorist. Philadelphia, PA: J. B. Lippincott.
Yamamoto, S., Humle, T., & Tanaka, M. (2013). Basis for cumulative cultural evolution in chimpanzees: Social learning of a more efficient tool-use technique. PLoS ONE, 8(1): e55768. doi:10.1371/journal.pone.0055768 |
# Uczenie się
## Na czym polega proces uczenia się?
Noworodki ssą pierś matki. Psy strząsają wodę z mokrego futra, łososie płyną pod prąd rzeki, aby odbyć tarło, pająki przędą skomplikowane sieci, a ptaki budują gniazda i migrują, kiedy zbliża się zima. Co łączy te pozornie niepowiązane zachowania? Wszystkie one są zachowaniami niewyuczonymi. Zarówno instynkty, jak i odruchy są wrodzonymi (niewyuczonymi) zachowaniami istot żywych. Odruchy (ang. ) to reakcje motoryczne lub neuronalne na określone bodźce pochodzące z otoczenia. Są zazwyczaj prostsze od instynktów, wiążą się z aktywnością określonych części ciała i układów (np. odruch kolanowy i skurcz źrenicy w jasnym świetle) oraz angażują bardziej prymitywne obszary ośrodkowego układu nerwowego (np. rdzeń kręgowy oraz rdzeń przedłużony). Instynkty (ang. ) to zaś wrodzone zachowania, które w przeciwieństwie do odruchów są wywoływane przez szerszy kontekst zdarzeń, takich jak dojrzewanie i zmiana pór roku. Są to bardziej złożone wzorce zachowań, obejmujące ruch organizmu jako całości (np. aktywność seksualna i migracja), którymi zajmują się wyższe ośrodki mózgowe.
Zarówno odruchy, jak i instynkty pomagają organizmowi dostosować się do otoczenia bez konieczności uczenia się. Na przykład każdy zdrowy noworodek ma odruch ssania. Nikt nie uczy dziecka ssać, tak jak nikt nie uczy żółwiątka morskiego przemieszczać się w kierunku oceanu. Uczenie się, podobnie jak odruchy i instynkty, pozwala istotom żywym przystosować się do środowiska. W przeciwieństwie do instynktów i odruchów zachowania wyuczone wiążą się ze zmianami i doświadczeniem: uczenie się (ang. ) jest względnie trwałą zmianą zachowania lub wiedzy wynikającą z indywidualnego doświadczenia. Inaczej niż w przypadku omawianych wcześniej zachowań wrodzonych uczenie się wymaga zdobywania wiedzy i umiejętności poprzez doświadczenie. Powróćmy do scenki z surfowaniem: Julian będzie musiał przez długi czas trenować na desce surfingowej, zanim nauczy się pływać na falach jak jego ojciec.
Nauka surfowania, a także czegokolwiek innego, co wymaga złożonego procesu uczenia się (np. studiowanie wszystkich działów psychologii), obejmuje złożoną interakcję procesów świadomych i nieświadomych. Zazwyczaj badano uczenie się pod kątem jego najprostszych składowych — skojarzeń, które nasze umysły automatycznie tworzą między wydarzeniami. Umysły mają naturalną skłonność do łączenia zdarzeń występujących blisko siebie lub kolejno po sobie. Uczenie się skojarzeniowe (inaczej uczenie się asocjacyjne) (ang. ) pojawia się, gdy człowiek tworzy powiązania między bodźcami lub zdarzeniami, które współwystępują w danym środowisku. Jak niedługo wyjaśnimy, uczenie się asocjacyjne (skojarzeniowe) jest kluczowe dla wszystkich trzech podstawowych rodzajów uczenia się omówionych w tym rozdziale; warunkowanie klasyczne zwykle angażuje procesy nieświadome, warunkowanie sprawcze (czasami określane jako instrumentalne) przeważnie łączy się z procesami świadomymi, a uczenie się przez obserwację do wszystkich podstawowych procesów skojarzeniowych, zarówno świadomych, jak i nieświadomych, dorzuca warstwy społeczną i poznawczą. Te rodzaje uczenia się zostaną omówione szczegółowo w dalszej części rozdziału. Poniżej przedstawiamy krótką charakterystykę mechanizmów uczenia się.
W warunkowaniu klasycznym, znanym również jako warunkowanie pawłowowskie (od nazwiska jego odkrywcy Iwana Pawłowa (1849-1936)) jednostki uczą się kojarzyć zdarzenia — lub bodźce — które współwystępują wielokrotnie. Doświadczamy tego procesu w całym naszym życiu codziennym. Na przykład podczas burzy na niebie można zobaczyć błyskawicę, a następnie usłyszeć huk gromu. To naturalne, że na odgłos grzmotu podskakujemy (taka reakcja na hałaśliwe dźwięki jest odruchem). A skoro błyskawica niezawodnie zapowiada zbliżający się grom, możesz skojarzyć te dwa zjawiska i podskakiwać, gdy zobaczysz błyskawicę. Naukowcy zajmujący się psychologią badają ten proces asocjacyjny, koncentrując się na tym, co można zobaczyć i zmierzyć obiektywnie, czyli na zachowaniach i ich wyzwalaczach (reakcjach i bodźcach). Badacze zastanawiają się więc, czy jeśli określony bodziec wyzwala określony odruch, to możemy użyć innego bodźca, aby wywołać ten sam odruch. W warunkowaniu sprawczym osobniki uczą się kojarzyć zdarzenia: zachowanie i jego konsekwencje (wzmocnienie lub karanie). Przyjemne konsekwencje (wzmocnienia) zachęcają do określonego zachowania w przyszłości, podczas gdy karanie zniechęca do danego zachowania. Wyobraź sobie, że uczysz swojego psa Hodora siadania na komendę. Mówisz mu, żeby usiadł, i dajesz przysmak, kiedy to zrobi. Po wielokrotnych doświadczeniach Hodor zaczyna kojarzyć czynność siadania z otrzymaniem przekąski. Uczy się w ten sposób, że konsekwencją siedzenia jest to, że dostaje swój psi biszkopt (). I odwrotnie, jeśli karzesz psa za przejawy jakiegoś zachowania, warunkujesz go do unikania tego zachowania (np. gdy doznaje lekkiego porażenia prądem podczas przekraczania granicy niewidzialnego ogrodzenia elektrycznego).
W przeciwieństwie do warunkowania klasycznego i sprawczego, w którym nauka odbywa się tylko poprzez bezpośrednie, osobiste doświadczanie, uczenie się przez obserwację jest procesem patrzenia na innych, a następnie naśladowania tego, co oni robią (a więc uczeniem się z obserwacji doświadczeń innych). Wiele z procesów uczenia się u ludzi i u zwierząt zachodzi właśnie za pośrednictwem obserwacji. Aby uzyskać wyobrażenie o tym, jak wysoką skuteczność niesie za sobą nauka przez obserwację, zastanów się nad sytuacją Bena i jego syna Juliana (o których była mowa we wprowadzeniu do tego rozdziału). Jak samo patrzenie może pomóc Julkowi nauczyć się surfowania zamiast samodzielnego ćwiczenia metodą prób i błędów? Obserwując ojca, Julek może naśladować ruchy, które pozwalają utrzymać się na desce, i unikać tych, które skutkują utratą równowagi. Przypomnij sobie swoje doświadczenia; każdy z nas uczy się przez obserwację.
Dwa rodzaje warunkowania omówione w tym rozdziale są częścią szczególnego nurtu w psychologii, zwanego behawioryzmem, który omówimy w następnym podrozdziale. Te podejścia nie reprezentują jednak całego pojmowania uczenia się. Odrębne nurty postrzegania uczenia się – np. koncentrujące się na pamięci i poznaniu – wykształciły się w różnych podejściach teoretycznych; dlatego kolejne rozdziały pozwolą pełniej zrozumieć ten temat. Z biegiem czasu nurty te zaczęły się zbiegać. Na przykład w tym rozdziale dowiesz się, jak zaczęto przypisywać większą rolę poznaniu w behawioryzmie, którego bardziej radykalni zwolennicy upierali się kiedyś, że zachowania są wywoływane przez środowisko, bez jakiegokolwiek zaangażowania myśli.
### Streszczenie
Instynkty i odruchy są zachowaniami wrodzonymi — występują naturalnie i nie wymagają uczenia się. Natomiast uczenie się jest zmianą zachowania lub wiedzy wynikającą z doświadczenia. W rozdziale zostały opisane trzy główne rodzaje uczenia się: warunkowanie klasyczne, warunkowanie sprawcze i uczenie się przez obserwację. Zarówno warunkowanie klasyczne, jak i sprawcze są formami uczenia się skojarzeniowego, w którym powstają powiązania między współwystępującymi zdarzeniami. Uczenie się przez obserwację polega na tym, na co wskazuje jego nazwa: jest nauką na podstawie obserwacji zachowania innych.
### Pytania kontrolne
### Istotne kwestie do przemyślenia
### Pytania dotyczące zastosowania osobistego
|
# Uczenie się
## Warunkowanie klasyczne
Czy nazwisko Iwan Pawłow (1849–1936) coś ci mówi? Nawet jeśli dopiero zaczynasz studiować psychologię, to prawdopodobnie obiło ci się ono o uszy i kojarzysz słynny termin psy Pawłowa.
Pawłow, naukowiec rosyjski, przeprowadził szerokie badania na psach, ale to eksperymenty nad warunkowaniem (ang. ) klasycznym rozsławiły go najbardziej (). Jak to omówiliśmy pokrótce w poprzednim podrozdziale, warunkowanie klasyczne (ang. ) jest procesem, w którym uczymy się kojarzyć bodźce z reakcjami i dzięki temu działać w sposób przewidywalny.
Pawłow zupełnie przypadkowo odkrył, jak zachodzi proces uczenia się. Był bowiem fizjologiem, a nie psychologiem. Fizjolodzy badają procesy życiowe organizmów od poziomu molekularnego do poziomu komórek, układów narządów i wreszcie - całych organizmów. Obszarem zainteresowań Pawłowa był układ trawienny (Hunt, 2007). W prowadzonych na przełomie XIX i XX w., do 1903 r., badaniach nad psami Pawłow mierzył objętość śliny wytworzonej w reakcji na różne pokarmy. Po pewnym czasie zauważył, że psy zaczęły się ślinić nie tylko podczas spożywania jedzenia, lecz także na widok jedzenia, na widok pustej miski na jedzenie, a nawet na dźwięk kroków nadchodzących asystentów laboratoryjnych (Pawłow, 1927). Wytwarzanie w pysku śliny potrzebnej do spożywania pokarmu jest odruchowe, więc nie ma potrzeby uczenia się go. Jednakże psy instynktownie nie ślinią się na widok pustej miski ani na odgłos kroków.
Te niezwykłe reakcje zaintrygowały Pawłowa, który zaczął się zastanawiać, z czego wynikają te psie (jak je nazwał) wydzieliny psychiczne (Pawłow, 1927). Aby zbadać to zjawisko w obiektywny sposób, badacz zaplanował serię starannie kontrolowanych eksperymentów sprawdzających, które bodźce mogą spowodować ślinienie się psów. Potrafił wyszkolić psy do ślinienia się w reakcji na bodźce, które nie miały nic wspólnego z jedzeniem, takie jak dźwięk dzwonka, światło i dotknięcie łapy psa. Przeprowadziwszy te eksperymenty, Pawłow zdał sobie sprawę, że istoty żywe mają dwa rodzaje reakcji na otoczenie: (1) bezwarunkowe (niewyuczone) reakcje lub odruchy i (2) warunkowe (wyuczone) reakcje.
W eksperymentach Pawłowa psy śliniły się za każdym razem, gdy podawano im proszek mięsny. Proszek mięsny w tej sytuacji to bodziec bezwarunkowy (ang. ), czyli bodziec wywołujący reakcję w organizmie. Ślinienie się psów to reakcja bezwarunkowa (odruch bezwarunkowy) (ang. ): naturalna (niewyuczona) reakcja na dany bodziec (proszek mięsny). Można przedstawić bodziec i reakcję psów przed warunkowaniem w następujący sposób:
W warunkowaniu klasycznym bodziec neutralny jest prezentowany bezpośrednio przed bodźcem bezwarunkowym. Pawłow używał dźwięku (na przykład dzwonka), a następnie dawał psom proszek mięsny (). Dźwięk dzwonka to bodziec obojętny (ang. ), czyli bodziec, który w normalnych warunkach nie wywołuje reakcji. Przed warunkowaniem psy nie śliniły się po usłyszeniu dźwięku, ponieważ dzwonek nie wywoływał w nich żadnych skojarzeń z pożywieniem (psy nie jedzą dzwonków).
Kiedy Pawłow za każdym razem łączył dźwięk z podaniem proszku mięsnego, bodziec poprzednio obojętny (dźwięk) również zaczął wywoływać ślinienie się psów. Zatem bodziec obojętny zmienił się w bodziec warunkowy (ang. ), który wywołuje reakcję po wielokrotnym połączeniu go z bodźcem bezwarunkowym. W końcu psy zaczęły ślinić się na sam dźwięk dzwonka, tak jak wcześniej śliniły się, słysząc kroki asystentów. Zachowanie spowodowane przez bodziec warunkowy to tzw. reakcja warunkowa (odruch warunkowy) (ang. ). W eksperymentach Pawłowa psy nauczyły się kojarzyć dźwięk (bodziec warunkowy) z karmieniem i zaczęły się ślinić (reakcja warunkowa) w oczekiwaniu na jedzenie.
### Zastosowanie warunkowania klasycznego w prawdziwym życiu
Jak działa warunkowanie klasyczne w codziennym życiu? Rozpatrzmy przypadek Moniki, u której zdiagnozowano nowotwór. Bezpośrednio po pierwszej chemioterapii zwymiotowała. Tak też działo się po każdym podaniu leków w trakcie chemioterapii. Leczenie okazało się skuteczne i nowotwór wszedł w fazę remisji. Jednak gdy co pół roku Monika przychodzi na wizytę kontrolną w gabinecie swojego lekarza onkologa, odczuwa mdłości. W tym przypadku leki stosowane w trakcie chemioterapii są bodźcem bezwarunkowym, wymiotowanie jest reakcją bezwarunkową, gabinet lekarski – bodźcem warunkowym po powiązaniu z bodźcem bezwarunkowym, a mdłości reakcją warunkową. Przypuśćmy, że Monice leki w trakcie chemioterapii podawano za pomocą strzykawki. Po wejściu do gabinetu Monika widziała strzykawkę, a następnie dostawała leki. Zatem skojarzy z podaniem leku nie tylko gabinet lekarski, lecz także strzykawkę i będzie reagować mdłościami również na jej widok. Jest to przykład warunkowania wyższego rzędu (czyli drugiego rzędu), w którym bodziec warunkowy (gabinet lekarza) służy do warunkowania innego bodźca (strzykawka). Trudno jest osiągnąć warunkowanie wyższego rzędu niż drugi. Na przykład: gdyby za każdym razem, kiedy Monika otrzymywała leki za pomocą strzykawki, w gabinecie lekarza dzwonił dzwonek, zapewne nigdy nie miałaby mdłości po usłyszeniu dzwonka.
Przypuśćmy, że masz kota o imieniu Tygrysek, który jest dość rozpieszczony. Trzymasz jego jedzenie w osobnej szafce, a także masz specjalny, elektryczny otwieracz do konserw, którego używasz tylko do otwierania puszek z kocią karmą. Przed każdym swoim posiłkiem Tygrysek słyszy charakterystyczny dźwięk otwieracza („wyr-wyr-wyr”), a następnie dostaje jedzenie. Tygrysek szybko uczy się, że kiedy usłyszy „wyr-wyr-wyr”, dostanie pokarm. Jak sądzisz, co zrobi Tygrysek, gdy usłyszy dźwięk wydawany przez otwieracz? Prawdopodobnie będzie podekscytowany i pobiegnie do miejsca, gdzie przygotowujesz mu karmę. To jest przykład warunkowania klasycznego. Co jest w tej sytuacji: bodźcem bezwarunkowym, bodźcem warunkowym, reakcją bezwarunkową i reakcją warunkową?
Co się stanie, jeśli szafka, w której trzymasz jedzenie Tygryska, zacznie skrzypieć przy otwieraniu? W takiej sytuacji Tygrysek słyszy najpierw skrzypienie (szafki), następnie „wyr-wyr-wyr” (elektrycznego otwieracza do konserw), a potem dostaje jedzenie. Tygrysek z czasem będzie pobudzony już wtedy, gdy usłyszy skrzypienie szafki. Łączenie nowego bodźca obojętnego (skrzypienia) z bodźcem warunkowym („wyr-wyr-wyr”) to tzw. warunkowanie wyższego rzędu (ang. ) lub warunkowanie drugiego rzędu (ang. ). Oznacza to, że używasz bodźca warunkowego (otwieracza do puszek) do warunkowania innego bodźca (skrzypiącej szafki) (). Trudno jest osiągnąć bardziej skomplikowane warunkowanie niż drugiego rzędu. Na przykład: kiedy zadzwoni dzwonek, otworzysz szafkę (skrzypienie), użyjesz otwieracza do konserw („wyr-wyr-wyr”), a następnie nakarmisz Tygryska, kot prawdopodobnie nigdy nie zainteresuje się samym dźwiękiem dzwonka.
Warunkowanie klasyczne występuje także u ludzi, już nawet u niemowląt. Na przykład: Sara kupuje swojej sześciomiesięcznej córce Angelinie mleko dla niemowląt pakowane w niebieskie pojemniki. Za każdym razem, gdy Sara wyjmuje pojemnik z mlekiem, Angelina ożywia się, próbuje sięgnąć po jedzenie i najprawdopodobniej ślini się. Dlaczego Angelina jest podekscytowana widokiem opakowania mleka? Co jest tutaj: bodźcem bezwarunkowym, bodźcem warunkowym, reakcją bezwarunkową i reakcją warunkową?
Do tej pory wszystkie przykłady dotyczyły karmienia, ale warunkowanie klasyczne wykracza poza podstawową potrzebę jedzenia. Rozważmy wspomniany w poprzednim podrozdziale przykład psa, którego właściciele zainstalowali niewidzialny elektryczny płot, tzw. elektrycznego pastucha. Mały wstrząs elektryczny (bodziec bezwarunkowy) wywołuje dyskomfort (reakcja bezwarunkowa). Gdy bodziec bezwarunkowy (porażenie prądem) jest połączony z bodźcem obojętnym (linia graniczna podwórka), pies kojarzy dyskomfort (reakcja bezwarunkowa) z brzegami podwórka (bodziec warunkowy) i pozostaje w wyznaczonych mu granicach. W opisanej sytuacji brzegi działki wywołują u psa lęk i niepokój, które są jego reakcją warunkową.
### Procesy ogólne w warunkowaniu klasycznym
Teraz, po zapoznaniu się z kilkoma przykładami, gdy już wiesz, jak działa warunkowanie klasyczne, przyjrzyjmy się niektórym zaangażowanym w nie procesom ogólnym. W warunkowaniu klasycznym początkowy okres uczenia się znany jest jako nabywanie (in. przyswajanie, akwizycja) (ang. ), kiedy istota żywa uczy się łączyć bodziec obojętny z bodźcem bezwarunkowym. Podczas nabywania bodziec obojętny zaczyna wywoływać reakcję warunkową, a w końcu bodziec obojętny staje się bodźcem warunkowym, zdolnym do samodzielnego wywołania reakcji warunkowej. Aby doszło do uwarunkowania, ważny jest czas. Zwykle pomiędzy prezentacją bodźca warunkowego i bodźca bezwarunkowego powinna być bardzo krótka przerwa. W zależności od tego, co jest warunkowane, optymalny odstęp wynosi zaledwie pięć sekund (Chance, 2009) czy zaledwie 250 do 700 milisekund dla odruchu mrugania. Jednak w przypadku innych rodzajów warunkowania odstęp ten może wynosić nawet kilka godzin.
Awersja pokarmowa (ang. ) jest właśnie rodzajem warunkowania, w którym może upłynąć kilka godzin między bodźcem warunkowym (spożycie czegoś) a bodźcem bezwarunkowym (nudności lub choroba). Oto przykład, jak on działa. Pomiędzy zajęciami twój przyjaciel i ty w pośpiechu kupujecie lunch z wózka z jedzeniem w miasteczku studenckim. Jecie na spółkę curry z kurczakiem i biegniecie na następne zajęcia. Kilka godzin później czujesz mdłości i robi ci się niedobrze. Chociaż twojemu przyjacielowi nic nie dolega, a ty stwierdzasz u siebie grypę żołądkową (za twoją chorobę nie jest więc odpowiedzialne jedzenie), rozwija się u ciebie awersja pokarmowa; kiedy następnym razem będziesz w restauracji i ktoś zamówi curry, od razu poczujesz się niedobrze. Mimo że danie z kurczaka nie wywołało u ciebie choroby, rozpoznajesz u siebie awersję pokarmową: doszło do uwarunkowania niechęci do konkretnego jedzenia po pojedynczym złym doświadczeniu.
Jak to możliwe, że warunkowanie zadziałało po jednym zdarzeniu i wydłużonym odstępie czasu między zdarzeniem a bodźcem negatywnym? Badania nad awersjami pokarmowymi sugerują, że reakcja ta może być ewolucyjną adaptacją — wspomaga ona organizmy w szybkim uczeniu się unikania szkodliwych pokarmów (Garcia i Rusiniak, 1980; Garcia i Koelling, 1966). Może to nie tylko przyczynić się do przetrwania gatunków poprzez dobór naturalny, ale może również pomóc nam opracować strategie dotyczące wyzwań, na przykład jak zaradzić nudnościom wywołanym przez niektóre metody leczenia u pacjentów chorych na raka (Holmes, 1993; Jacobsen et al., 1993; Hutton et al., 2007; Skolin et al., 2006). W tym ostatnim przypadku dokonuje się warunkowania awersyjnego na jeden konkretny pokarm, dzięki czemu maleje ryzyko uogólnionej awersji pokarmowej.
Garcia i Koelling (1966) wykazali nie tylko, że warunkowana może być awersja pokarmowa, ale też że istnieją biologiczne ograniczenia związane z uczeniem się przez warunkowanie. Badacze poddawali dwie grupy szczurów warunkowaniu, które miało skojarzyć albo smak z zatruciem, albo światło i dźwięk z zatruciem. Okazało się, że wszystkie szczury poddane skojarzeniu określonego smaku i zatrucia nauczyły się unikać tego smaku. Jednocześnie żadne z badanych zwierząt wystawionych na warunkowanie zatrucia światłem i dźwiękiem nie nauczyło się unikania tych bodźców. Praca Garcii i Koellinga dostarcza kolejnych dowodów na to, że mechanizm warunkowania klasycznego może mieć udział w zapewnieniu przetrwania gatunków, ponieważ pomaga uczyć się unikania tych bodźców, które stanowią prawdziwe zagrożenie dla zdrowia i dobrostanu. Robert Rescorla (ur. 1940) wykazał, jak silnie organizm może nauczyć się przewidywania bodźca bezwarunkowego na podstawie warunkowego. Rozważmy dwie sytuacje. Tata Ani zawsze podaje kolację o 18:00. Mama Bartka w jedne dni przygotowuje kolację o 17:00 lub o 18:00, a w pozostałe dni o 19:00. Dla Ani 18:00 jest zawsze porą jedzenia, więc robi się wtedy głodna, nawet jeśli niedawno jadła przekąskę. Natomiast u Bartka skojarzenie 18:00 z jedzeniem nie wykształci się, ponieważ godzina 18:00 nie zawsze oznacza kolację podaną do stołu. Rescorla wraz z Alanem Wagnerem (1934-2018) z opracowali model matematyczny, za pomocą którego można obliczyć prawdopodobieństwo wystąpienia warunkowania na podstawie siły bodźca warunkowego dla przewidywania pojawienia się bodźca bezwarunkowego i innych czynników. Zaproponowane przez nich wyrażenie matematyczne obecnie nosi nazwę modelu Rescorla-Wagnera (Rescorla i Wagner, 1972).
Kiedy już ustalimy związek między bodźcem bezwarunkowym a bodźcem warunkowym, to w jaki sposób likwidujemy to skojarzenie i sprawiamy, że pies, kot lub dziecko przestają na niego reagować? W przypadku Tygryska wyobraź sobie, co by się stało, gdybyśmy przestali używać elektrycznego otwieracza do otwierania kociego jedzenia i zaczęli używać go tylko do otwierania jedzenia ludzkiego. Teraz Tygrysek usłyszy dźwięk otwieracza, ale nie dostanie pokarmu. Według terminologii warunkowania klasycznego pojawi się bodziec warunkowy, ale już nie bodziec bezwarunkowy. Pawłow badał ten scenariusz w swoich eksperymentach z psami: dzwonił dzwonkiem, nie dając psom proszku mięsnego. Wkrótce psy przestały reagować na dźwięk. Wygaszanie (ang. ) jest osłabianiem reakcji warunkowej, gdy bodziec bezwarunkowy nie jest już prezentowany razem z bodźcem warunkowym. Po zaaplikowaniu samego bodźca warunkowego pies, kot lub inne stworzenie żywe będzie wykazywać coraz słabszy odruch, aż w końcu nastąpi brak reakcji. Według terminologii warunkowania klasycznego nastąpi stopniowe osłabienie i zanik reakcji warunkowej.
Co się dzieje, gdy reakcja warunkowa nie jest przez jakiś czas wykonywana — kiedy to, co nauczone, leży w uśpieniu? Jak właśnie zostało powiedziane, Pawłow ustalił, że kiedy wielokrotnie pojawiał się dzwonek (bodziec warunkowy) bez proszku mięsnego (bodziec bezwarunkowy), następowało wygaszanie; psy przestawały się ślinić na odgłos dzwonka. Jednak po kilku godzinach odpoczynku od tego treningu wygaszania psy znów zaczęły się ślinić, gdy Pawłow uruchomił dzwonek. Jak myślisz, jak zmieniłoby się zachowanie Tygryska, gdyby twój elektryczny otwieracz do konserw zepsuł się i przestał być używany przez kilka miesięcy? Kiedy w końcu naprawisz urządzenie i znów zaczniesz go używać do otwierania kociej karmy, Tygrysek przypomni sobie związek między otwieraczem do puszek a swoim jedzeniem i na ten dawny dźwięk, podekscytowany, pobiegnie do kuchni. Zachowanie psów Pawłowa i Tygryska obrazuje koncepcję, którą Pawłow zdefiniował jako spontaniczne odnowienie (ang. ), czyli ponowne pojawienie się reakcji warunkowej, wygaszonej jakiś czas wcześniej ().
Oczywiście procesy te dotyczą również ludzi. Załóżmy na przykład, że każdego dnia, gdy przechodzisz przez kampus studencki, mija cię furgonetka z lodami. Dzień po dniu słyszysz muzykę (bodziec obojętny) płynącą z tej lodziarni na kółkach i w końcu przystajesz, aby kupić sobie lody czekoladowe. Zaczynasz je lizać (bodziec bezwarunkowy) i natychmiast ślinka napływa ci do ust (reakcja bezwarunkowa). To początkowy okres uczenia się, nazywany nabywaniem, kiedy zaczynasz łączyć bodziec obojętny (dźwięk z furgonetki) z bodźcem bezwarunkowym (smakiem lodów czekoladowych w ustach). Podczas nabywania reakcja warunkowa wzmacnia się poprzez powtarzanie pary bodziec warunkowy–bodziec bezwarunkowy. Kilka dni i kilka porcji lodów później zauważasz, że masz więcej śliny w ustach (reakcja warunkowa), gdy tylko usłyszysz muzyczkę dobywającą się z furgonetki — czyli na długo przed tym, zanim zabierzesz się za konsumowanie swoich lodów. Aż tu pewnego dnia idziesz ulicą i słyszysz melodyjkę (bodziec warunkowy) zbliżającej się lodziarni. Oczywiście ślinka napłynie ci do ust (reakcja warunkowa), jednak gdy dotrzesz do furgonetki, ku twemu wielkiemu rozczarowaniu dowiesz się, że nie ma już lodów! Przez kilka następnych dni mijasz pojazd i słyszysz dobywającą się z niego muzykę, nie zatrzymujesz się jednak i nie kupujesz lodów, żeby się nie spóźnić na zajęcia. Na dźwięk tej charakterystycznej melodyjki ślinisz się z każdym dniem coraz mniej, aż pod koniec tygodnia na odgłos tej muzyczki już nie napływa ci ślinka. Ten przykład obrazuje wygaszanie. Reakcja warunkowa słabnie, gdy pojawia się sam bodziec warunkowy (dźwięk z furgonetki), bez następującego po nim bodźca bezwarunkowego (lody czekoladowe rozpływające się w ustach). Nadchodzi weekend, a ty nie musisz iść na zajęcia, więc nie spotykasz już furgonetki z lodami. W poniedziałek rano udajesz się zwykłą drogą do miasteczka studenckiego. Za rogiem znów słyszysz lodziarnię. Jak myślisz, co się stanie? Tak, znów poczujesz smak śliny w ustach. Dlaczego? Po przerwie w warunkowaniu ponownie pojawi się reakcja warunkowa, co wskazuje na spontaniczne odnowienie.
Nabywanie i wygaszanie obejmują odpowiednio wzmocnienie i osłabienie wyuczonego połączenia. Dwa inne procesy uczenia się — różnicowanie bodźców i ich generalizacja — biorą udział w określaniu, które bodźce będą wywoływać te wyuczone reakcje. Wszystkie zwierzęta (w tym także ludzie) muszą rozróżniać bodźce — na przykład rozpoznać, które dźwięki zwiastują zagrożenie, a które nie — aby mogły odpowiednio reagować (na przykład uciekać, jeśli dźwięk kojarzy się z zagrożeniem). Zjawisko uczenia się przez organizm odmiennego reagowania na różne podobne bodźce znane jest jako różnicowanie bodźców (ang. ). Według terminologii warunkowania klasycznego organizm wykazuje reakcję warunkową na sam tylko bodziec warunkowy. Psy Pawłowa umiały odróżniać dźwięk podstawowy, który rozbrzmiewał bezpośrednio przed karmieniem, od innych dźwięków (np. dzwonka do drzwi), ponieważ pozostałe odgłosy nie zapowiadały podania jedzenia. Podobnie Tygrysek rozróżniał dźwięk otwieracza do puszek i odgłos miksera elektrycznego, a więc gdy pracował mikser, kotek nie przybiegał do kuchni w poszukiwaniu jedzenia, bo wiedział, że go nie dostanie. W pierwszym przykładzie, u Moniki cierpiącej na nowotwór, występuje różnicowanie między onkologami i lekarzami innych specjalizacji. Pacjentka nauczyła się nie odczuwać mdłości, gdy odwiedza np. lekarza pierwszego kontaktu.
Przeciwieństwem różnicowania bodźców jest generalizacja bodźców (ang. ), kiedy organizm wykazuje reakcję warunkową na bodźce podobne do bodźca warunkowego. Im bardziej jakiś bodziec podobny jest do bodźca warunkowego, tym bardziej prawdopodobne jest, że wystąpi reakcja warunkowa. Na przykład jeśli odgłosy miksera elektrycznego są bardzo podobne do dźwięku elektrycznego otwieracza do puszek, to Tygrysek może przybiec także, gdy usłyszy mikser. Ale jeśli nie nakarmisz go wtedy, a nadal karmisz go po włączeniu otwieracza do puszek, wówczas kot szybko nauczy się rozróżniać te dwa dźwięki (pod warunkiem że są wystarczająco odmienne, aby dało się je rozróżnić). Monika zaś odczuwa mdłości, gdy odwiedza innych onkologów czy lekarzy innych specjalności przyjmujących w tym samym budynku co jej onkolog.
Czasami warunkowanie klasyczne może prowadzić do habituacji. Habituacja (ang. ) zachodzi, gdy uczymy się nie reagować na bodziec, który pojawia się wielokrotnie niezmieniony. Ponieważ taki bodziec pojawia się w kółko, uczymy się nie skupiać na nim uwagi. Wyobraź sobie na przykład, że twój sąsiad lub współlokator nieustannie włącza telewizję. Ten hałas w tle rozprasza uwagę i utrudnia ci koncentrację podczas nauki. Z czasem jednak przyzwyczajasz się do hałasu telewizora i w końcu prawie go nie będziesz zauważać.
### Behawioryzm
John Broadus Watson (1878–1958), którego portret zamieszczono na , jest uważany za założyciela behawioryzmu. Behawioryzm to szkoła myślenia, która powstała w pierwszej połowie XX wieku i obejmuje także elementy warunkowania klasycznego Pawłowa (Hunt, 2007). W wyraźnej opozycji do Zygmunta Freuda (1856-1939), który uważał, że przyczyny zachowania są ukryte w nieświadomości, Watson opowiedział się za ideą, że wszystkie zachowania można badać jako zwykły związek bodźca i reakcji, bez względu na procesy wewnętrzne. Watson argumentował, że aby psychologia stała się prawomocną nauką, musi odwrócić swoje zainteresowanie od wewnętrznych procesów psychicznych, ponieważ nie można ich zobaczyć ani zmierzyć metodami naukowymi. Postulował, żeby zamiast tego koncentrowała się na zachowaniach postrzegalnych na zewnątrz, które można obserwować i mierzyć.
Na koncepcję Watsona wpłynęły prace Pawłowa. Według Watsona zachowanie człowieka, podobnie jak zachowanie zwierząt, jest przede wszystkim wynikiem reakcji warunkowych. Podczas gdy praca Pawłowa z psami polegała na warunkowaniu odruchów, Watson wierzył, że te same zasady można rozszerzyć na uwarunkowanie ludzkich emocji (Watson, 1919). Tak rozpoczęła się praca Watsona i jego asystentki, Rosalie Rayner (1898-1935), z dzieckiem nazywanym Małym Albertem. Poprzez eksperymenty wykonywane na tym dziecku Watson i Rayner (1920) zademonstrowali, w jaki sposób można warunkować strach.
W 1920 roku Watson stał na czele wydziału psychologii na Uniwersytecie Johna Hopkinsa. Dzięki swojej pozycji na uniwersytecie poznał matkę Małego Alberta, Arvillę Merritte, która pracowała w miasteczku studenckim w szpitalu (DeAngelis, 2010). Watson zaproponował jej dolara za to, żeby jej syn stał się przedmiotem eksperymentów nad warunkowaniem klasycznym. W eksperymentach tych u Małego Alberta warunkowano reakcję strachu wobec różnych obiektów. Na początku pokazywano mu bodźce obojętne, takie jak: królik, pies, małpa, maski, wata bawełniana oraz biały szczur. Chłopiec nie bał się żadnego z nich. Następnie Watson, z pomocą Rayner, uwarunkował Małego Alberta, aby skojarzył te bodźce z emocją — strachem. Na przykład Watson wręczył chłopcu białego szczura i dziecko radośnie się nim bawiło. Następnie Watson wydawał głośny dźwięk, uderzając młotkiem w metalowy pręt zawieszony za głową Małego Alberta za każdym razem, gdy chłopiec dotykał szczura. Dziecko było przerażone tym dźwiękiem i — okazując odruchowy strach przed nagłymi głośnymi dźwiękami — zaczynało płakać. Watson wielokrotnie łączył głośny dźwięk z białym szczurem. Wkrótce Mały Albert zaczął bać się samego białego szczura. Czym były w tym eksperymencie bodziec bezwarunkowy, bodziec warunkowy, reakcja bezwarunkowa i reakcja warunkowa?
Kilka dni później Mały Albert zaczął przejawiać generalizację bodźca — zaczął bać się innych futrzanych rzeczy: królika, futrzanego płaszcza, a nawet maski świętego Mikołaja pokazanej na . Watsonowi udało się uwarunkować reakcję lęku u Małego Alberta, pokazując tym samym, że emocje mogą stać się reakcjami warunkowymi. Zamiarem Watsona było wywołanie fobii — uporczywego, nadmiernego lęku przed określonym przedmiotem lub sytuacją — poprzez samo tylko warunkowanie, a tym samym przeciwstawienie się poglądowi Freuda, że fobie są spowodowane głębokimi, ukrytymi konfliktami w umyśle. Jednak nie ma dowodów na to, że Mały Albert doświadczył fobii w późniejszych latach. Matka wyprowadziła się, kończąc tym samym eksperyment. Chociaż badania Watsona dostarczyły nowego wglądu w proces warunkowania, według dzisiejszych standardów były nieetyczne.
### Podsumowanie
Pionierska praca Pawłowa z psami znacznie przyczyniła się do poszerzenia naszej wiedzy na temat uczenia się. W eksperymentach badał on jeden z rodzajów uczenia się asocjacyjnego, który nazywamy obecnie warunkowaniem klasycznym. W warunkowaniu klasycznym ludzie lub zwierzęta uczą się łączyć zdarzenia, które powtarzają się razem, a naukowcy badają, w jaki sposób reakcja bezwarunkowa na bodziec może być odwzorowana na inny bodziec — ćwicząc powiązanie między dwoma bodźcami. Eksperymenty Pawłowa pokazują, jak powstają powiązania bodziec—reakcja. Watson, twórca behawioryzmu, był pod dużym wpływem pracy Pawłowa. Badał warunkowanie reakcji emocjonalnych u ludzi poprzez warunkowanie strachu u niemowlęcia zwanego Małym Albertem. Na podstawie tego badania stwierdził, że warunkowanie klasyczne może wyjaśnić rozwój niektórych reakcji lękowych u ludzi.
### Pytania kontrolne
### Istotne kwestie do przemyślenia
### Pytania do zastosowania osobistego
|
# Uczenie się
## Warunkowanie sprawcze
Poprzednia część tego rozdziału koncentrowała się na rodzaju uczenia się asocjacyjnego znanego jako warunkowanie klasyczne. W warunkowaniu klasycznym jakiś bodziec w otoczeniu automatycznie wyzwala reakcję, a eksperymentatorzy trenują jednostkę, aby reagowała w taki sam sposób na inny bodziec. Teraz przechodzimy do drugiego rodzaju uczenia się asocjacyjnego, a jest nim warunkowanie sprawcze (ang. ). W warunkowaniu sprawczym zwierzęta i ludzie uczą się kojarzyć zachowanie z jego konsekwencją (). Konsekwencja przyjemna sprawia, że dane zachowanie będzie częściej powtarzane w przyszłości. Na przykład delfin Duszek z w Baltimore wykonuje salto w powietrzu, gdy jego trener dmucha w gwizdek. Dla delfina konsekwencją wykonania salta jest posiłek: ryba.
Psycholog Burrhus Frederic Skinner (1904-1990) zauważył, że warunkowanie klasyczne ogranicza się do zachowań wywoływanych odruchowo i nie uwzględnia nowych zachowań, takich jak jazda na rowerze. Zaproponował teorię opisującą, jak takie zachowania powstają. Skinner uważał, że zachowanie jest motywowane konsekwencjami, jakie nas za nie dosięgają: wzmocnieniami i karami. Zaproponowana przez niego koncepcja, że uczenie się jest wynikiem konsekwencji, opiera się na prawie efektu, które po raz pierwszy zaproponował Edward Thorndike (1874–1949). Prawo efektu (ang. ) mówi, że zachowania, po których następują konsekwencje satysfakcjonujące dla osobnika, częściej się powtarzają, a zachowania, po których następują konsekwencje nieprzyjemne, powtarzają się rzadziej (Thorndike, 1911). Innymi słowy: jeśli człowiek lub zwierzę podejmuje działanie, które przynosi pożądany przezeń rezultat, to istnieje większe prawdopodobieństwo, że zrobi to ponownie. Jeśli organizm zrobi coś, co nie przyniesie korzystnego dla niego rezultatu, to istnieje mniejsze prawdopodobieństwo, że zrobi to ponownie. Przykładem działania prawa efektu jest zatrudnienie. Jednym z powodów (i często głównym), dla którego przychodzimy do pracy, jest to, że dostajemy za to wynagrodzenie. Jeśli pracodawca przestanie nam płacić, prawdopodobnie przestaniemy się pojawiać w pracy, nawet jeśli ją bardzo lubimy.
Na podstawie prawa efektu Thorndike’a Skinner zaczął przeprowadzać eksperymenty naukowe na zwierzętach (głównie szczurach i gołębiach), aby ustalić, w jaki sposób jednostki uczą się poprzez warunkowanie sprawcze (Skinner, 1938). Umieszczał zwierzęta w urządzeniu w formie skrzynki, znanej obecnie jako klatka Skinnera lub skrzynka problemowa (). Klatka Skinnera zawiera dźwignię (dla szczurów) lub tarczę (dla gołębi), które zwierzę może naciskać lub dziobać w celu otrzymania nagrody: pokarmu pojawiającego się w dozowniku. Głośniki i lampki mogą być wiązane z niektórymi zachowaniami. Nagrywarka zlicza liczbę reakcji zwierzęcia.
Dyskutując o warunkowaniu sprawczym, używamy kilku codziennych słów — pozytywny, negatywny, wzmocnienie i karanie — w szczególny sposób. W warunkowaniu sprawczym określenia pozytywne i negatywne nie są równoznaczne z dobrem i złem, ale oznaczają, że warunkowanie pozytywne polega na dodaniu czegoś w celu zwiększenia lub zmniejszenia repertuaru zachowań, a warunkowanie negatywne – na zabraniu czegoś w celu zwiększenia lub zmniejszenia repertuaru zachowań. Wzmacnianie (ang. ) oznacza, że wzmagasz jakieś zachowanie, a karanie oznacza, że starasz się je osłabić. Zarówno wzmocnienie, jak i karanie może być pozytywne lub negatywne. Wszystkie wzmocnienia (pozytywne lub negatywne) zwiększają prawdopodobieństwo reakcji behawioralnej. Wszystkie kary (pozytywne lub negatywne) zmniejszają prawdopodobieństwo reakcji behawioralnej. Teraz spójrzmy na kombinację tych czterech terminów: wzmacnianie pozytywne, wzmacnianie negatywne, karanie pozytywne i karanie negatywne ().
### Wzmacnianie
Najbardziej skutecznym sposobem nauczenia osoby lub zwierzęcia nowego zachowania jest wzmacnianie pozytywne. Pozytywne wzmacnianie (ang. ) oznacza podanie pożądanego bodźca, aby zwiększyć prawdopodobieństwo danego zachowania.
Na przykład ojciec pięcioletniego Janka dał mu jako nagrodę nowy zestaw do rysowania, gdy syn posprzatął swój pokój. Zatrzymajmy się na chwilę. Niektórzy mogliby powiedzieć: „Dlaczego mam nagradzać moje dziecko za zrobienie tego, co należy do jego obowiązków?”. Zauważ jednak, że jesteśmy stale i konsekwentnie nagradzani. Nasze wynagrodzenia są nagrodami, podobnie jak wysokie oceny i przyjęcie nas do preferowanej szkoły. Pochwała za dobrze wykonane zadanie i zdanie egzaminu na prawo jazdy również są nagrodami. Pozytywne wzmacnianie jako narzędzie uczenia jest niezwykle skuteczne. W niektórych szkołach stwierdzono, że jednym z najskuteczniejszych sposobów podwyższenia ocen z czytania uczniów mających osiągnięcia poniżej średniej jest płacenie im za czytanie. I tak uczniowie drugiej klasy w Dallas otrzymywali 2 dolary za każdym razem, gdy przeczytali książkę i zdali krótki quiz na jej temat. W wyniku tych nagród znacznie wzrosły ich umiejętności czytania (Fryer, 2010). Co sądzisz o takim programie? Skinner, gdyby żył, prawdopodobnie uznałby to za świetny pomysł, ponieważ był zdecydowanym zwolennikiem stosowania zasad warunkowania sprawczego do nauczania i wychowania w szkole. Poza klatką, Skinner wynalazł także maszynę uczącą (Skinner, 1961) — wczesny prekursor nauczania wspomaganego komputerowo — która została zaprojektowana, aby nagradzać małe kroki w nauce. Jego maszyna ucząca sprawdzała wiedzę uczniów podczas pracy nad różnymi przedmiotami szkolnymi. Jeśli uczniowie odpowiedzieli poprawnie na pytania, otrzymywali natychmiastowe wzmocnienie pozytywne i mogli kontynuować; jeśli odpowiedzieli niepoprawnie, nie otrzymywali żadnego wzmocnienia. Chodziło o to, aby uczniowie spędzili na studiowaniu materiału dodatkowo trochę czasu, aby zwiększyć szansę na otrzymanie wzmocnienia następnym razem (Skinner, 1961).
Gdy chodzi o wzmacnianie negatywne (ang. ), to usuwa się niepożądany bodziec, aby zwiększyć częstość danego zachowania. Na przykład producenci samochodów stosują zasady wzmacniania negatywnego w systemach pasów bezpieczeństwa, które wydają dźwięk „piii, piii, piii”, dopóki ich nie zapniesz. Irytujący dźwięk ustaje, gdy przejawiasz pożądane zachowanie. Zwiększa to prawdopodobieństwo, że zapniesz pas także w przyszłości. Wzmacnianie negatywne jest również często stosowane w treningu koni. Jeźdźcy wywierają nacisk — ciągnąc wodze lub ściskając nogi — a następnie usuwają nacisk, gdy koń przejawia pożądane zachowanie, takie jak skręcanie lub przyspieszanie. Nacisk jest bodźcem nieprzyjemnym, który koń chce usunąć.
### Karanie
Wiele osób myli negatywne wzmacnianie z karą w warunkowaniu sprawczym, ale są to dwa bardzo różne mechanizmy. Pamiętaj, że wzmacnianie, nawet gdy jest negatywne, zawsze zwiększa prawdopodobieństwo zachowania; z kolei karanie (ang. ) zawsze zmniejsza prawdopodobieństwo danego zachowania. W przypadku karania pozytywnego (ang. ) podajesz bodziec niepożądany, aby zmniejszyć częstość zachowania. Przykładem kary pozytywnej jest zwrócenie uwagi uczniowi, aby przestał pisać SMS-y na zajęciach. W takim przypadku bodziec (zwrócenie uwagi) ma na celu ograniczenie niepożądanego zachowania (esemesowanie podczas lekcji). Kiedy zachodzi karanie negatywne (ang. ), usuwany jest bodziec przyjemny, aby zmniejszyć powtarzalność zachowania. Na przykład, gdy dziecko źle się zachowuje, rodzic może wyłączyć telewizor podczas emisji ulubionego programu dziecka. W takim przypadku bodziec przyjemny (oglądanie programu) jest usuwany w celu zmniejszenia prawdopodobieństwa zachowania.
Kara, szczególnie gdy jest natychmiastowa, to jeden ze sposobów zmniejszenia częstości zachowań niepożądanych. Wyobraź sobie na przykład, że twój ośmioletni syn Tomek uderzył swojego młodszego brata. Każesz Tomkowi napisać 100 razy „Nie uderzę mojego brata” (kara pozytywna). Jest możliwe, że nie powtórzy już takiego zachowania. Dzisiaj takie metody są powszechne, w przeszłości jednak dzieci często podlegały karom fizycznym, takim jak klapsy. Ważne jest, aby zdawać sobie sprawę, że stosowanie kar fizycznych wobec dzieci ma dwie podstawowe wady. Po pierwsze, taka kara może uczyć strachu. Tomek może stać się bojaźliwy z tego powodu, ujawniając lęk przed innymi bodźcami, ale może też bać się osoby, która wymierzyła karę – ciebie, jego rodzica. Podobnie dzieci karane przez nauczyciela mogą obawiać się go i próbować unikać szkoły (Gershoff et al., 2010). W Polsce, która jest sygnatariuszem Konwencji o prawach dziecka, stosowanie kar fizycznych jest zakazane. Takie zapisy znajdujemy w kodeksie rodzinnym i opiekuńczym. Jednak, co zastanawiające, ustawodawca nie zawarł sankcji za ich stosowanie. Po drugie, wadą kar fizycznych jest prawdopodobieństwo wywołania w dziecku zachowań agresywnych i skłonności do aspołecznych zachowań oraz przestępstw (Gershoff, 2002). Gdy dzieci widzą, że ich rodzice uciekają się do klapsów, kiedy złoszczą się i czują się sfrustrowani, mogą zachowywać się tak samo, gdy to one złoszczą się i czują się sfrustrowane. Na przykład rozzłościło cię złe zachowanie Marysi i dajesz jej klapsa, ale w następstwie tego zdarzenia Marysia może zacząć bić swoich przyjaciół, gdy nie będą dzielić się z nią zabawkami (w takiej sytuacji może także zadziałać mechanizm uczenia się przez obserwację).
Ponieważ jednak karanie pozytywne może być w niektórych sytuacjach skuteczne, zwłaszcza gdy ma na celu natychmiastową eliminację zachowań zagrażających zdrowiu lub życiu, Skinner zasugerował, aby bardzo rozważnie podchodzić do decyzji o karaniu, ważąc jego potencjalne negatywne skutki. Dzisiejsi psychologowie i eksperci od wychowania wolą wzmacnianie niż karanie — zalecają uchwycenie momentu, gdy dziecko robi coś dobrego, a następnie nagrodzenie go za to (wzmocnienie tego zachowania). Zwróćmy jednak uwagę, że karanie jest obecne w życiu społecznym na różnych poziomach. Kary mogą wymierzać różne instytucje, sądy, służby (mandat za przekroczenie prędkości to kara), pracodawcy itd.
### Kształtowanie
W swoich eksperymentach nad warunkowaniem sprawczym Skinner często stosował podejście zwane kształtowaniem (ang. ). Zamiast nagradzać tylko zachowanie docelowe, w kształtowaniu nagradzamy kolejne przybliżenia zachowania docelowego. Do czego potrzebne jest kształtowanie? Pamiętaj, że aby wzmacnianie zadziałało, jednostka musi najpierw przejawiać pożądane zachowanie. Kształtowanie jest potrzebne, ponieważ jest bardzo mało prawdopodobne, żeby człowiek lub zwierzę przejawiali spontanicznie bardziej złożone zachowania. W kształtowaniu zachowania dzieli się je na wiele małych, osiągalnych kroków. Konkretne kroki zastosowane w tym procesie są następujące:
1.
Wzmocnij każdą reakcję, która przypomina pożądane zachowanie.
2.
Następnie wzmocnij reakcję, która bardziej przypomina pożądane zachowanie. Jednocześnie nie wzmacniaj już wcześniej wzmocnionego zachowania.
3.
Następnie zacznij wzmacniać zachowanie, które jeszcze bardziej przypomina to pożądane.
4.
Kontynuuj wzmacnianie zachowań coraz bliższych zachowania pożądanego.
5.
W końcu wzmacniaj tylko pożądane zachowanie.
Kształtowanie jest często stosowane w nauczaniu złożonych zachowań lub łańcucha zachowań. Skinner używał kształtowania, aby nauczyć gołębie nie tylko stosunkowo prostych zachowań, takich jak dziobanie tarczy w skrzynce problemowej, lecz także wielu nietypowych zachowań, takich jak obracanie się w kółko, chodzenie „po ósemce”, a nawet gra w ping-ponga; technika ta jest obecnie powszechnie stosowana przez trenerów zwierząt. Ważną częścią kształtowania jest różnicowanie bodźców. Przypomnij sobie psy Pawłowa — badacz wyszkolił je, aby reagowały na dźwięk dzwonka, a nie na podobne dźwięki lub odgłosy. Różnicowanie jest również ważne w warunkowaniu sprawczym i w kształtowaniu zachowania.
Łatwo zobaczyć, jak skuteczne jest kształtowanie w uczeniu zachowań zwierząt, ale w jaki sposób kształtowanie działa u ludzi? Rozważmy sytuację rodziców, których celem jest, aby ich dziecko nauczyło się sprzątać swój pokój. Używają kształtowania, aby pomóc mu opanować kolejne kroki wiodące do tego celu. Zamiast skupiać się na całym zadaniu sprzątania, ustanawiają jego etapy i wzmacniają każdy krok. Najpierw dziecko sprząta jedną zabawkę. Potem sprząta pięć zabawek. Następnie decyduje, czy wziąć dziesięć zabawek, czy odłożyć na miejsce książki i ubrania. Po czym układa wszystko oprócz dwóch zabawek. Wreszcie sprząta cały pokój.
### Wzmocnienia pierwotne i wtórne
Do usprawnienia nauki mogą być wykorzystywane nagrody takie jak naklejki, pochwały, pieniądze, zabawki i inne. Wróćmy jeszcze raz do szczurów Skinnera. Jak szczury nauczyły się naciskać dźwignię w skrzynce Skinnera? Za każde naciśnięcie dźwigni nagradzano je jedzeniem. Dla zwierząt jedzenie jest oczywistym wzmocnieniem.
Co może być dobrym wzmocnieniem dla ludzi? Obiecujesz synowi Marcinowi zabawkę, jeśli posprząta swój pokój. A co w przypadku Joachima, który gra w piłkę? Jeśli dasz mu cukierka za każdym razem, gdy zdobędzie gola, wprowadzisz wzmocnienie pierwotne (ang. ). Wzmocnienie pierwotne to wzmocnienie o wrodzonych właściwościach wzmacniających; tego rodzaju wzmocnienia nie są wyuczone. Wzmocnieniami pierwotnymi są między innymi woda, jedzenie, sen, schronienie, seks i dotyk, a także przyjemność, gdyż organizmy nie tracą popędu do tych rzeczy. Dla większości ludzi wejście do jeziora w upalny dzień jest wzmocnieniem, bo woda chłodzi ciało (zaspokaja potrzebę fizyczną) i kontakt z nią jest przyjemny. Zabawka i cukierek w powyższych przykładach stanowią wzmocnienia pierwotne, gdyż same z siebie dostarczają przyjemności.
Wzmocnienie wtórne (ang. ) nie ma żadnej nieodłącznej wartości i nabywa właściwości wzmacniające tylko w połączeniu ze wzmocnieniem pierwotnym. Pochwała związana z emocjami jest jednym z przykładów wzmocnienia wtórnego, np. kiedy wołasz „Świetny strzał!” za każdym razem, gdy Joachim strzela gola. Kolejnym przykładem są pieniądze — są coś warte tylko wtedy, gdy można użyć ich do zakupu innych rzeczy albo do zaspokojenia naszych podstawowych potrzeb (jedzenie, woda, schronienie — lub innych, będących wzmocnieniami pierwotnymi), albo dostarczają innych wzmocnień wtórnych. Gdybyś znalazł się na bezludnej wyspie pośrodku Oceanu Spokojnego i miał stos pieniędzy, nie byłyby one do niczego przydatne, bo nie można byłoby ich na nic wydać.
Naklejki na tablicy motywacyjnej jako nagroda za dobre zachowanie są także wzmocnieniami wtórnymi. Zamiast naklejek czasami stosuje się żetony, które można wymienić na nagrody i wyróżnienia. Na użyciu tego rodzaju wzmocnień są zbudowane całe systemy kierowania zachowaniem, zwane ekonomią żetonową. Stwierdzono, że ekonomia żetonowa jest bardzo skuteczna w modyfikowaniu zachowań w różnych środowiskach, takich jak szkoły, więzienia i szpitale psychiatryczne. Na przykład badanie przeprowadzone przez Cangi i Dale (2013) wykazało, że korzystanie z ekonomii żetonowej zwiększyło częstotliwość odpowiednich zachowań społecznych i zmniejszyło częstotliwość niewłaściwych w grupie dzieci w wieku szkolnym z autyzmem. Dzieci z autyzmem mają tendencję do zachowań destrukcyjnych, takich jak szczypanie i bicie. Kiedy dzieci biorące udział w badaniu wykazywały odpowiednie zachowanie (powstrzymywały się od bicia i szczypania), otrzymywały żeton „spokojnych rąk”. Kiedy uderzyły lub uszczypnęły kogoś, traciły żeton. Dzieci mogły następnie wymieniać określoną liczbę żetonów na minuty zabawy.
### Rozkłady wzmocnień
Najlepsze efekty w uczeniu osiąga się, stosując wzmacnianie pozytywne. Na przykład Skinner za pomocą tej techniki nauczył szczury naciskać dźwignię w skrzynce problemowej. Na początku eksperymentu głodny szczur mógł przypadkowo uderzyć dźwignię w klatce, po czym do skrzynki wpadły kulki jedzenia. Jak myślisz, co zrobił głodny szczur po zjedzeniu tej porcji karmy? Znów nacisnął dźwignię i dostał kolejną porcję jedzenia. Za każdym razem naciśnięcie dźwigni skutkowało pojawianiem się karmy. Wzmacnianie ciągłe (ang. ) zachodzi wtedy, kiedy jednostka otrzymuje wzmocnienie za każdym razem, gdy wykazuje dane zachowanie. Ten rozkład wzmocnień jest najszybszym sposobem nauczenia określonego zachowania, a szczególnie skuteczny okazuje się w przypadku wprowadzania całkowicie nowego zachowania. Spójrzmy na psa, który nauczył się siadać na rozkaz. Za każdym razem, gdy siada, dajesz mu smakołyk. Ważne jest tutaj wyczucie czasu: odniesiesz największe sukcesy, jeśli podasz wzmocnienie natychmiast po tym, jak pies usiądzie, aby mógł powiązać docelowe zachowanie (siadanie) z konsekwencją (otrzymanie smakołyku).
Na zakończenie ćwiczenia określonego zachowania badacze i trenerzy często wybierają inny rodzaj rozkładu wzmocnień — wzmacnianie sporadyczne (ang. ) — które zwane także bywa wzmacnianiem przerywanym. Jest to sytuacja, gdy osoby lub zwierzęcia nie wzmacnia się za każdym razem, kiedy zachowuje się w sposób oczekiwany. Istnieje kilka różnych rodzajów rozkładów wzmocnień (), które są opisane jako stałe lub zmienne oraz według proporcji lub odstępów czasowych. Pojęcie stałe odnosi się do liczby reakcji pomiędzy wzmocnieniami lub ilości czasu między wzmocnieniami mających charakter ustalony i niezmienny. Pojęcie zmienne odnosi się do liczby reakcji lub ilości czasu między wzmocnieniami niemającymi charakteru stałego, czyli właśnie zmiennych. Interwał oznacza, że rozkład opiera się na czasie między wzmocnieniami, a według proporcji oznacza, że rozkład opiera się na liczbie reakcji pomiędzy wzmocnieniami.
Teraz zestawimy ze sobą te cztery terminy. Rozkład wzmocnień o stałych odstępach czasowych (ang. ) zachodzi wtedy, kiedy zachowanie jest nagradzane po określonym czasie. Janina poddaje się poważnej operacji w szpitalu. Spodziewa się, że podczas rekonwalescencji będzie odczuwać ból i potrzebować leków na receptę w celu jego złagodzenia. Kobieta dostaje kroplówkę dożylną ze środkiem przeciwbólowym, którą sama uruchamia. Jej lekarz ustala limit: jedna dawka na godzinę. Janina naciska guzik, gdy ból staje się trudny do wytrzymania, i dostaje dawkę leku. Ponieważ nagroda (złagodzenie bólu) występuje tylko w określonym odstępie czasowym, nie miałoby sensu zachowanie, które nie będzie nagrodzone.
Rozkład wzmocnień o zmiennych odstępach czasowych (ang. ) zachodzi wtedy, kiedy osoba lub zwierzę otrzymuje wzmocnienia w różnych odstępach czasu, które są nieprzewidywalne. Powiedzmy, że Mikołaj jest kierownikiem restauracji typu fast food. Do jego restauracji co jakiś czas przychodzi ktoś z działu kontroli jakości. Jeśli restauracja jest czysta, a obsługa pracuje szybko, wszyscy na tej zmianie otrzymują premię. Mikołaj nigdy nie wie, kiedy pojawi się kontroler jakości, dlatego zawsze stara się utrzymywać restaurację w czystości i dzięki motywowaniu pracowników zapewnia klientom szybką i uprzejmą obsługę. Jego wydajność w zakresie szybkiej obsługi i utrzymywania czystej restauracji jest stała, ponieważ chce, aby jego załoga otrzymywała premie.
Rozkład wzmocnień według stałych proporcji (ang. ) zachodzi wtedy, kiedy istnieje pewna liczba reakcji, które muszą wystąpić, zanim zachowanie zostanie nagrodzone. Karolina sprzedaje okulary w sklepie optycznym i dostaje prowizję od każdej sprzedanej pary. Stara się sprzedawać każdemu klientowi więcej niż jedną parę okularów, np. okulary zapasowe, bo w ten sposób zwiększa swój przychód. To, czy klient naprawdę potrzebuje dodatkowych okularów, jest dla niej kwestią drugorzędną, gdyż zależy jej wyłącznie na prowizji. Zauważmy, że premia Karoliny nie zależy też bezpośrednio od jakości sprzedawanego towaru, na który Karolina nie ma wpływu. Wybór rozkładu wzmocnień zależy od celu, do którego dążymy. Lepszy efekt w jakości działania uzyskuje się przy rozkładach o zmiennych odstępach czasowych. Przykładem mogą być karty lojalnościowe, np. darmowa każda co któraś kawa. Im bliżej przewidywanej nagrody, tym większa motywacja do działania. Sprzedawczyni nie ma oczywiście wpływu na jakość okularów, ale ma wpływ na jakość obsługi, która może przyczynić się do tego, że klient kupi więcej lub chętniej wróci do sklepu.
Rozkład wzmocnień według zmiennych proporcji (ang. ) zachodzi wtedy, kiedy liczba reakcji potrzebnych do nagrody jest różna. Jest to najpotężniejszy rozkład wzmacniania sporadycznego. Przykładem rozkładu wzmocnień o zmiennych proporcjach jest hazard. Wyobraź sobie, że Sara — mądra i oszczędna kobieta — po raz pierwszy odwiedza kasyno. Nie jest hazardzistką, ale z ciekawości wrzuca monetę do jednorękiego bandyty, a potem jeszcze raz i znowu, ale nic się nie dzieje. Po jeszcze kilku straconych monetach jej zainteresowanie zanika i Sara zamierza opuścić lokal. Ale wtem zapalają się lampki automatu do gry, rozdzwaniają się dzwonki i Sara wygrywa 50 monet. Tak już lepiej! Sara powraca do gry z nowym zainteresowaniem, a kilka minut później przegrywa całą swoją wygraną, a nawet jest na minusie. To rozsądny czas, aby zrezygnować. A jednak Sara wciąż wkłada pieniądze do automatu, ponieważ nigdy nie wiadomo, kiedy nadejdzie kolejne wzmocnienie. Nieustannie wierzy, że po następnej monecie może wygrać dużą kwotę. Ponieważ rozkład wzmocnień w większości rodzajów hazardu zachodzi według zmiennych proporcji, ludzie nieustannie próbują i mają nadzieję, że następnym razem wygrają duże pieniądze. Jest to jeden z powodów, dla których hazard jest tak uzależniający i tak odporny na wygaszanie.
W warunkowaniu sprawczym wygaszanie wzmocnionego zachowania następuje w pewnym momencie po zaprzestaniu jego wzmacniania, a prędkość, z jaką to się dzieje, zależy od rozkładu wzmocnień. W rozkładzie według zmiennych proporcji punkt wygaszania przychodzi bardzo powoli, jak to opisano powyżej. W pozostałych rozkładach wzmocnień wygaszanie może jednak nastąpić szybko. Na przykład jeśli Janina naciśnie przycisk podania leku przeciwbólowego przed wyznaczonym czasem, to nie otrzyma leku. Ma rozkład wzmocnień o stałych odstępach czasowych (dawka co godzinę), więc wygaszanie następuje szybko, jeśli wzmocnienie nie nastąpi w oczekiwanym czasie. Spośród rozkładów wzmocnień ten według zmiennych proporcji jest najbardziej wydajny i najodporniejszy na wygaszanie. Natomiast ten o stałych odstępach czasowych jest najmniej produktywny i najłatwiejszy do wygaszenia ().
### Poznanie i uczenie się utajone
Skrajni behawioryści, tacy jak Skinner i Watson, koncentrowali się wyłącznie na badaniu zachowania, a nie na poznaniu (np. myśleniu czy oczekiwaniach). Skinner był silnie przywiązany do przekonania, że poznanie nie ma znaczenia, dlatego określano go jako radykalnego behawiorystę. Uważał on, że umysł jest „czarną skrzynką”, pozostaje niepoznawalny, a tym samym niemożliwe jest jego badanie. Natomiast inny behawiorysta, Edward C. Tolman (1886–1959) miał na ten temat odmienne zdanie. W eksperymentach na szczurach wykazał, że organizmy mogą się uczyć, nawet jeśli nie otrzymują natychmiastowego wzmocnienia (Tolman i Honzik, 1930; Tolman, Ritchie et al. Kalish, 1946). Odkrycie to sugerowało poznawczy aspekt uczenia się i było sprzeczne z panującym wówczas przekonaniem, że skuteczne uczenie się wymaga natychmiastowego wzmocnienia.
Tolman umieszczał głodne szczury w labiryncie i nie nagradzał ich za znalezienie drogi wyjścia. Stworzył także grupę kontrolną, która była nagradzana jedzeniem na końcu labiryntu. Niewzmocnione szczury poznawały labirynt, w wyniku czego wytworzyły mapę poznawczą (in. mapę wyobrażeniową) (ang. ): mentalny obraz układu labiryntu, wyobrażenie, które powstało w ich umyśle (). Po 10 sesjach w labiryncie bez wzmocnień na końcu labiryntu zostało umieszczone jedzenie. Gdy tylko szczury dowiedziały się o jedzeniu, potrafiły do niego znaleźć drogę tak szybko jak zwierzęta z grupy kontrolnej. To zjawisko jest znane jako uczenie się utajone (ang. ): uczenie się, które zachodzi, ale nie jest możliwe do zaobserwowania w zachowaniu, dopóki nie ma powodu, aby je wykazać.
Uczenie się utajone zachodzi również u ludzi. Dzieci mogą uczyć się, obserwując działania swoich rodziców, ale demonstrują to dopiero później, gdy zajdzie taka potrzeba. Załóżmy na przykład, że tata Romka codziennie odwozi go do szkoły. W ten sposób Romek uczy się drogi z domu do szkoły. Nigdy nie pojechał tam samodzielnie, więc nie miał okazji wykazać, że się tego nauczył. Gdy pewnego ranka tata Romka nie może zawieźć chłopca do szkoły, dziecko samodzielnie pokonuje rowerem tę samą trasę, którą tata wiózłby go samochodem. To obrazuje uczenie się utajone. Romek nauczył się drogi do szkoły, ale nie musiał wykazywać się tą wiedzą wcześniej.
### Podsumowanie
Warunkowanie sprawcze zostało opisane w pracach B.F. Skinnera i jest rodzajem uczenia się, w którym motywacja do określonego zachowania następuje po wystąpieniu tego zachowania. Zwierzę lub człowiek ponosi konsekwencję po określonym zachowaniu się. Konsekwencją jest albo wzmocnienie, albo ukaranie. Każde wzmocnienie (pozytywne lub negatywne) zwiększa prawdopodobieństwo reakcji behawioralnej. Każda kara (pozytywna lub negatywna) zmniejsza prawdopodobieństwo reakcji behawioralnej. Kilka rodzajów rozkładów wzmocnień służy do nagradzania zachowania w zależności od stałych lub zmiennych odstępów czasowych oraz według stałych lub zmiennych proporcji.
### Review Questions
### Istotne kwestie do przemyślenia
### Pytania do zastosowania osobistego
|
# Uczenie się
## Uczenie się przez obserwację (modelowanie)
Poprzednie części tego rozdziału koncentrowały się na warunkowaniu klasycznym i sprawczym, które są formami uczenia się przez skojarzenie. Uczenie się przez obserwację (ang. ) to proces, w którym uczymy się, obserwując innych, a następnie naśladując lub modelując to, co oni robią lub mówią. Może kiedyś szukałeś w serwisie YouTube filmu pokazującego, jak wykonać jakąś czynność? Osoby, których zachowanie jest naśladowane, to tzw. modele (ang. ). Badania sugerują, że uczenie się przez naśladowanie wymaga specjalnego rodzaju neuronu, zwanego neuronem lustrzanym (Rizzolatti et al., 2002; Rizzolatti et al., 2006). Należy jednak zauważyć, że wysuwane są wątpliwości dotyczące istnienia i funkcjonowania tego rodzaju komórek, np. w książce Hickocka (2010) „Mit neuronów lustrzanych” (polskie wydanie: 2016).
Ludzie i zwierzęta potrafią uczyć się przez obserwację. W wyrażeniu „małpa widzi, małpa robi” jest dużo prawdy (). Podczas badania społecznego uczenia się szympansów badacze dali kartony soków i słomek dwóm grupom małp przebywających w niewoli. Pierwsza grupa zanurzyła słomkę w pojemniku z sokiem, a następnie wyciągnęła słomkę i wyssała niewielką ilość soku, która była na końcu słomki. Druga grupa ssała bezpośrednio przez słomkę, uzyskując znacznie więcej soku. Jak myślisz, co się stało, gdy pierwsza grupa obserwowała drugą grupę? Wszystkie szympansy z pierwszej grupy zmieniły sposób picia na zasysanie przez słomkę. W prosty sposób, poprzez obserwację innych szympansów i naśladowanie ich zachowania, nauczyły się, że jest to bardziej wydajna metoda uzyskiwania soku (Yamamoto, Humlei Tanaka, 2013).
Naśladownictwo (ang. ) jest znacznie bardziej oczywiste u ludzi, ale czy jest ono naprawdę najszczerszą formą pochlebstwa? Zastanów się nad doświadczeniem Klary w uczeniu się na podstawie obserwacji. Dziewięcioletni syn Klary, Janek, wpadł w kłopoty w szkole i był nieposłuszny w domu. Klara obawiała się, że Janek skończy w więzieniu, tak jak jej dwaj bracia. Pewnego dnia, po kolejnej naganie od nauczyciela, Klara z bezsilności zbiła syna pasem. Tej samej nocy, kiedy kładła dzieci do łóżka, zauważyła, że jej czteroletnia córka Anna wzięła pasek i zbiła swojego misia. Do kobiety dotarło wówczas, że musi znaleźć inne metody dyscyplinowania swoich dzieci.
Podobnie jak Edward C. Tolman (1886-1959), którego eksperymenty na szczurach zasugerowały element poznawczy w uczeniu się, poglądy psychologa Alberta Bandury na temat uczenia się różniły się od poglądów skrajnych behawiorystów. Albert Bandura (ur. 1925) i inni naukowcy zaproponowali odmianę behawioryzmu zwaną teorią społecznego uczenia się, która uwzględnia procesy poznawcze. Według Bandury czysty behawioryzm nie potrafi wyjaśnić, dlaczego uczenie się może przebiegać bez zewnętrznego wzmocnienia. Uważał, że wewnętrzne stany umysłowe również muszą odgrywać rolę w uczeniu się, a uczenie się przez obserwację wymaga znacznie więcej niż tylko naśladowania. Naśladowca po prostu kopiuje to, co robi model. Uczenie się przez obserwację jest znacznie bardziej złożone. Według Lefrançois (2012) istnieje kilka sposobów uczenia się poprzez obserwację:
1. Uczysz się nowej reakcji. Po zaobserwowaniu, jak twój kolega z pracy został zrugany przez szefa za spóźnienie, zaczynasz wychodzić z domu 10 minut wcześniej, aby się nie spóźnić.
2. Ty decydujesz, czy naśladować model, czy nie – w zależności od tego, jakie konsekwencje poniósł model. Czy pamiętasz Julka i jego ojca, którzy surfowali w oceanie? Julian obserwował, jak jego ojciec z powodzeniem wskakuje na fale na desce, by potem podjąć samodzielną próbę surfowania. Ale Julian może też nauczyć się, że nie wolno dotykać gorącego pieca, kiedy zobaczy, że ojciec w ten sposób się poparzył.
3. Uczysz się ogólnej zasady, którą możesz zastosować w innych sytuacjach.
Bandura opisał trzy rodzaje modeli: żywe, werbalne i symboliczne. Model żywy demonstruje zachowanie osobiście jak wtedy, gdy Ben stanął na desce surfingowej, aby Julian mógł zobaczyć, jak to się robi. Werbalny model nie wykonuje zachowania, ale wyjaśnia je lub opisuje, tak jak wtedy gdy trener piłki nożnej każe młodym zawodnikom kopnąć piłkę bokiem stopy, a nie palcem. Symbolicznym modelem mogą być fikcyjne postacie lub prawdziwi ludzie, którzy demonstrują zachowania w książkach, filmach, programach telewizyjnych, grach wideo lub źródłach internetowych ().
### Kroki w procesie modelowania
Oczywiście nie uczymy się nowego zachowania tylko poprzez obserwowanie modela. Albert Bandura opisał konkretne kroki w procesie modelowania, jakie należy wykonać, jeśli nauka ma się powieść. Są to: uwaga, przechowanie, reprodukcja i motywacja. Po pierwsze, musisz skupić się na tym, co robi model — musisz uważać. Następnie musisz potrafić zapamiętać i zachować w pamięci to, co obserwujesz; to jest przechowanie. Kolejny etap to umiejętność wykonania zachowania zaobserwowanego i zapisanego w pamięci; to właśnie reprodukcja. Wreszcie musisz mieć motywację. Musisz chcieć powielić to zachowanie, a to, czy masz motywację, zależy od tego, co stało się z modelem. Jeśli widzisz, że model został wzmocniony za dane zachowanie, będziesz mieć silniejszą motywację do kopiowania tego zachowania. Znamy to zjawisko jako wzmocnienie zastępcze (ang. ). Z kolei jeśli widzisz, jak model jest karany, twoja motywacja do naśladowania jego zachowania spadnie. To zjawisko znane jest jako kara zastępcza (ang. ). Wyobraź sobie na przykład, że czteroletnia Alicja obserwowała, jak jej starsza siostra Kasia bawiła się produktami do makijażu ich matki, a potem widziała, jak Kasia została ukarana wykluczeniem po wejściu matki do pokoju. Gdy ich matka opuściła pokój, Alicja miała ochotę bawić się w makijaż, ale nie chciała zostać ukarana. Jak myślisz, co zrobiła? Nie tylko wzmocnienia zastępcze decydują o tym, czy nowe zachowanie będzie powtarzane w przyszłości, najważniejsze jest faktycznie otrzymane wzmocnienie.
Bandura badał zachowania modelujące, w szczególności kiedy u dzieci modelowano gwałtowne i agresywne zachowania dorosłych (Bandura et al., 1961). Przeprowadził eksperyment z dużą lalką o wyglądzie klauna, którą nazwał Bobo. Okazało się, że na zachowanie dzieci decydujący wpływ miały konsekwencje, jakie spotkały nauczycielkę za zachowania wobec lalki. W jednym ze scenariuszy nauczycielka używała wobec lalki agresji słownej i fizycznej, a badane dziecko patrzyło na to zachowanie. Badacze zaobserwowali tu dwa rodzaje reakcji dzieci na zachowanie nauczycielki. Skłonność do zachowań agresywnych u dzieci malała, gdy widziały, że nauczycielkę spotkała kara za jej zachowanie. Kiedy natomiast nauczycielka była wychwalana lub jej zachowanie było ignorowane, dzieci naśladowały jej agresję słowną i fizyczną. Zarówno oryginalne badania Bandury z początku lat sześćdziesiątych ubiegłego wieku, jak i liczne późniejsze replikacje wykazały, że modelowanie zachowań agresywnych u dzieci dokonywane przez dorosłych może być bardzo skuteczne. Warto dodać, że przeważnie stwierdza się wyższą częstość zachowań agresywnych u chłopców niż u dziewcząt oraz że oglądanie agresywnego modela tej samej płci przyczynia się do wyższej częstości zachowań agresywnych.
Jakie są implikacje tego badania? Bandura doszedł do wniosku, że obserwujemy i uczymy się, a ta nauka może mieć zarówno skutki prospołeczne (ang. ), jak i aspołeczne (ang. ). Modele prospołeczne mogą być wykorzystywane do zachęcania do zachowań akceptowanych społecznie. W szczególności rodzice powinni wziąć to odkrycie pod uwagę. Jeśli chcesz, aby twoje dzieci czytały, czytaj im. Niech widzą, że czytasz. Trzymaj książki w domu. Rozmawiaj o swoich ulubionych książkach. Jeśli chcesz, aby twoje dzieci prowadziły zdrowy styl życia, pozwól im zobaczyć, że dobrze się odżywiasz i ćwiczysz, a także wspólnie spędzajcie czas na aktywnościach fizycznych. To samo dotyczy rozwijania cech takich jak życzliwość, uprzejmość i uczciwość. Dzieci postrzegają i uczą się od rodziców, przejmują ich wzorce moralne. Zachowuj więc spójność i nie dawaj swoim dzieciom rad: „Rób to, co mówię, a nie to, co robię”, ponieważ dzieci mają tendencję do naśladowania tego, co robisz, a nie tego, co mówisz. Wiele osób publicznych, np. Mahatma Gandhi (1869-1948), Jurek Owsiak (ur. 1953) czy Janina Ochojska (ur. 1955), jest postrzeganych jako modele prospołeczne, które potrafią zainspirować społeczeństwo do zmiany. Kto był twoim modelem prospołecznym?
Warto również wspomnieć o aspołecznym efekcie uczenia się poprzez obserwację. Na przykładzie Klary przedstawionym na początku tego podrozdziału pokazaliśmy, że jej córka kopiuje zaobserwowane agresywne zachowanie matki. Wskazuje się tu przyczynę, dlaczego dzieci maltretowane same często stosują przemoc w dorosłym życiu (Murrell et al., 2007). Około 30% krzywdzonych dzieci staje się krzywdzącymi rodzicami (amerykański Departament Zdrowia i Opieki Społecznej, 2013). Mamy tendencję do robienia tego, co znamy. Dzieci, które dorastają w atmosferze przemocy, które widzą, że ich rodzice radzą sobie ze złością i frustracją poprzez agresję, uczą się tych zachowań. Tworzy się błędne koło, które trudno przerwać. Analogiczne wnioski dotyczące Polski wynikają z badań i sondaży prowadzonych głównie przez organizacje pozarządowe.
Niektóre badania sugerują, że agresywne programy telewizyjne, filmy i gry wideo również mogą mieć skutki antyspołeczne (), chociaż należy przeprowadzić dalsze badania, aby zrozumieć korelacyjne i przyczynowe aspekty przemocy i zachowań w mediach. Niektóre badania wykazały związek między oglądaniem przemocy i agresją u dzieci (Anderson i Gentile, 2008; Kirsch, 2010; Miller et al., 2012). Ustalenia te nie zaskakują, skoro dziecko kończące szkołę średnią było narażone na oglądanie około 200 000 aktów przemocy, w tym zabójstw, rabunków, tortur, bombardowań, pobić i gwałtów za pośrednictwem różnych mediów (Huston et al., 1992). Należy sądzić, że od tego czasu liczba ta nie uległa zmniejszeniu, a nawet wzrosła. Oglądanie przemocy w mediach może nie tylko wpływać na zachowanie agresywne poprzez przenoszenie takiego sposobu zachowania do świata rzeczywistego. Naukowcy sugerują, że wielokrotna ekspozycja na akty przemocy znieczula ludzi na agresję. Psychologowie pracują nad zrozumieniem tej dynamiki.
### Summary
Według Bandury nauka może odbywać się poprzez obserwowanie innych, a następnie modelowanie tego, co robią lub mówią. Nazywa się to uczeniem się przez obserwację. Istnieją pewne kroki w procesie modelowania, które należy wykonać, aby nauka była skuteczna. Kroki te obejmują uwagę, przechowanie, reprodukcję i motywację. Bandura pokazał, że dzieci uczą się wielu rzeczy zarówno dobrych, jak i złych, po prostu obserwując swoich rodziców, rodzeństwo i innych ludzi.
### Pytania powtórkowe
### Critical Thinking Questions
### Personal Application Question
|
# Myślenie i inteligencja
## Wprowadzenie
Dlaczego tak trudno porzucić nawyki takie jak sięganie po dzwoniący telefon nawet w najmniej odpowiednich momentach, np. podczas prowadzenia samochodu? Jak ktoś, kto nigdy w życiu nie widział i nie dotykał śniegu, ma go sobie wyobrazić? W jaki sposób małe dzieci przyswajają język bez żadnego formalnego nauczania? Odpowiedzi na takie pytania poszukują psychologowie badający zjawisko myślenia.
Psychologowie poznawczy zajmują się również inteligencją. Czym jest i dlaczego nie jest jednakowa u wszystkich ludzi? Czy „mądrość życiowa” to rodzaj inteligencji, a jeśli tak, jakie ma związki z innymi rodzajami inteligencji? Co tak naprawdę mierzą testy inteligencji? Odpowiedzi na te i inne pytania przedstawimy w niniejszym rozdziale, poświęconym myśleniu i inteligencji.
W innych rozdziałach omówiliśmy podstawowe procesy poznawcze, takie jak percepcja, uczenie się i pamięć. Teraz skupimy się na procesach poznawczych wyższego rzędu. W ramach tej dyskusji uwzględnimy myślenie oraz pokrótce przeanalizujemy rozwój kompetencji językowych i posługiwanie się językiem. Omówimy również kwestię rozwiązywania problemów i zagadnienie kreatywności. Rozdział zakończymy rozważaniami na temat tego, jak mierzy się inteligencję oraz w jaki sposób biologia i nasze otoczenie wzajemnie na siebie oddziałują, kształtując jej poziom. Po zapoznaniu się z tym rozdziałem będziesz lepiej rozumieć procesy poznawcze wyższego rzędu, które odróżniają nas jako gatunek od innych zwierząt.
### References
Abler, W. (2013). Sapir, Harris, and Chomsky in the twentieth century. Cognitive Critique, 7, 29–48.
American Association on Intellectual and Developmental Disabilities. (2013). Definition of intellectual disability. Pobrane z: http://aaidd.org/intellectual-disability/definition#.UmkR2xD2Bh4.
American Psychological Association. (2013). W: Diagnostic and statistical manual of psychological disorders (wydanie 5., s. 34–36). Washington, D. C.: American Psychological Association.
Aronson, E. (red.). (1995). Social cognition. W: The social animal (s. 151). New York: W. H. Freeman and Company.
Atkins v. Virginia, 00-8452 (2002).
Bartels, M., Rietveld, M., Van Baal, G., Boomsma, D. I. (2002). Genetic and environmental influences on the development of intelligence. Behavior Genetics, 32(4), 237–238.
Bartlett, F. C. (1932). Remembering: A study in experimental and social psychology. Cambridge, England: Cambridge University Press.
Bayer, J. B., Campbell, S. W. (2012). Texting while driving on automatic: Considering the frequency-independent side of habit. Computers in Human Behavior, 28, 2083–2090.
Barton, S. M. (2003). Classroom accommodations for students with dyslexia. Learning Disabilities Journal, 13, 10–14.
Berlin, B., Kay, P. (1969). Basic color terms: Their universality and evolution. Berkley: University of California Press.
Berninger, V. W. (2008). Defining and differentiating dysgraphia, dyslexia, and language learning disability within a working memory model. W: M. Mody E. R. Silliman (red.), Brain, behavior, and learning in language and reading disorders (s. 103–134). New York: The Guilford Press.
Blossom, M., Morgan, J. L. (2006). Does the face say what the mouth says? A study of infants’ sensitivity to visual prosody. In the 30th annual Boston University Conference on Language Development, Somerville, MA.
Boake, C. (2002, 24 maja). From the Binet-Simon to the Wechsler-Bellevue: Tracing the history of intelligence testing. Journal of Clinical and Experimental Neuropsychology, 24(3), 383–405.
Boroditsky, L. (2001). Does language shape thought? Mandarin and English speakers’ conceptions of time. Cognitive Psychology, 43, 1–22.
Boroditsky, L. (2011, February). How language shapes thought. Scientific American, 63–65.
Bouchard, T. J., Lykken, D. T., McGue, M., Segal, N. L., Tellegen, A. (1990). Sources of human psychological differences: The Minnesota Study of Twins Reared Apart. Science, 250, 223–228.
Cairns Regional Council. (n.d.). Cultural greetings. Retrieved from: http://www.cairns.qld.gov.au/__data/assets/pdf_file/0007/8953/CulturalGreetingExercise.pdf.
Callero, P. L. (1994). From role-playing to role-using: Understanding role as resource. Social Psychology Quarterly, 57, 228–243.
Cattell, R. (1963). Theory of fluid and crystallized intelligence: A critical experiment. Journal of Educational Psychology, 54(1), 1–22.
Chomsky, N. (1965). Aspects of the theory of syntax. Cambridge, MA: MIT Press.
Cianciolo, A. T., Sternberg, R. J. (2004). Intelligence: A brief history. Malden, MA: Blackwell Publishing.
Corballis, M. C., Suddendorf, T. (2007). Memory, time, and language. W: C. Pasternak (red.), What makes us human (s. 17–36). Oxford, UK: Oneworld Publications.
Constitutional Rights Foundation. (2013). Gandhi and civil disobedience. Pobrane z: http://www.crf-usa.org/black-history-month/gandhi-and-civil-disobedience.
Cropley, A. (2006). In praise of convergent thinking. Creativity Research Journal, 18(3), 391–404.
Csikszentmihalyi, M., Csikszentmihalyi, I. (1993). Family influences on the development of giftedness. Ciba Foundation Symposium, 178, 187–206.
Curtiss, S. (1981). Dissociations between language and cognition: Cases and implications. Journal of Autism and Developmental Disorders, 11(1), 15–30.
Cyclopedia of Puzzles. (b.r.). Pobrane z: http://www.mathpuzzle.com/loyd/.
Dates and Events. (b.r.). Oprah Winfrey timeline. Pobrane z: http://www.datesandevents.org/people-timelines/05-oprah-winfrey-timeline.htm.
Fernández, E. M., Cairns, H. S. (2011). Fundamentals of psycholinguistics. West Sussex, UK: Wiley-Blackwell.
Flanagan, D., Kaufman, A. (2004). Essentials of WISC-IV assessment. Hoboken: John Wiley and Sons, Inc.
Flynn, J., Shaughnessy, M. F., Fulgham, S. W. (2012) Interview with Jim Flynn about the Flynn effect. North American Journal of Psychology, 14(1), 25–38.
Fox, M. (2012, 1 listopada). Arthur R. Jensen dies at 89; Set off debate about I.Q. New York Times, s. B15.
Fromkin, V., Krashen, S., Curtiss, S., Rigler, D., Rigler, M. (1974). The development of language in Genie: A case of language acquisition beyond the critical period. Brain and Language, 1, 81–107.
Furnham, A. (2009). The validity of a new, self-report measure of multiple intelligence. Current Psychology: A Journal for Diverse Perspectives on Diverse Psychological Issues, 28, 225–239.
Gardner, H. (1983). Frames of mind: The theory of multiple intelligences. New York: Basic Books.
Gardner, H., Moran, S. (2006). The science of multiple intelligences theory: A response to Lynn Waterhouse. Educational Psychologist, 41, 227–232.
German, T. P., Barrett, H. C. (2005). Functional fixedness in a technologically sparse culture. Psychological Science, 16, 1–5.
Gilford, J.P. (1967) The nature of human intelligence, McGraw-Hill.
Goad, B. (2013, 25 stycznia). SSA wants to stop calling people 'mentally retarded’. Retrieved from: http://thehill.com/blogs/regwatch/pending-regs/279399-ssa-wants-to-stop-calling-people-mentally-retarded.
Goldstone, R. L., Kersten, A. (2003). Concepts and categorization. W: A. F. Healy, R. W. Proctor, I.B. Weiner (red.), Handbook of psychology (vol. 4, s. 599–622). Hoboken, New Jersey: John Wiley & Sons, Inc.
Goleman, D. (1995). Emotional intelligence; Why it can matter more than IQ. New York: Bantam Books.
Gordon, O. E. (1995). Francis Galton (1822–1911). Pobrane z: http://www.psych.utah.edu/gordon/Classes/Psy4905Docs/PsychHistory/Cards/Galton.html.
Gresham, F. M., Witt, J. C. (1997). Utility of intelligence tests for treatment planning, classification, and placement decisions: Recent empirical findings and future directions. School Psychology Quarterly, 12(3), 249–267.
Guilford, J. P. (1967). The nature of human intelligence. New York, NY: McGraw Hill.
Heaton, S. (2004). Making the switch: Unlocking the mystery of the WISC-IV. Case Conference. University of Florida.
Jensen, J. (2011). Phoneme acquisition: Infants and second language learners. The Language Teacher, 35(6), 24–28.
Johnson, J. S., Newport, E. L. (1989). Critical period effects in second language learning: The influence of maturational state on the acquisition of English as a second language. Cognitive Psychology, 21, 60–99.
Kahneman, D. (2011). Thinking, fast and slow. New York: Farrar, Straus, and Giroux.
Kishiyama, M. M., Boyce, W. T., Jimenez, A. M., Perry, L. M., Knight, R. T. (2009). Socioeconomic disparities affect prefrontal function in children. Journal of Cognitive Neuroscience, 21(6), 1106–1115.
Klein, P. D. (1997). Multiplying the problems of intelligence by eight: A critique of Gardner’s theory. Canadian Journal of Education, 22, 377–394.
Larry P v. Riles, C-71-2270 RFP. (1979).
Lenneberg, E. (1967). Biological foundations of language. New York: Wiley.
Leavitta J. Linguistic Relativities: Language Diversity and Modern Thought, wydana przez Cambridge University Press (2015).
Liptak, A. (2008, 19 stycznia). Lawyer reveals secret, toppling death sentence. New York Times. Pobrane z: http://www.nytimes.com/2008/01/19/us/19death.html?_r=0.
Locke, E. A. (2005, 14 kwietnia). Why emotional intelligence is an invalid concept. Journal of Organizational Behavior, 26, 425–431.
Mayer, J. D., Salovey, P., Caruso, D. (2004). Emotional intelligence: Theory, findings, and implications. Psychological Inquiry, 15(3), 197–215.
Modgil, S., Routledge, C. M. (red.). (1987). Arthur Jensen: Consensus and controversy. New York: Falmer Press.
Morgan, H. (1996). An analysis of Gardner’s theory of multiple intelligence. Roeper Review: A Journal on Gifted Education, 18, 263–269.
Moskowitz, B. A. (1978). The acquisition of language. Scientific American, 239, 92–108.
Neyfakh, L. (2013, October 7). “Why you can’t stop checking your phone”. Pobrane z: http://www.bostonglobe.com/ideas/2013/10/06/why-you-can-stop-checking-your-phone/rrBJzyBGDAr1YlEH5JQDcM/story.html.
Parker, J. D., Saklofske, D. H., Stough, C. (red.). (2009). Assessing emotional intelligence: Theory, research, and applications. New York: Springer.
Petitto, L. A., Holowka, S., Sergio, L. E., Levy, B., Ostry, D. J. (2004). Baby hands that move to the rhythm of language: Hearing babies acquiring sign languages babble silently on the hands. Cognition, 93, 43–73.
Pickens, J. (1994). Full-term and preterm infants’ perception of face-voice synchrony. Infant Behavior and Development, 17, 447–455.
Pratkanis, A. (1989). The cognitive representation of attitudes. W: A. R. Pratkanis, S. J. Breckler, & A. G. Greenwald (eds.), Attitude structure and function (s. 71–98). Hillsdale, NJ: Erlbaum.
Regier, T., Kay, P. (2009). Language, thought, and color: Whorf was half right. Trends in Cognitive Sciences, 13(10), 439–446.
Riccio, C. A., Gonzales, J. J., Hynd, G. W. (1994). Attention-deficit Hyperactivity Disorder (ADHD) and learning disabilities. Learning Disability Quarterly, 17, 311–322.
Richardson, K. (2002). What IQ tests test. Theory & Psychology, 12(3), 283–314.
Roberts, D. (2014, 27 maja). U.S. Supreme Court bars Florida from using IQ score cutoff for executions. The Guardian. Pobrane z: http://www.theguardian.com/world/2014/may/27/us-supreme-court-iq-score-cutoff-florida-execution.
Rushton, J. P., Jensen, A. R. (2005). Thirty years of research on race differences in cognitive ability. Psychology, public policy, and law, 11(2), 235–294.
Rymer, R. (1993). Genie: A Scientific Tragedy. New York: Harper Collins.
Sapir, E. (1964). Culture, language, and personality. Berkley: University of California Press (original work published 1941).
Schlinger, H. D. (2003). The myth of intelligence. The Psychological Record, 53(1), 15–32.
Severson, K. (2011, 9 grudnia). Thousands sterilized, a state weighs restitution. The New York Times. Retrieved from: http://www.nytimes.com/2011/12/10/us/redress-weighed-for-forced-sterilizations-in-north-carolina.html?pagewanted=all&_r=0.
Singleton, D. M. (1995). Introduction: A critical look at the critical period hypothesis in second language acquisition research. In: D. M. Singleton & Z. Lengyel (red.), The age factor in second language acquisition: A critical look at the critical period hypothesis in second language acquisition research (s. 1–29). Avon, UK: Multilingual Matters Ltd.
Skinner, B. F. (1957). Verbal behavior. Acton, MA: Copley Publishing Group.
Smits-Engelsman, B. C. M., Van Galen, G. P. (1997). Dysgraphia in children: Lasting psychomotor deficiency or transient developmental delay?. Journal of Experimental Child Psychology, 67, 164–184.
Spelke, E. S., Cortelyou, A. (1981). Perceptual aspects of social knowing: Looking and listening in infancy. W: M. E. Lamb, L. R. Sherrod (red.), Infant social cognition: Empirical and theoretical considerations (s. 61–83). Hillsdale, NJ: Erlbaum.
Steitz, T. (2010). Thomas A. Steitz – Biographical (pod red. K. Grandin). Pobrane z: http://www.nobelprize.org/nobel_prizes/chemistry/laureates/2009/steitz-bio.html.
Sternberg, R. J. (1988). The triarchic mind: A new theory of intelligence. New York: Viking-Penguin.
Terman, L. M. (1925). Mental and physical traits of a thousand gifted children (I). Stanford, CA: Stanford University Press.
Terman, L. M., Oden, M. H. (1947). The gifted child grows up: 25 years’ follow-up of a superior group: Genetic studies of genius (vol. 4). Standord, CA: Stanford University Press.
Terman, L. M. (1916). The measurement of intelligence. Boston: Houghton-Mifflin.
Tomasello, M., Rakoczy, H. (2003). What makes human cognition unique? From individual to shared to collective intentionality. Mind & Language, 18(2), 121–147.
Tversky, A., Kahneman, D. (1974). Judgment under uncertainty: Heuristics and biases. Science, 185(4157), 1124–1131.
van Troyer, G. (1994). Linguistic determinism and mutability: The Sapir-Whorf “hypothesis” and intercultural communication. JALT Journal, 2, 163–178.
Wechsler, D. (1958). The measurement of adult intelligence. Baltimore: Williams & Wilkins.
Wechsler, D. (1981). Manual for the Wechsler Adult Intelligence Scale—revised. New York: Psychological Corporation.
Wechsler, D. (2002 ). WPPSI-R manual. New York: Psychological Corporation.
Werker, J. F., Lalonde, C. E. (1988). Cross-language speech perception: Initial capabilities and developmental change. Developmental Psychology, 24, 672–683.
Werker, J. F., Tees, R. C. (1984). Cross-language speech perception: Evidence for perceptual reorganization during the first year of life. Infant Behavior and Development, 7, 49–63.
Whorf, B. L. (1956). Language, thought and relativity. Cambridge, MA: MIT Press.
Williams, R. L. (1970). Danger: Testing and dehumanizing black children. Clinical Child Psychology Newsletter, 9(1), 5–6.
Zwicker, J. G. (2005). Effectiveness of occupational therapy in remediating handwriting difficulties in primary students: Cognitive versus multisensory interventions. Unpublished master’s thesis, University of Victoria, Victoria, British Columbia, Canada). Pobrane z: http://dspace.library.uvic.ca:8080/bitstream/handle/1828/49/Zwicker%20thesis.pdf?sequence=1. |
# Myślenie i inteligencja
## Czym jest poznanie?
Wyobraź sobie, że wszystkie twoje myśli to przedmioty fizyczne szybko przemieszczające się w umyśle. Jak to możliwe, że mózg potrafi przeskakiwać z jednej myśli do drugiej w zorganizowany, uporządkowany sposób? Mózg nieustannie przyswaja, przetwarza, planuje, porządkuje i zapamiętuje – cały czas jest aktywny. Jednak na co dzień w znacznej mierze tej aktywności nie zauważamy. To zaledwie jeden aspekt złożonych procesów składających się na poznanie. Najprościej mówiąc, poznanie (ang. ) to myślenie. Obejmuje procesy związane z percepcją, wiedzą, rozwiązywaniem problemów, ocenianiem, językiem i pamięcią. Naukowcy badający procesy poznawcze próbują zrozumieć, w jaki sposób integrujemy, organizujemy i wykorzystujemy nasze świadome doświadczenia poznawcze, nie zdając sobie sprawy z podświadomej pracy, jaką wykonuje nasz mózg (np. Kahneman, 2011).
### Poznanie
Codziennie po przebudzeniu zaczynamy myśleć – np. rozmyślamy nad zadaniami, które nas czekają w danym dniu. W jakiej kolejności powinniśmy wykonać swoje obowiązki? Czy najpierw iść do banku, do pralni, czy do sklepu spożywczego? Czy można coś zrobić, zanim pójdziemy na zajęcia, czy pewne zadania będą musiały poczekać, aż wrócimy z uczelni? Takie myśli są przykładem tego, jak poznanie wygląda w praktyce. Ten niezwykle złożony proces jest nieodzowną cechą ludzkiej świadomości, mimo że nie doświadczamy świadomie wszystkich jego aspektów.
Psychologia poznawcza (ang. ) to dziedzina psychologii zajmująca się badaniem tego, w jaki sposób ludzie myślą. Naukowcy zajmujący się tą dyscypliną próbują wyjaśnić, jak i dlaczego myślimy w określony sposób. Poddają analizie relacje pomiędzy ludzkim myśleniem, emocjami, twórczością, językiem i rozwiązywaniem problemów oraz innymi procesami poznawczymi. Psychologowie poznawczy, wraz z psychologami zajmującymi się różnicami indywidualnymi, dążą m.in. do opisania i zmierzenia różnych rodzajów inteligencji, analizują, dlaczego niektórzy ludzie rozwiązują problemy lepiej niż inni, oraz w jaki sposób inteligencja emocjonalna wpływa na sukces zawodowy. Ponadto skupiają się na tym, jak grupujemy myśli i informacje pobrane z otoczenia w sensowne kategorie pojęciowe, o czym porozmawiamy później.
### Pojęcia i prototypy
Układ nerwowy człowieka obsługuje niezliczone strumienie informacji. Zmysły służą jako forum wymiany między umysłem a środowiskiem zewnętrznym, otrzymując bodźce i przekładając je na impulsy nerwowe przekazywane do mózgu. Następnie mózg przetwarza te informacje i wykorzystuje ich odpowiednie elementy do tworzenia myśli, które później zostają wyrażone słowami lub są przechowywane w pamięci. Aby jeszcze bardziej skomplikować ten proces, mózg nie zbiera informacji wyłącznie z otoczenia. Podczas tworzenia myśli odwołuje się również do emocji oraz zapisanych w pamięci wspomnień i wiedzy (), które mają ogromny wpływ na nasz sposób myślenia i zachowanie.
Aby uporządkować tę zdumiewającą ilość informacji, mózg stworzył coś na kształt szafki na dokumenty, w której przechowywane są różne segregatory nazywane pojęciami. Pojęcia (ang. concepts) są kategoriami lub grupami informacji lingwistycznych, obrazów, idei czy wspomnień, takich jak życiowe doświadczenia. Pod wieloma względami pojęcia przypominają wielkie idee powstające dzięki obserwacji szczegółów, ich grupowaniu i łączeniu w struktury poznawcze. Używamy ich, by znaleźć zależności między różnymi elementami naszych doświadczeń oraz żeby informacje w naszym umyśle pozostawały uporządkowane i dostępne.
Pojęcia podpowiada nam pamięć semantyczna (więcej na jej temat dowiesz się z następnego rozdziału). Występują w każdym aspekcie naszego życia. Jednak jednym z miejsc, w których najłatwiej je zauważyć, jest klasa szkolna, gdzie są wprost przekazywane i omawiane. Przykładowo, gdy uczysz się o historii Polski, poznajesz nie tylko poszczególne wydarzenia, które miały miejsce w Europie w minionych latach. Przyswajasz dużą ilość informacji, przysłuchując się dyskusjom i biorąc w nich udział, analizując mapy i czytając naoczne relacje żyjących wtedy ludzi. Nasz mózg analizuje te szczegóły i tworzy ogólne wyobrażenie na temat historii państwa i kontynentu. W toku tego procesu gromadzi szczegółowe dane, które w efekcie pozwalają lepiej zrozumieć różne powiązane pojęcia, takie jak demokracja, władza i wolność.
Pojęcia mogą być złożone i abstrakcyjne, jak np. sprawiedliwość, lub bardziej konkretne, jak gatunki ptaków. Przykładowo pojęciami abstrakcyjnymi w psychologii są stadia rozwoju poznawczego dziecka opisane przez Jeana Piageta (1896-1980). Pewne pojęcia, np. tolerancja, są uzgadniane przez wiele osób, ponieważ przez wiele lat były używane w różny sposób. Inne pojęcia, takie jak charakterystyka idealnego przyjaciela lub rodzinnych tradycji urodzinowych, są osobiste i subiektywne. Dzięki temu pojęcia dotykają każdego aspektu naszego życia, począwszy od codziennej rutyny.
Inna technika porządkowania informacji stosowana przez nasz mózg to identyfikacja prototypów utworzonych pojęć. Prototyp (ang. ) stanowi najbardziej typowy przykład danego pojęcia. Przykładowo prototypem dla kategorii obywatelskiego nieposłuszeństwa mogłoby być zachowanie Rosy Parks (1913-2005). Jej pokojowy bojkot segregacji w miejskim autobusie w Montgomery w stanie Alabama jest rozpoznawalnym symbolem tego aktu. Podobnym symbolem może być również Mahatma Gandhi (1869-1948) (). Dla Polaków byliby to działacze podziemnej Solidarności w stanie wojennym. Współcześnie zaś ekolodzy walczący ze zmianami klimatycznymi.
Mahatma Gandhi w pacyfistyczny sposób walczył o niepodległość Indii, żądając jednocześnie, by liderzy buddyzmu, hinduizmu, islamu i chrześcijaństwa – zarówno z Indii, jak i Wielkiej Brytanii – pokojowo ze sobą współpracowali. Mimo że nie zawsze udawało mu się uniknąć wokół siebie przemocy, jego życie to niezłomny przykład prototypu obywatelskiego nieposłuszeństwa (Constitutional Rights Foundation, 2013).
### Pojęcia naturalne i sztuczne
W psychologii pojęcia dzieli się na naturalne i sztuczne. Pojęcia naturalne (ang. ) powstają „naturalnie” podczas zdobywania przez nas doświadczeń - zarówno bezpośrednich, jak i pośrednich. Na przykład jeśli ktoś mieszka w Polsce, zapewne widział padający śnieg, delikatny śnieżek tworzący cienką warstwę na samochodzie, i odgarniał biały puch, myśląc przy tym „To idealny śnieg do jazdy na nartach”. W dzieciństwie rzucał się śnieżkami z przyjaciółmi i zjeżdżał na sankach z najbardziej stromej górki w okolicy. Krótko mówiąc, zna śnieg, wie, jak wygląda, pachnie, smakuje i jaki jest w dotyku. Jeśli jednak ktoś przez całe życie mieszka na wyspie Saint Vincent na Morzu Karaibskim, zapewne nigdy nie widział śniegu na własne oczy, a tym bardziej go nie smakował, nie wąchał i nie dotykał. Taka osoba zna śnieg pośrednio – widziała zdjęcia z padającym śniegiem albo oglądała filmy osadzone w śnieżnej scenerii. Tak czy inaczej śnieg jest pojęciem naturalnym. Jest to pojęcie, które można zrozumieć dzięki bezpośredniej obserwacji lub styczności z nim ()
Sztuczne pojęcie (ang. ) jest definiowane zestawem określonych właściwości. Przykładem pojęć sztucznych mogą być cechy kształtów geometrycznych, takich jak kwadraty i trójkąty. Trójkąt ma zawsze trzy kąty i trzy boki. Kwadrat ma cztery równe boki i cztery kąty proste. Wzory matematyczne, np. na obliczenie pola (długość × szerokość), to sztuczne pojęcia definiowane konkretnym zestawem właściwości, które są zawsze takie same. Pojęcia sztuczne mogą wpłynąć na lepsze zrozumienie danego tematu, dzięki temu, że są na sobie nadbudowywane. Przykładowo, zanim poznamy pojęcie „pola kwadratu” (i wzór do jego obliczenia), musimy zrozumieć, czym jest kwadrat. Gdy już znamy pojęcie „pola kwadratu”, możemy zrozumieć pojęcia pól innych figur geometrycznych. Zastosowanie pojęć sztucznych do określenia pewnej idei ma zasadnicze znaczenie dla komunikacji z ludźmi i angażowania się w zawiłe procesy myślowe. Według Goldstone'a i Kerstena (2003) pojęcia są jak klocki, które można łączyć w niezliczone konfiguracje, by tworzyć złożone myśli.
### Schematy
Schemat (ang. ) to konstrukt myślowy złożony z grupy lub zestawu powiązanych pojęć (Bartlett, 1932). Mimo że istnieje wiele różnych rodzajów schematów, wszystkie mają jedną wspólną cechę: są sposobem porządkowania informacji, który umożliwia mózgowi wydajniejszą pracę. Po aktywacji schematu mózg natychmiast uruchamia wszystkie związane z nim informacje, tj. przyjmuje wszystkie założenia związane z daną osobą lub obserwowanym obiektem.
Wyróżniamy kilka rodzajów schematów. schemat roli społecznej (ang. ) koduje typowe zachowania ludzi w określonych rolach (Callero, 1994). Wyobraź sobie, że spotykasz strażaka. W takiej sytuacji twój mózg automatycznie aktywuje „schemat strażaka” i z założenia przyjmuje, że osoba ta jest odważna, bezinteresowna i zorientowana na dobro wspólne. Nie znasz tego człowieka, a jednak nieświadomie tak go oceniasz. Schematy pomagają również uzupełnić braki w informacjach otrzymywanych ze świata zewnętrznego. Chociaż pozwalają na skuteczniejsze przetwarzanie informacji, ze stosowaniem schematów mogą wiązać się pewne problemy, i to niezależnie od tego, czy są trafne. Być może ten konkretny strażak wcale nie jest odważny, tylko pracuje w straży pożarnej, żeby opłacić rachunki, a jednocześnie studiuje, bo chce zostać bibliotekarzem w dziecięcej bibliotece.
Schemat zdarzeń (ang. ), zwany również skryptem poznawczym (ang. ), to zestaw zachowań sprawiających wrażenie rutyny. Zastanów się, co robisz, gdy wsiadasz do windy (). Otwierają się drzwi, czekasz, aż wysiadający na danym piętrze opuszczą windę. Następnie wchodzisz do środka, odwracasz się w stronę drzwi i naciskasz odpowiedni guzik. Nigdy nie stajesz plecami do drzwi, prawda? A gdy jedziesz zatłoczoną windą i nie możesz odwrócić się twarzą w kierunku drzwi, to zapewne czujesz się niekomfortowo. Co ciekawe, schematy zdarzeń mocno różnią się w zależności od kultury i kraju. W Polsce ludzie na powitanie podają sobie rękę, natomiast w Tybecie witają się z drugą osobą, pokazując jej język, a w Belize – przybijając sobie „żółwika” (Cairns Regional Council, b.d.).
W związku z tym, że schematy zdarzeń są automatyczne, trudno je zmienić. Wyobraź sobie, że jedziesz samochodem z pracy lub uczelni do domu. Ten schemat zdarzeń obejmuje wejście do auta, zamknięcie drzwi, zapięcie pasów, a następnie włożenie kluczyka do stacyjki. Być może wykonujesz ten skrypt dwa lub trzy razy dziennie. Podczas jazdy słyszysz, że dzwoni telefon. Schemat zdarzeń, który zwykle pojawia się w takim momencie, uwzględnia zlokalizowanie telefonu, odebranie go lub odpisanie na ostatniego SMS-a. Zatem, niewiele myśląc, sięgasz po komórkę, która jest – załóżmy – w kieszeni, torbie albo na siedzeniu pasażera. Ten silny schemat zdarzeń to wynik twojego wzorca zachowań i przyjemnego bodźca, jaki dla mózgu stanowi sygnał dzwonka lub SMS-a. Ponieważ jest to schemat, niezmiernie trudno nam powstrzymać się od sięgnięcia po telefon, mimo iż wiemy, że robiąc to, narażamy życie własne i innych osób (Neyfakh, 2013) ().
Pamiętasz przykład z windą? Wydaje się niemal niemożliwe, by wsiąść do niej i nie odwrócić się twarzą do drzwi. Nasz silny schemat zdarzeń dyktuje nam zachowanie w windzie, podobnie jak w przypadku postępowania z telefonem. Najnowsze badania sugerują, że nawyk, czy inaczej schemat zdarzenia, zerkania na telefon w różnych sytuacjach znacznie utrudnia powstrzymanie się podczas jazdy od sprawdzenia, kto dzwonił (Bayer i Campbell, 2012). Jako że esemesowanie i prowadzenie auta stało się w ostatnich latach groźną epidemią, psychologowie analizują, w jaki sposób pomóc ludziom wyłączyć ten „schemat telefonu”, gdy siedzą za kierownicą. Tego typu schematy zdarzeń przyczyniają się do tego, jak trudno nam zerwać z wieloma nawykami. Podczas dalszej analizy zagadnienia myślenia należy pamiętać, że pojęcia i schematy bardzo mocno oddziałują na nasze zrozumienie świata.
### Summary
W tym podrozdziale zapoznałaś się z psychologią poznawczą, która bada poznanie, czyli zdolność mózgu do myślenia, postrzegania, planowania, analizowania i zapamiętywania. Pojęcia i odpowiadające im prototypy pomagają nam szybko uporządkować myśli, tworząc kategorie, w które grupujemy nowe informacje. Ponadto tworzymy schematy, czyli grupy powiązanych pojęć. Niektóre schematy dotyczące rutynowego myślenia i zachowania, pomagają nam odpowiednio postępować w różnych sytuacjach bez konieczności zastanawiania się nad nimi. Schematy pojawiają się w sytuacjach społecznych i rutynie dnia codziennego.
### Review Questions
### Critical Thinking Questions
### Personal Application Question
|
# Myślenie i inteligencja
## Język
Język (ang. ) to system znaków i usystematyzowanych zasad ich porządkowania, który służy ludziom do porozumiewania się między sobą. Język jest zatem formą komunikacji, jednak nie każdy rodzaj komunikacji jest językiem. Wiele gatunków zwierząt komunikuje się ze sobą poprzez pozy, ruchy, zapachy i odgłosy. Taka komunikacja jest kluczowa dla grup, które muszą wchodzić w interakcję i rozwijać relacje społeczne z innymi przedstawicielami tego samego gatunku. Panuje jednak powszechne przekonanie, że to właśnie język sprawia, że ludzie wyróżniają się na tle pozostałych gatunków zwierząt (Corballis i Suddendorf, 2007; Tomasello i Rakoczy, 2003). W niniejszym podrozdziale dowiemy się, dlaczego język jest szczególną formą komunikacji, w jaki sposób nabywamy kompetencje językowe oraz jak wpływa on na nasz sposób myślenia.
### Komponenty języka
Język, zarówno mówiony, pisany, jak i migowy, ma określone komponenty: leksykon i gramatykę. Leksykon (ang. ) to zasób słów danego języka, czyli słownictwo. Gramatyka (ang. ) to zestaw reguł stosowanych do przekazywania znaczenia za pomocą słownictwa (Fernández i Cairns, 2011). Dla przykładu w języku polskim tryb przypuszczający tworzy się, dodając do formy przeszłej czasownika cząstkę „-by”.
Słowa powstają z połączenia różnych fonemów. Fonem (ang. ) (np. wyrażony głoską /t/) to podstawowa jednostka systemu dźwiękowego danego języka. Łącząc się, fonemy tworzą morfemy (ang. ), czyli najmniejsze jednostki języka wyrażające jakieś znaczenie (np. „ja”). Natomiast słowo (wyraz) to połączenie morfemów lub pojedynczy morfem. Do budowy wypowiedzi wykorzystujemy semantykę i składnię, które są częścią gramatyki danego języka. Semantyka (ang. ) odnosi się do procesów, dzięki którym wydobywamy znaczenie słów. Składnia (ang. ) zaś to sposób łączenia słów w zdania (Chomsky, 1965; Fernández i Cairns, 2011).
Do organizowania słownictwa w oryginalny i kreatywny sposób wykorzystujemy zasady gramatyczne. Dzięki temu możemy przekazywać informacje na temat pojęć konkretnych i abstrakcyjnych. Możemy rozmawiać o naszym bezpośrednim, namacalnym otoczeniu, jak również o powierzchni planet, których nie widzimy. Możemy dzielić się naszymi najskrytszymi myślami, planami na przyszłość i spierać się o wartość kształcenia uniwersyteckiego. Możemy udzielać szczegółowych instrukcji dotyczących przygotowania posiłku, naprawy samochodu lub rozpalenia ogniska. Dzięki używaniu języka możemy tworzyć, organizować i wyrażać idee, schematy i sztuczne pojęcia.
### Rozwój języka
Biorąc pod uwagę niesamowitą złożoność języka, można przypuszczać, że opanowanie go jest szczególnie trudnym zadaniem. Rzeczywiście może tak być w przypadku osób, które próbują nauczyć się drugiego języka w dorosłym życiu. Jednak małe dzieci opanowują język z dużą łatwością i w krótkim czasie. B.F. Skinner (1957) zasugerował, że język jest przyswajany dzięki uzyskiwaniu wzmocnień. Noam Chomsky (1965) skrytykował to behawiorystyczne podejście, twierdząc, że mechanizmy leżące u podłoża nabywania języka są uwarunkowane biologicznie. Rozwój umiejętności językowych odbywa się bez żadnej formalnej nauki i przebiega w bardzo podobny sposób u dzieci z bardzo odmiennych kultur i środowisk. Wydaje się zatem, że rodzimy się z biologiczną predyspozycją do przyswajania języka (Chomsky, 1965; Fernández i Cairns, 2011). Ponadto wygląda na to, że istnieje kluczowy (tzw. krytyczny) okres dla nauki języka, przypadający na najwcześniejsze lata życia. Natomiast łatwość przyswajania i opanowywania nowych języków maleje, gdy ludzie się starzeją (Johnson i Newport, 1989; Lenneberg, 1967; Singleton, 1995).
Dzieci zaczynają poznawać język od najmłodszych lat (). Okazuje się, że proces ten zachodzi jeszcze zanim przyjdziemy na świat. Noworodki preferują głos matki i wydaje się, że są w stanie odróżnić język, którym się ona posługuje, od innych. Niemowlęta są ponadto wyczulone na języki używane w ich otoczeniu i wolą filmy, na których twarze poruszają się synchronicznie z nagranym głosem od filmów z niezsynchronizowanym dźwiękiem (Blossom i Morgan, 2006; Pickens, 1994; Spelke i Cortelyou, 1981).
Jak wspomnieliśmy wyżej, każdy język ma własny zestaw fonemów używanych do tworzenia morfemów, słów itd. Dzieci potrafią rozróżniać dźwięki wyrażane głoskami i składające sie na określony wyraz (na przykład słyszą różnicę między „z” w słowie „wizja” i „s” w słowie „misja”). Na bardzo wczesnym etapie rozwoju są w stanie rozróżniać dźwięki wszystkich języków świata, nawet te niewystępujące w ich środowisku. Niemniej około 1. roku życia dzieci potrafią wyróżnić jedynie fonemy obecne w języku/językach ze swojego otoczenia (Jensen, 2011; Werker i Lalonde, 1988; Werker i Tees, 1984).
Po kilku pierwszych miesiącach życia dzieci wchodzą w etap nazywany gaworzeniem, podczas którego wypowiadają pojedyncze sylaby i stale je powtarzają. Z czasem rośnie liczba kombinacji artykułowanych sylab. W tym okresie dzieci raczej nie próbują się komunikować za pomocą wypowiadanych sylab. Równie chętnie gaworzą, gdy są same, jak w towarzystwie opiekunów (Fernández i Cairns, 2011). Co ciekawe, dzieci wychowywane w środowisku, w którym używany jest język migowy, również na tym etapie zaczynają gaworzyć przy użyciu gestów rąk (Petitto et al., 2004).
Na ogół dziecko wypowiada pierwsze słowo między 12. a 18. miesiącem życia i przez kilka kolejnych miesięcy pozostaje na etapie „jednowyrazowego” rozwoju języka. Dzieci znają wtedy wiele słów, ale tworzą wyłącznie jednowyrazowe wypowiedzi. Zasób słownictwa ogranicza się do znanych przedmiotów lub zdarzeń, w większości składa się z rzeczowników. Mimo to jego wypowiedzi mają zazwyczaj szersze znaczenie (Fernández i Cairns, 2011). Przykładowo dziecko mówiące: „ciastko” może pokazywać ciastko lub o nie prosić.
Wraz z rozwojem słownictwa dziecko wypowiada proste zdania i bardzo szybko uczy się nowych słów. Ponadto zaczyna wykazywać zrozumienie określonych zasad rządzących językiem. Nawet popełniane czasem przez dzieci błędy stanowią dowód na to, jak dobrze te reguły są im znane. Widzimy to na przykład w postaci nadmiernej generalizacji (ang. ). W tym kontekście odnosi się ona do rozszerzenia reguł językowych i nieuwzględniania wyjątków od tych reguł. Na przykład w języku angielskim „s” na końcu rzeczownika oznacza zazwyczaj liczbę mnogą, czyli mówimy „one dog” (jeden pies), ale „two dogs” (dwa psy). Małe dzieci nadmiernie uogólniają tę regułę i stosują ją do wyjątków, dodając „s” do rzeczowników odmienianych nieregularnie, i mówią np. „two gooses” (dwie gęsi) zamiast „two geese” lub „three mouses” (trzy myszy) zamiast „three mice”. Polskie dziecko może zastosować typowe schematy odmiany rzeczowników i czasowników do wyjątków i powiedzieć: „widziałam piesa” zamiast „widziałam psa” (jako analogia do odmiany „kot” – „kota”) czy „chcem” zamiast „chcę” (przez analogię do „jem”). Jak widać, dzieci znają i rozumieją reguły języka, nawet jeśli jeszcze do końca nie opanowały wyjątków od nich (Moskowitz, 1978).
### Język a myślenie
- Ludwig Wittgenstein (1889-1951), Traktat logiczno-filozoficzny (1921)
Gdy mówimy jednym językiem, uznajemy, że słowa stanowią reprezentację myśli, ludzi, miejsc i zdarzeń. Dany język przyswajany przez dzieci jest związany z ich kulturą i środowiskiem. Ale czy same słowa mogą wpływać na sposób myślenia o różnych rzeczach? Psychologowie od dawna analizują kwestię, czy język kształtuje myśli i czyny, czy to nasze myśli i przekonania kształtują język, którym się posługujemy. Dwaj badacze, Edward Sapir (1884-1939) i Benjamin Lee Whorf (1897-1941), zajęli się tym tematem w latach 40. XX wieku. Chcieli się dowiedzieć, jak nawyki językowe danej społeczności zachęcają jej członków do interpretowania rzeczywistości w określony sposób (Sapir, 1941/1964). Sapir i Whorf zasugerowali, że język determinuje myślenie. Na przykład w niektórych językach występuje kilka określeń miłości, podczas gdy w języku angielskim jedno. Czy ma to wpływ na sposób myślenia o miłości (Whorf, 1956)? W późniejszych latach inni badacze uznali to podejście za zbyt kategoryczne, zarzucając koncepcji Sapira i Whorfa brak empiryzmu (Abler, 2013; Boroditsky, 2011; van Troyer, 1994). Obecnie nadal prowadzone są badania i dyskusje nad związkiem między językiem a myśleniem. Doskonałym przykładem jest tu obszerna praca Johna Harolda Leavitta (ur. 1956): Linguistic Relativities: Language Diversity and Modern Thought, wydana przez Cambridge University Press w 2015 roku.
Z badań wynika, że język może faktycznie wpływać na nasz sposób myślenia. Koncepcję tę nazywamy determinizmem lingwistycznym. Jeden z najnowszych dowodów potwierdzających to zjawisko odwołuje się do różnic w sposobie mówienia i myślenia o czasie u osób władających językiem angielskim i mandaryńskim. Osoby mówiące po polsku czy po angielsku wypowiadają się na temat czasu, używając określeń opisujących zmiany w wymiarze poziomym. Mówią np. „Jestem do tyłu z pracą” lub „Nie wybiegaj myślami tak daleko w przód”. Tymczasem użytkownicy mandaryńskiej odmiany języka chińskiego, którzy także opisują czas w kontekście poziomym, często stosują również określenia związane z układem pionowym. Zdarza się, że przeszłość plasują „u góry”, a przyszłość „na dole”. Okazuje się, że te różnice językowe przekładają się na różnice w wynikach osiąganych w testach sprawdzających, jak szybko dana osoba rozpoznaje zależności czasowe. Szczególnie przy zadaniach opartych na układzie pionowym osoby władające mandaryńskim szybciej rozpoznawały zależności czasowe między miesiącami. Boroditsky (2001) traktuje te wyniki jako potwierdzenie faktu, że zwyczaje językowe stymulują zwyczaje myślowe (s. 12). Można próbować doszukiwać się związków między sposobami myślenia o czasie i przyjmowanym w danej kulturze układem pisania: od lewej do prawej lub z góry na dół, jednak należy pamiętać, że pismo powstało znacznie później niż język mówiony, czyli być może pismo odzwierciedla myślenie, natomiast na pewno nie na odwrót.
Chcąc sprawdzić, jak język wpływa na myślenie, Berlin i Kay (1969) porównali sposób myślenia i mówienia o kolorach osób posługujących się językiem angielskim i przedstawicieli plemienia Dani mieszkającego w Papui-Nowej Gwinei. Plemię to używa dwóch słów określających kolor: jedno oznacza „jasny”, a drugie – „ciemny”. Dla odmiany, w języku angielskim jest 11 podstawowych terminów opisujących barwy (czarny, biały, czerwony, żółty, zielony, niebieski, brązowy, fioletowy, różowy, pomarańczowy, szary). Badacze założyli, że liczbę określeń barw może ograniczać sposób, w jaki członkowie plemienia Dani je postrzegają. Okazało się jednak, że – mimo dysponowania znacznie mniejszym zasobem słów – lud Dani rozróżnia kolory tak samo sprawnie jak osoby mówiące po angielsku (Berlin i Kay, 1969). Najnowszy przegląd badań mający na celu określenie, w jaki sposób język może wpływać na postrzeganie kolorów, sugeruje, że język oddziałuje na zjawiska percepcyjne, szczególnie w lewej półkuli mózgu. Zapewne pamiętasz z wcześniejszych rozdziałów, że u większości ludzi lewa półkula jest powiązana z językiem. Natomiast prawa półkula mózgu (mniej lingwistyczna) jest mniej podatna na językowy wpływ na percepcję (Regier i Kay, 2009).
### Summary
Język to służący komunikacji system znaków złożony z leksykonu (słownictwa) i zasad gramatycznych. Przyswajanie języka odbywa się naturalnie i swobodnie w pierwszych latach życia. Proces ten zachodzi w przewidywalnej kolejności u ludzi na całym świecie. Język ma istotny wpływ na myślenie, a koncepcja jego wpływu na poznanie nadal pozostaje obszarem wielu badań i dyskusji psychologicznych.
### Review Questions
### Critical Thinking Questions
### Personal Application Question
|
# Myślenie i inteligencja
## Rozwiązywanie problemów
Jak podwoić proporcje składników z przepisu na ciasto do pizzy? Rozwiązanie tego problemu jest dość proste: wystarczy pomnożyć wszystkie składniki przez dwa i gotowe. Zdarza się jednak, że stajemy przed problemami bardziej złożonymi. Masz do przygotowania z dnia na dzień pilny raport, musisz go za chwilę wydrukować, ale drukarka przestała działać. Co należy zrobić? Po pierwsze, zidentyfikować problem, a następnie zastosować strategię rozwiązania go.
### Strategie rozwiązywania problemów
Jak podchodzisz do problemu, niezależnie od tego, czy jest to złożone zadanie matematyczne, czy zepsuta drukarka? Zanim znajdziesz rozwiązanie, jasno określ problem, czyli zidentyfikuj, co w tej sytuacji stanowi faktyczną trudność. Następnie zastanów się, jaka strategia rozwiązania problemu będzie najskuteczniejsza w tym konkretnym przypadku.
Strategia rozwiązywania problemu (ang. ) to plan działania zmierzający do znalezienia rozwiązania (). Dobrze znaną strategią jest metoda prób i błędów (ang. ). Podejście to opisuje powiedzenie: „Jeśli nie uda ci się rozwiązać problemu za pierwszym razem, próbuj ponownie i jeszcze raz”. W przypadku niedziałającej drukarki możesz sprawdzić poziom tuszu, a jeśli to nie zadziała, możesz zobaczyć, czy papier się nie zakleszczył. Może się również okazać, że drukarka nie jest podłączona do komputera albo wtyczka zasilania została wyłączona z kontaktu. Stosując metodę prób i błędów, testujesz różne rozwiązania, aż znajdziesz to właściwe. Metoda ta jest powszechna, chociaż nie zalicza się do najbardziej skutecznych.
Kolejną strategią jest algorytm (ang. ), czyli schemat rozwiązywania problemu dostarczający instrukcji krok po kroku, by uzyskać pożądany efekt (Kahneman, 2011). Algorytm można porównać do przepisu z bardzo szczegółowymi wskazówkami, którego zastosowanie za każdym razem daje taki sam rezultat. Codziennie korzystamy z algorytmów zaimplementowanych w silnikach wyszukiwarek internetowych takich jak Google. Algorytmy te m.in. decydują, które witryny pojawiają się jako pierwsze na liście wyszukanych wyników. Facebook również stosuje algorytmy do ustalenia, które posty mają być wyświetlone na tablicy. Uczymy się licznych algorytmów przez całe życie i stosujemy je nieustannie zarówno świadomie, jak i nieświadomie, począwszy od reguł gramatycznych, na procedurach rozwiązywania zadań matematycznych kończąc.
Istnieje również heurystyczna metoda rozwiązywania problemów. Podczas gdy algorytm musi być dokładnie zastosowany, abyśmy uzyskali prawidłowy rezultat, heurystyka (ang. ) stanowi ogólne wskazówki ułatwiające rozwiązanie problemu (Tversky i Kahneman, 1974). Możemy potraktować ją jak skrót myślowy wykorzystywany do rozwiązania problemu. Przykładem metody heurystycznej jest zasada „spod dużego palca” - bez wiedzy czy głębszego zastanowienia się. Mimo że oszczędza ona czas i energię w procesie podejmowania decyzji, nie zawsze prowadzi do racjonalnego rozwiązania. W zależności od sytuacji używane są różne rodzaje heurystyk, ale impuls do ich zastosowania pojawia się, gdy spełniony jest jeden z poniższych warunków (Pratkanis, 1989):
1. gdy mamy nadmiar informacji,
2. gdy czas na podjęcie decyzji jest ograniczony,
3. gdy decyzja, którą należy podjąć, nie jest ważna,
4. gdy dostęp do informacji w procesie podejmowania decyzji jest ograniczony,
5. gdy odpowiednia heurystyka sama od razu przychodzi nam do głowy.
Strategia cofania się (ang. ) to przydatna metoda heurystyczna, w której zaczynasz rozwiązywać problem, skupiając się na celu. Załóżmy, że mieszkasz w Toruniu i otrzymujesz zaproszenie na ślub, który ma się odbyć w sobotę o 16.00 w Olsztynie. Musisz odpowiednio zaplanować trasę i czas wyjazdu, biorąc pod uwagę ewentualne korki. Jeżeli chcesz dojechać na ślub na 15.30, a bez korków dojazd do Olsztyna zajmuje 2,5 godziny, to o której godzinie musisz wyjść z domu? Prawdopodobnie nawet nie myślisz o tym, że regularnie stosujesz heurystykę cofania się do planowania różnych czynności w ciągu dnia.
Kolejna przydatna heurystyka to zasada realizacji dużego celu lub zadania poprzez podzielenie go na kilka mniejszych etapów. Metoda ta jest często stosowana na studiach przy większych projektach badawczych lub długich pracach pisemnych. Przykładowo studenci robią burzę mózgów, rozwijają tezę lub główny temat, po czym analizują go, porządkują informacje, tworząc konspekt, piszą wersję roboczą, następnie ją modyfikują i edytują, opracowują wersję końcową, porządkują bibliografię, czytają całą pracę i oddają gotowy projekt. Duże zadanie rozłożone na kilka mniejszych etapów staje się mniej przytłaczające.
### Pułapki na drodze do rozwiązania problemu
Nie wszystkie problemy da się skutecznie rozwiązać. Kiedy tak się dzieje? Albert Einstein (1879-1955)powiedział: „Szaleństwem jest robić wciąż to samo i oczekiwać odmiennych rezultatów”. Wyobraź sobie osobę w pokoju z czterema wyjściami. Drzwi, które dotąd zawsze były otwarte, są teraz zamknięte. Osoba, przyzwyczajona do wychodzenia z pokoju tymi konkretnymi drzwiami, próbuje się przez nie wydostać, mimo że trzy pozostałe wyjścia są otwarte. Człowiek ten czuje się uwięziony, jednak wystarczy, że otworzy inne drzwi zamiast za wszelką cenę próbować wyjść przez te zamknięte. Nastawienie umysłowe (ang. ) to sytuacja, w której usilnie dążysz do rozwiązania problemu w sposób, który wcześniej był skuteczny, ale ewidentnie nie sprawdza się tym razem.
Fiksacja funkcjonalna (ang. ) to rodzaj nastawienia umysłowego, w którym nie dostrzegasz możliwości zastosowania przedmiotu w sposób odbiegający od jego pierwotnego przeznaczenia. Duncker (1945) przeprowadził przełomowe badanie nad fiksacją funkcjonalną. Uczestnicy eksperymentu otrzymali świeczkę, paczkę zapałek i pudełko pinezek. Zostali poproszeni o wykorzystanie tych przedmiotów do takiego przymocowania świeczki do ściany, aby wosk nie kapał na stół. Aby rozwiązać ten problem musieli przełamać swoją fiksacje funkcjonalną (). Podczas misji Apollo 13 na Księżyc inżynierowie z centrum dowodzenia NASA musieli pokonać fiksację funkcjonalną, by uratować życie astronautów na pokładzie statku kosmicznego. Eksplozja w module rakiety uszkodziła kilka systemów. Przez problemy z filtrami i rosnący poziom dwutlenku węgla astronautom groziło zatrucie. Inżynierowie doradzili im, by użyli rezerwowych plastikowych torebek, taśmy i przewodów pneumatycznych do stworzenia prowizorycznego filtra powietrza, co ostatecznie uratowało im życie.
Badacze analizowali, czy kultura wpływa na fiksację funkcjonalną. W pewnym eksperymencie uczestnicy z grupy plemion Jiwaro w Ekwadorze zostali poproszeni o użycie przedmiotu do celu innego niż jego pierwotne przeznaczenie. Opowiedziano im historię o niedźwiedziu i króliku oddzielonych rzeką i poproszono, aby spośród przedmiotów takich jak łyżka, filiżanka, gumki do ścierania itd. wybrali jeden, który mógłby pomóc zwierzętom się spotkać. Łyżka była jedynym wystarczająco długim przedmiotem, by sięgnąć na drugi brzeg wyimaginowanej rzeki. Jednak gdy prezentowano ją w sposób obrazujący jej normalne użycie, wybór tego przedmiotu do rozwiązania problemu zajmował uczestnikom więcej czasu (German i Barrett, 2005). Badacze chcieli sprawdzić, czy ekspozycja na mocno wyspecjalizowane narzędzia mieszkańców krajów uprzemysłowionych, wpływa na łatwość przełamywania fiksacji funkcjonalnej. Ustalono, że fiksacja funkcjonalna występuje zarówno w kulturach uprzemysłowionych, jak i nieuprzemysłowionych (German i Barrett, 2005).
Do podejmowania odpowiednich decyzji wykorzystujemy wiedzę i logiczne myślenie, które zazwyczaj są pewne i trafne. Czasem jednak ulegamy różnym błędom poznawczym lub osobom manipulującym sytuacją. Załóżmy na przykład, że razem z trójką przyjaciół chcesz wynająć mieszkanie. Dysponujecie łącznym budżetem 1600 zł. Pośrednik pokazuje wam w tej cenie tylko dość zniszczone lokale, a następnie bardzo ładne mieszkanie, ale za 2000 zł. Czy poprosisz każdego z przyjaciół o wyższą składkę na czynsz, żeby wynająć lokum za 2000? Dlaczego pośrednik pokazywał mieszkania w złym stanie i jedno atrakcyjne? Prawdopodobnie chciał rzucić wyzwanie twojemu efektowi zakotwiczenia (ang. ). Pojawia się on, gdy przy podejmowaniu decyzji lub rozwiązywaniu problemu skupiasz się na jednej informacji, traktując ją jako swój punkt odniesienia. W powyższym przykładzie tak bardzo koncentrujesz się na kwocie, jaką chcesz wydać, że możesz nie zauważyć, jakie mieszkania są dostępne w danym przedziale cenowym.
Efekt potwierdzenia (in. błąd konfirmacji) (ang. ) to tendencja do skupiania się na informacji, która potwierdza twoje przekonania. Przykładowo, jeśli uważasz, że twój profesor jest niemiły, dostrzegasz wszystkie przypadki jego nieuprzejmego zachowania, ignorując liczne życzliwe gesty. Błąd pewności wstecznej (ang. ) prowadzi do przekonania, że zdarzenie, które właśnie miało miejsce, można było przewidzieć, choć w rzeczywistości wcale tak nie było. Innymi słowy, żywimy przekonanie, że od początku wiemy, że tak to wszystko się potoczy. Heurystyka reprezentatywności (ang. ) opisuje tendencyjny sposób myślenia, w którym nieświadomie traktujemy kogoś lub coś jako stereotypowego przedstawiciela swojej kategorii. Na przykład zakładasz, że twój profesor spędza czas wolny, czytając książki i prowadząc intelektualne rozmowy, bo fakt, że może grać w siatkówkę albo chodzić do wesołego miasteczka, nie pasuje do stereotypu profesora.
Jest jeszcze heurystyka dostępności (ang. ) polegająca na podejmowaniu decyzji z wykorzystaniem przykładu, informacji lub niedawnego doświadczenia, czyli łatwo dostępnego w pamięci rozwiązania, mimo że niekoniecznie najlepiej pasuje ono do danej sytuacji. Błędy poznawcze „utrwalają to, co zostało już ustalone – wspierają naszą wcześniejszą wiedzę, przekonania, nastawienia i hipotezy” (Aronson, 1995; Kahneman, 2011). Zestawienie tych błędów przedstawia .
Zwróćmy uwagę, że efekty zakotwiczenia, potwierdzenia i wstecznej pewności prowadzą do niepoprawnego rozwiązania, natomiast heurystyka reprezentatywności i dostępności mogą, ale nie muszą, przyczyniać się do podejmowania niewłaściwych decyzji.
Czy udało ci się ustalić, ile kulek trzeba położyć na wadze na ? Dziewięć. A jak ci poszło z zagadkami na i ? Oto odpowiedzi ().
### Summary
Istnieje wiele różnych strategii rozwiązywania problemów. Do typowych zaliczamy metodę prób i błędów, stosowanie algorytmów i heurystyki. Do złożonych problemów warto podejść etapowo i podzielić je na mniejsze kroki, które, realizowane pojedynczo, doprowadzą do końcowego całościowego rozwiązania. Przeszkodami w rozwiązywaniu problemów mogą być nastawienie umysłowe, fiksacja funkcjonalna i różnego rodzaju tendencyjności w myśleniu ograniczające zdolność do podejmowania trafnych decyzji.
### Review Questions
### Critical Thinking Questions
### Personal Application Question
|
# Myślenie i inteligencja
## Czym jest inteligencja i twórczość?
Przy kuchennym stole siedzi 4,5-letni chłopiec z ojcem, który czyta mu na głos nową bajkę. Ten przewraca stronę, by czytać dalej, ale zanim zacznie, chłopiec mówi: „Zaczekaj, tato!”. Wskazuje na słowa na kolejnej stronie i głośno czyta: „Dalej, kotku! Dalej!” Zaskoczony ojciec spogląda na syna. „Potrafisz to przeczytać?” – pyta. „Tak, tatusiu!”. Pokazuje słowa i czyta jeszcze raz: „Dalej, kotku! Dalej!”.
Ojciec wcale nie uczył syna czytać, jednak dziecko wciąż zadawało pytania o litery, słowa i symbole, które widziało w samochodzie, sklepie czy telewizji. Tata był ciekaw, co jeszcze syn zrozumiał, i postanowił zrobić eksperyment. Wziął kartkę i napisał na niej kilka prostych słów, takich jak: mama, tata, pies, ptak, but, auto, owoc. Położył listę przed chłopcem i poprosił go o przeczytanie tych wyrazów. „Mama, tata, pies, ptak, but, auto, owoc” – przeczytał chłopiec, zwalniając, by wyraźnie wymówić ptak. A potem zapytał: „Dobrze, tato?”. „Oczywiście! Bardzo dobrze, synku!”. Ojciec mocno uścisnął chłopca i wrócił do czytania bajki o kotku, cały czas zastanawiając się, czy zdolności jego syna są oznaką wyjątkowej inteligencji, czy mieszczą się w typowym schemacie rozwoju językowego. Podobnie jak ojciec w przytoczonym przykładzie, psychologowie rozważają, co składa się na inteligencję i jak można ją zmierzyć.
### Klasyfikacja inteligencji
Czym właściwie jest inteligencja? Od początków psychologii sposób definiowania przez badaczy pojęcia inteligencji wielokrotnie się zmieniał. Brytyjski psycholog Charles Spearman (1863-1945) twierdził, że na inteligencję składa się jeden główny czynnik zwany g (od „general”), który można mierzyć i porównywać u poszczególnych osób. Spearman koncentrował się na podobieństwach między różnymi zdolnościami intelektualnymi, przykładając jednocześnie mniejszą wagę do tego, co czyni je wyjątkowymi. Podobne podejście można było jednak zauważyć na długo przed rozwojem współczesnej psychologii u starożytnych filozofów, np. Arystotelesa (Cianciolo i Sternberg, 2004).
Inni psychologowie uważali, że zamiast jednego czynnika, na inteligencję składa się szereg odrębnych zdolności. W latach 40. XX wieku Raymonda Bernarda Cattella (1905-1998) zaproponował teorię dzielącą inteligencję ogólną na dwa komponenty: inteligencję skrystalizowaną i płynną (Cattell, 1963). Inteligencja skrystalizowana (ang. ) to nabyta wiedza i umiejętność korzystania z niej. Gdy zapamiętujesz i przywołujesz informacje, wykorzystujesz inteligencję skrystalizowaną. Używasz jej stale podczas zajęć na uczelni, pokazując, że masz opanowany materiał. Inteligencja płynna (ang. ) obejmuje umiejętność dostrzegania złożonych zależności i rozwiązywania problemów. Powrót do domu nieznaną trasą z powodu robót drogowych będzie bazował właśnie na tym rodzaju inteligencji. Inteligencja płynna pomaga radzić sobie ze złożonymi, abstrakcyjnymi wyzwaniami dnia codziennego, podczas gdy inteligencja skrystalizowana przydaje się przy rozwiązywaniu konkretnych, prostych problemów (Cattell, 1963).
Inni teoretycy i psychologowie są zdania, że inteligencję należy definiować w bardziej praktyczny sposób. Na przykład: jakie rodzaje zachowań pomagają w radzeniu sobie w życiu? Jakie umiejętności przekładają się na sukces? To, że ktoś potrafi wymienić po kolei wszystkich królów Polski, może zaskoczyć towarzystwo na imprezie, ale czy ta wiedza sprzyja powodzeniu życiowemu?
Robert Sternberg (ur. 1949) rozwinął jeszcze inną koncepcję, którą nazwał triarchiczną teorią inteligencji (ang. ). Według niej na inteligencję składają się trzy aspekty (Sternberg, 1988): inteligencja praktyczna, twórcza i analityczna ().
Zgodnie z teorią Sternberga inteligencję praktyczną (ang. ) porównuje się czasem do „mądrości życiowej”. Bycie inteligentnym praktycznie oznacza, że znajdujesz rozwiązania, które sprawdzają się w życiu codziennym, na podstawie wiedzy wynikającej z własnych doświadczeń. Ten rodzaj inteligencji występuje niezależnie od tradycyjnie rozumianego IQ (ilorazu inteligencji). Osoby uzyskujące wysokie wyniki w testach inteligencji praktycznej mogą, ale nie muszą osiągać podobnych wyników w badaniach inteligencji twórczej i analitycznej (Sternberg, 1988).
Historia o strzelaninie w Virginia Tech idealnie ilustruje przypadki wysokiego i niskiego poziomu inteligencji praktycznej. Tuż przed tym incydentem jedna ze studentek wyszła z zajęć i poszła do sąsiedniego budynku po coś do picia. Chciała wrócić do sali, jednak gdy dotarła do swojego budynku, zobaczyła, że drzwi są zablokowane łańcuchem od wewnątrz. Zamiast zastanowić się, dlaczego wejście jest zaryglowane, wyszła na zewnątrz, podeszła do okna swojej klasy i wczołgała się przez nie do środka. Naraziła się w ten sposób na potencjalny atak zamachowca, ale na szczęście nic jej się nie stało. W tym samym czasie dwóch studentów przechodziło przez kampus i usłyszało strzały. Jeden z kumpli powiedział: „Chodźmy sprawdzić, co się dzieje”. Drugi odpowiedział: „Nie ma mowy! Uciekajmy jak najdalej stąd”. Tak też zrobili i uniknęli zagrożenia. Studentka, która wczołgała się przez okno, wykazała się pewną dozą inteligencji twórczej, ale zabrakło jej zdrowego rozsądku. Jej inteligencja praktyczna była na niskim poziomie. Student, który zachęcił znajomego do ucieczki z miejsca strzelaniny, wykazał się znacznie wyższym poziomem tej inteligencji.
Inteligencja analityczna (ang. ) jest ściśle związana z rozwiązywaniem problemów akademickich i obliczeniowych. Sternberg twierdzi, że przejawia się ona zdolnością do przeprowadzania analizy, oceny, osądu, porównania i kontrastowania. Na przykład, podczas czytania powieści klasycznej na zajęcia z literatury trzeba zazwyczaj porównać motywację poszczególnych bohaterów książki albo przeanalizować tło historyczne. Natomiast np. na zajęciach z fizjologii uczysz się o różnych procesach, dzięki którym ludzkie ciało zużywa mikroelementy do budowy tkanek. Próbując zrozumieć to zagadnienie, używasz inteligencji analitycznej. Głowiąc się nad trudnym zadaniem matematycznym, używasz tego rodzaju inteligencji do przeanalizowania różnych aspektów problemu i jego rozwiązywania krok po kroku.
Inteligencja twórcza (ang. ) charakteryzuje się wymyślaniem lub wyobrażaniem sobie rozwiązania jakiegoś problemu lub sytuacji. Twórczość w tym kontekście może oznaczać znalezienie nowego rozwiązania dla niespodziewanego problemu, stworzenie pięknego dzieła sztuki lub przemyślanego opowiadania. Wyobraź sobie, że jesteś z przyjaciółmi na biwaku w lesie i uświadamiasz sobie, że zapomnieliście turystycznego ekspresu do kawy. Ten, kto wymyśli sposób na zaparzenie wszystkim kawy, wykaże się wyższym poziomem inteligencji twórczej.
Teoria inteligencji wielorakich (ang. ) została opracowana przez Howarda Gardnera (ur. 1943) – psychologa z Harvardu i byłego ucznia Erika Eriksona (1902-1994). Teoria Gardnera, dopracowywana przez ponad 30 lat, jest najnowszą koncepcją wśród teorii inteligencji. Według niej każdy człowiek posiada przynajmniej osiem typów inteligencji. Niektóre może mieć rozwinięte bardziej, a inne mniej (Gardner, 1983). zawiera charakterystykę tych rodzajów inteligencji.
Teoria Gardnera jest stosunkowo nową koncepcją, która ciągle jeszcze wymaga dodatkowego potwierdzenia empirycznego. Zaproponowane przez autora podejście kwestionuje tradycyjną ideę inteligencji, w zamian włączając w nią większą gamę różnorodnych zdolności. Niektórzy badacze uważają jednak, iż Gardner zwyczajnie przemianował opisane w innych teoriach „style poznawcze” (tj. preferowane sposoby odbierania informacji, podejmowania decyzji, uczenia się bądź rozwiązywania problemów) na różne „inteligencje” (Morgan, 1996). Co więcej, niezwykle trudno jest opracować trafne sposoby mierzenia poszczególnych postulowanych przez Gardnera inteligencji (Furnham, 2009; Gardner i Moran, 2006; Klein, 1997).
Inteligencję inter- i intrapersonalną Gardnera często łączy się w jeden rodzaj – inteligencję emocjonalną (ang. ). Składa się na nią umiejętność zrozumienia własnych i cudzych emocji, okazywania empatii, rozumienia relacji i zachowań społecznych, a także kontrolowania własnych emocji i odpowiedniego, zgodnego z normami kulturowymi, reagowania (Parker et al., 2009). Osoby, które cechuje wysoka inteligencja emocjonalna, mają zazwyczaj dobrze rozwinięte umiejętności społeczne. Niektórzy badacze, jak np. Daniel Goleman (ur. 1946), autor książki Inteligencja emocjonalna, twierdzą, że ten typ inteligencji jest lepszym wyznacznikiem sukcesu niż „tradycyjna” inteligencja ogólna (Goleman, 1995). Trzeba jednak podkreślić, że koncepcja inteligencji emocjonalnej jest wciąż szeroko dyskutowana: niektórzy badacze zwracają uwagę na nieścisłości w jej definiowaniu i opisie, a także kwestionują istniejące wyniki badań. Jest to bowiem koncept złożony, który trudno jednoznacznie zdefiniować i zmierzyć empirycznie (Locke, 2005; Mayer et al., 2004).
Aktualnie za najbardziej szczegółową teorię inteligencji uznaje się teorię zdolności poznawczych Raymonda Bernarda Cattella, Johna Leonarda Horna (1928-2006) i Johna Bissella Carrolla (1916-2003) - w skrócie CHC (Schneider i McGrew, 2018). Ma ona charakter hierarchiczny: zdolności ogólne umieszczone są na szczycie, zdolności szerokie w środku, a wąskie (specyficzne) - na dole. Tylko te ostatnie mogą podlegać bezpośredniemu pomiarowi, jednak są powiązane w obrębie pozostałych zdolności. Na samej górze mieści się inteligencja ogólna, pośrodku takie zdolności jak płynne rozumowanie, pamięć krótkotrwała i szybkość przetwarzania. Na samym dole znajdują się specyficzne postaci zdolności poznawczych. Na przykład pamięć krótkotrwała jest podzielona na zakres pamięci oraz pojemność pamięci roboczej.
Ponadto pojęcie inteligencji może różnić się znaczeniem i wartością między różnymi kulturami. Na małej wyspie, gdzie prawie wszyscy żywią się tym, co złowią, liczy się wiedza o łowieniu ryb i naprawie łodzi. Sprawny wędkarz zostałby zapewne uznany przez innych mieszkańców za inteligentnego. A gdyby do tego potrafił naprawiać łodzie, o jego inteligencji byłoby pewnie głośno na całej wyspie. A jakie wartości mają znaczenie np. dla rodzin włoskich, irlandzkich czy szwedzkich? W Irlandii wyznacznikiem kultury jest m.in. gościnność i opowiadanie zabawnych historii. Ktoś z talentem gawędziarskim będzie prawdopodobnie uchodził w irlandzkiej kulturze za osobę inteligentną. Pomyśl przez chwilę o swojej rodzimej kulturze i ważnych dla niej wartościach.
W niektórych kulturach duży nacisk kładzie się na pracę grupową. W takich społecznościach cele grupy są ważniejsze niż osiągnięcia jednostki. Gdy ktoś trafia do takiej kultury, to skuteczność wpisania się w jej wartości, świadczy o jego inteligencji kulturowej (ang. ), nazywanej również kompetencjami kulturowymi.
### Twórczość
Twórczość (lub kreatywność) (ang. ) to zdolność generowania, tworzenia lub odkrywania nowych pomysłów, rozwiązań i możliwości. Osoby twórcze często posiadają ogromną wiedzę na dany temat, pracują nad nim latami, szukają nowatorskich rozwiązań, czerpią z porad i pomocy innych specjalistów, a także podejmują ryzyko „płynięcia pod prąd”. Chociaż twórczość zazwyczaj utożsamia się ze sztuką, w rzeczywistości jest ona ważną formą zdolności - a zdaniem niektórych badaczy, wręcz inteligencji - wspierającą ludzi z różnych dyscyplin w odkrywaniu nowych rzeczy. Twórczość można odnaleźć w każdej dziedzinie życia, od sposobu dekoracji domu po nowy sposób zrozumienia, jak działa komórka.
Twórczość często ocenia się, mierząc zdolności człowieka w zakresie myślenia dywergencyjnego (in. myślenia rozbieżnego) (ang. ). Ten tryb myślenia polega na poszukiwaniu wielu rozwiązań problemu, a więc myśleniu w wielu kierunkach jednocześnie. Takie otwarte podejście do zadania prowadzi nierzadko do znalezienia unikatowych, różnorodnych rozwiązań danego problemu. Dla odmiany myślenie konwergencyjne (in. myślenie zbieżne) (ang. ) polega na podążaniu w kierunku tylko jednej opcji czy rozwiązania, co zwykle prowadzi do udzielenia „właściwej”, lecz typowej odpowiedzi. Podobnie działa rozwiązanie problemu w oparciu o algorytm (Cropley, 2006; Gilford, 1967).
### Summary
Inteligencja to złożona cecha psychiczna. Powstało wiele teorii wyjaśniających, czym jest i jak działa. Sternberg stworzył triarchiczną teorię inteligencji, natomiast Gardner założył, że inteligencja przyjmuje wiele różnych form. Jeszcze inni psychologowie koncentrują się na znaczeniu inteligencji emocjonalnej. Ponadto wydaje się, że pewnym aspektem inteligencji jest również twórczość, jednak niezmiernie trudno obiektywnie ją mierzyć.
### Review Questions
### Critical Thinking Questions
### Personal Application Question
|
# Myślenie i inteligencja
## Pomiar inteligencji
Prawdopodobnie znasz termin „IQ” i utożsamiasz go z zagadnieniem inteligencji, ale co tak naprawdę ten skrót oznacza? IQ to iloraz inteligencji (ang. ), który opisuje wynik zdobyty w teście mierzącym inteligencję. Jak podawaliśmy wcześniej, psychologowie opisują inteligencję (a ściślej mówiąc: inteligencje) na różne sposoby. Podobnie testy IQ – narzędzia mające ją mierzyć – stanowiły i nadal stanowią przedmiot licznych dyskusji dotyczących ich konstrukcji i wykorzystywania.
Kiedy można stosować testy IQ? Czego możemy dowiedzieć się z ich wyników i jak można wykorzystywać te informacje? Chociaż bez wątpienia testowanie inteligencji dostarcza wielu korzyści, trzeba także zauważyć ich ograniczenia oraz kontrowersje, które wzbudzają. Na przykład, testy IQ były czasami używane jako argumenty na rzecz niegodnych celów, jak ruch eugeniczny (Severson, 2011). Niesławny wyrok Sądu Najwyższego Stanów Zjednoczonych w sprawie Buch przeciw Bell zalegalizował przymusową sterylizację niektórych osób określanych jako „słabych umysłowo” na podstawie tego rodzaju testów, czego wynikiem było około 65 000 przypadków sterylizacji (Buck v. Bell, 274 U.S. 200; Ko, 2016). Aktualnie tylko psychologowie mogą przeprowadzać testy IQ, a zakup testu wymaga potwierdzenia przez nich posiadania formalnych kwalifikacji psychologicznych. Inne osoby pracujące w tym obszarze, jak pracownicy socjalni czy psychiatrzy nie mają prawa do przeprowadzania testów IQ. Analogiczne regulacje obowiązują w Polsce. W niniejszym podrozdziale zajmiemy się tym, co mierzą testy na inteligencję, jak są punktowane i jak powstają.
### Mierzenie inteligencji
Wygląda na to, że – gdy koncentrujemy się na tradycyjnej, akademickiej definicji – rozumienie pojęcia inteligencji jest w pewien sposób ograniczone. Jak w takim razie można ją zmierzyć? I w jaki sposób podczas pomiaru inteligencji dbamy o to, by uchwycić to, co faktycznie chcemy zmierzyć? Innymi słowy, skąd wiemy, że testy IQ stanowią trafny pomiar inteligencji? W kolejnych akapitach przeanalizujemy, jak powstawały testy psychologiczne i prześledzimy historię ich stosowania.
Test IQ od ponad stu lat był utożsamiany z pomiarem inteligencji. Pod koniec XIX wieku sir Francis Galton (1822-1911) opracował pierwszy ogólny test na inteligencję (Flanagan i Kaufman, 2004). Mimo że nie był psychologiem, jego wkład w ideę testowania inteligencji jest nadal doceniany (Gordon, 1995). Rzetelne testowanie inteligencji (może pamiętasz z poprzednich rozdziałów, że o rzetelności badania mówimy, gdy daje spójne wyniki) rozpoczęło się na poważnie na początku XX wieku dzięki badaczowi o nazwisku Alfred Binet (1857-1911) (). Został on poproszony przez francuski rząd o opracowanie testu na inteligencję dla dzieci w celu określenia, którym z nich mogą grozić trudności w szkole. Składało się na niego wiele zadań ustnych. Niedługo później amerykańscy badacze zdali sobie sprawę z wartości tego typu testów. Lewis Terman (1877-1956), profesor z Uniwersytetu Stanforda, zmodyfikował pracę Bineta, ujednolicając sposób przeprowadzania testu, i przebadał tysiące dzieci w różnym wieku, aby ustalić średni wynik dla każdego przedziału wiekowego. W rezultacie test został znormalizowany i wystandaryzowany, co oznacza, że był przeprowadzany konsekwentnie na odpowiednio dużej, reprezentatywnej próbie populacji (która zostanie omówiona w dalszej części rozdziału). Standaryzacja (ang. ) oznacza, że sposób przeprowadzania, wyniki i ich interpretacja są spójne. Normalizacja (ang. ) obejmuje realizację testu na dużej grupie, aby zebrane dane umożliwiały porównanie np. grup wiekowych. Dane uzyskane w ten sposób stanowią normy lub wyniki referencyjne, względem których interpretowane są przyszłe wyniki. Normy nie są oczekiwaniami odnośnie do tego, co dana grupa powinna wiedzieć. Odzwierciedlają natomiast to, co ta grupa naprawdę wie. Normalizacja i standaryzacja testu gwarantują, że kolejne wyniki będą rzetelne. Ta nowa wersja testu została nazwana Skalą Inteligencji Stanford-Binet (Stanfordzka Skala Bineta) (Terman, 1916). Co ciekawe, jego zaktualizowana wersja jest powszechnie stosowana również obecnie.
W 1939 roku David Wechsler (1896-1981) – amerykański psycholog, który poświęcił część swojej kariery na pracę z weteranami I wojny światowej – opracował nowy test IQ. Wechsler połączył kilka elementów z innych testów na inteligencję stosowanych między rokiem 1880 a I wojną światową. Komponenty te zestawił w szereg zadań sprawdzających umiejętności werbalne i niewerbalne, gdyż uważał, że inteligencja to „ogólna zdolność człowieka do świadomego działania, racjonalnego myślenia i skutecznego radzenia sobie z otoczeniem” (Wechsler, 1958, s. 7). Swój test nazwał Skalą Inteligencji Wechslera-Bellevue (Wechsler, 1981). To połączenie elementów różnych testów stało się jedną z najchętniej używanych metod pomiaru inteligencji w historii psychologii. Mimo że w późniejszych latach nazwę zmieniono na Skalę Inteligencji Wechslera dla dorosłych (WAIS), a sam test wielokrotnie aktualizowano, jego założenia pozostają praktycznie niezmienione od momentu jego powstania (Boake, 2002).
Obecnie stosowane są trzy testy na inteligencję, które zawdzięczamy Wechslerowi: Skala Inteligencji Wechslera dla dorosłych – wydanie czwarte (WAIS-IV), Skala Inteligencji Wechslera dla dzieci (WISC-V) oraz Skala Inteligencji Wechslera dla dzieci w wieku przedszkolnym i szkolnym – wydanie czwarte (WPPSI-IV). Testy te są powszechnie stosowane w szkołach i różnych społecznościach na całym świecie, w tym także oczywiście w Polsce. Podlegają okresowej normalizacji i standaryzacji w ramach rekalibracji ().
Test WISC-V składa się z 14 podtestów obejmujących pięć wskaźników przekładających się na wynik IQ. Należą do nich: rozumienie werbalne, przetwarzanie wzrokowo-przestrzenne, rozumowanie, pamięć robocza i szybkość przetwarzania. Po ukończeniu testu badani otrzymują ocenę każdego z tych wskaźników oraz wynik IQ w pełnej skali. Taka metoda oceny odzwierciedla koncepcję, zgodnie z którą na inteligencję składa się wiele umiejętności z różnych dziedzin poznawczych, i koncentruje się na procesach myślowych wykorzystywanych przez dziecko do znalezienia odpowiedzi na każde z pytań testu.
Okresowe rekalibracje pozwoliły dostrzec ciekawe zjawisko o nazwie efekt Flynna (ang. ). Efekt ten, nazwany tak od nazwiska Jamesa Flynna (ur. 1934), który jako jeden z pierwszych go opisał, polega na tym, że każde następne pokolenie ma znacznie wyższy iloraz inteligencji niż poprzednie. Sam Flynn twierdzi jednak, że wyższe wyniki IQ niekoniecznie oznaczają, że młodsze generacje są bardziej inteligentne (Flynn et al., 2012). Warto też dodać, że pojawiły się doniesienia badawcze wskazujące na odwracanie się omawianego trendu i spadek IQ w kolejnych pokoleniach mieszkańców Norwegii i Wielkiej Brytanii. W ramach procesu rekalibracji test WISC-V przeprowadzono na tysiącu dzieci w Stanach Zjednoczonych, a wyniki uzyskiwane obecnie przez dzieci są porównywane z wynikami ich rówieśników.
Niemniej otwarte pozostaje pytanie, na ile trafne są testy inteligencji. Z pewnością da się zauważyć, że większość współczesnych wersji takich testów obejmuje kompetencje werbalne i niewerbalne. Nadal jednak dyskusji podlegają konkretne umiejętności, które powinny być oceniane przy pomiarze IQ, stopień, w jakim każdy test faktycznie mierzy inteligencję danej osoby, oraz sposób wykorzystywania wyników tych testów (Gresham i Witt, 1997; Flynn et al., 2012; Richardson, 2002; Schlinger, 2003).
### Krzywa dzwonowa
Wyniki testów inteligencji rozkładają się zgodnie z krzywą dzwonową (czyli wykresem w kształcie dzwonu), zwanej też rozkładem Gaussa. Taki wykres przedstawia normalny rozkład cechy, w tym przypadku inteligencji, w populacji ogólnej. Wiele cech ludzkich wykazuje taki rozkład. Gdyby na przykład ustawić twoje koleżanki, studentki, według wzrostu, prawdopodobnie dużą grupę stanowiłyby dziewczyny średniego wzrostu. W przypadku Amerykanek byłoby to 162–167 cm. Grupa ta przypadłaby na środek krzywej dzwonowej, reprezentując przeciętny wzrost mieszkanki Stanów Zjednoczonych (). Mniej kobiet plasowałoby się bliżej wzrostu 150 cm. Podobnie sprawa wyglądałaby w przypadku kobiet o wzroście powyżej przeciętnej, czyli około 180 cm. Krzywą dzwonową wyznacza się na podstawie dużej próby. Gdy próba jest mała, maleją szanse na to, że krzywa dzwonowa będzie reprezentatywna dla populacji. Próba reprezentatywna (ang. ) to podzbiór populacji, który dokładnie reprezentuje ogół społeczeństwa. Jeśli zmierzysz wzrost dziewczyn tylko w swojej grupie, nie będzie to próba reprezentatywna. Mogłoby się zdarzyć, że twoja grupa składa się z koszykarek, które postanowiły zapisać się razem na dany kurs. Ponieważ koszykarki są zazwyczaj wyższe niż przeciętne kobiety, dziewczyny w twojej grupie nie byłyby odpowiednią próbą reprezentatywną dla populacji kobiet. Jednak, gdyby próba obejmowała wszystkie kobiety z twojej uczelni, prawdopodobnie ich wzrost ułożyłby się w naturalną krzywą dzwonową. Bardzo podobne wartości dotyczą Polek, których średni wzrost wynosi około 165 cm.
Te same zasady mają zastosowanie do wyników testów na inteligencję. Osoby poddawane takim testom zdobywają wynik nazywany ilorazem inteligencji (IQ). W ciągu wielu lat powstały różne rodzaje tych testów, ale sposób interpretacji wyników pozostaje taki sam. Średni wynik IQ w teście na inteligencję wynosi 100. Odchylenie standardowe (ang. ) przedstawia, jak dane rozkładają się w badanej populacji, i pokazuje kontekst dla dużych zestawów danych. Odchylenie standardowe wskazuje, na ile wynik umieszczony na krzywej dzwonowej odbiega od średniej (). Przy współczesnych testach IQ jedno odchylenie standardowe wynosi 15 punktów. Zatem wynik 85 zostałby opisany jako „jedno odchylenie standardowe poniżej średniej”. Każdy wynik IQ w zakresie jednego odchylenia standardowego powyżej i poniżej średniej (między 85 a 115) uznaje się za przeciętny. Takie wyniki IQ ma 68% populacji.
Tylko 2,2% populacji ma IQ poniżej 70 (American Psychological Association [APA], 2013). Analogiczne statystyki dotyczą właściwie całego świata. Wynik 70 lub niższy wskazuje na istotne opóźnienie funkcji poznawczych. W połączeniu z poważnymi zaburzeniami adaptacyjnymi u danej osoby stwierdza się niepełnosprawność intelektualną (American Association on Intellectual and Developmental Disabilities, 2013). Dawniej taki stan nazywano opóźnieniem umysłowym, jednak obecnie stosowanym terminem jest „niepełnosprawność intelektualna”, która może występować w stopniu lekkim, umiarkowanym, znacznym i głębokim (). Kryteria dla każdej podgrupy są wymienione w Podręczniku diagnostycznym i statystycznym zaburzeń psychicznych (DSM), używanym nie tylko w Stanach Zjednoczonych, ale i na całym świecie (APA, 2013).
Na przeciwnym końcu skali inteligencji mamy osoby, których IQ jest na najwyższym poziomie. Zgodnie z krzywą dzwonową do tej kategorii zalicza się około 2% populacji. Uznaje się, że ludzie są szczególnie utalentowani lub obdarzeni wyjątkową inteligencją w danej dziedzinie, jeśli ich IQ wynosi 130 lub więcej. Wiele lat temu panowało powszechne przekonanie, że ludzie z wysokim ilorazem inteligencji są nieprzystosowani społecznie. Koncepcja ta została obalona przez wyniki przełomowego badania na utalentowanych dzieciach. W 1921 roku Lewis Terman (1877-1956) rozpoczął badanie obserwacyjne ponad 1500 dzieci z IQ przekraczającym 135 (Terman, 1925). Wyniki tej analizy pokazały, że dzieci te zdobyły dobre wykształcenie, osiągnęły sukces w dorosłym życiu i były w rzeczywistości dobrze przystosowane do funkcjonowania w społeczeństwie (Terman i Oden, 1947). Ponadto badanie Termana potwierdziło, że jego uczestnicy plasowali się ponad przeciętną również pod względem budowy fizycznej i atrakcyjności, wbrew wcześniejszemu powszechnemu przekonaniu, że bardzo inteligentni ludzie to „słabeusze”. Część osób z bardzo wysokim IQ decyduje się przystąpić do Mensy – organizacji zajmującej się identyfikowaniem, badaniem i wspieraniem inteligencji. Jej członkowie muszą mieć iloraz inteligencji zaliczający ich do górnych 2% populacji. Przy ubieganiu się o przyjęcie do tego zacnego grona mogą też zostać poproszeni o zdanie dodatkowych egzaminów.
### Po co mierzyć inteligencję?
Testowanie IQ jest jak najbardziej uzasadnione w środowisku edukacyjnym czy klinicznym. Dzieci, u których obserwuje się trudności w nauce lub poważne problemy z zachowaniem, mogą być poddawane takim testom w celu sprawdzenia, czy trudności te wynikają po części z ilorazu inteligencji, który odbiega od średniej dla grupy wiekowej dziecka. Bez testów IQ – lub innych narzędzi do pomiaru inteligencji – dzieci i dorośli wymagający dodatkowego wsparcia mogą nie zostać skutecznie zdiagnozowani. Co więcej, testy IQ są wykorzystywane w sądach do określenia, czy istnieją okoliczności wyjątkowe lub łagodzące, które w jakiś sposób uniemożliwiają oskarżonemu udział w postępowaniu sądowym. Ludzie stosują również wyniki testów na inteligencję do uzyskania świadczeń z tytułu niepełnosprawności.
Poniższy przykład pokazuje przydatność i korzyści wynikające z testowania inteligencji. Candace, 14-letnia uczennica mająca problemy w szkole, została skierowana przez sąd na badania psychologiczne. Uczyła się w dziewiątej klasie ze standardowym programem nauczania i oblewała każdy przedmiot. Wcześniej nie była wybitną uczennicą, ale zawsze zdawała do następnej klasy. Często zdarzało jej się wyzywać nauczycieli, którzy odpytywali ją na lekcjach. Wdawała się również w bójki z kolegami i miała na koncie kilka kradzieży w sklepach. Gdy Candace przyjechała na badania, od razu przyznała, że nienawidzi wszystkiego, co ma związek ze szkołą, łącznie z nauczycielami i innymi pracownikami, budynkiem i pracami domowymi. Jej rodzice powiedzieli, że – ich zdaniem – wszyscy dokuczają córce, bo jest innej rasy niż nauczyciele i większość uczniów. Gdy zapytano ją, dlaczego wyzywa nauczycieli, Candace powiedziała: „Pytają mnie tylko wtedy, gdy nie znam odpowiedzi. Nie chcę za każdym razem mówić, że nie wiem, i robić z siebie idiotki przed kolegami i koleżankami z klasy. Nauczyciele mnie poniżają”. Candace dostała zestaw testów do rozwiązania, w tym test IQ, w którym uzyskała 68 punktów. Co iloraz inteligencji Candace mówi o jej zdolnościach do osiągania dobrych wyników i sukcesów w ramach normalnego programu nauczania bez dodatkowego wspomagania?
### Summary
W tym podrozdziale przedstawiono historię testów na inteligencję i niektóre wyzwania związane z jej testowaniem. Testy na inteligencję zaczęły być stosowane dzięki Alfredowi Binetowi. Następnie David Wechsler opracował testy przeprowadzane do dziś: WAIS-IV i WISC-V. Krzywa dzwonowa pokazuje zakres wyników obejmujących średnią inteligencję, jak również odchylenia standardowe.
### Review Questions
### Critical Thinking Questions
### Personal Application Question
|
# Myślenie i inteligencja
## Źródła inteligencji
Mała dziewczynka, córka pary nastolatków, mieszka z babcią na wsi w stanie Missisipi. Żyją w skrajnym ubóstwie, ale za wszelką cenę starają się wiązać koniec z końcem. Dziewczynka uczy się czytać, mając zaledwie 3 lata. Gdy jest trochę starsza, chce zamieszkać z matką, więc jako 6-latka przeprowadza się do Wisconsin. W wieku 9 lat zostaje zgwałcona. Przez kilka kolejnych lat jest ofiarą regularnego molestowania przez krewnych płci męskiej. Jej życie się rozsypuje. Wewnętrzną pustkę i poczucie osamotnienia wypełniają narkotyki i seks. Matka wysyła ją wtedy do Nashville, żeby zamieszkała z ojcem, który stosuje wobec niej surowe zasady wychowawcze. Z czasem dziewczyna wychodzi na prostą. Zaczyna odnosić sukcesy w szkole, a w wieku 19 lat staje się najmłodszą i pierwszą afroamerykańską prezenterką wiadomości („Dates and Events”, b.d.). Już jako dorosła kobieta – Oprah Winfrey – zostaje ikoną mediów znaną zarówno ze swej inteligencji, jak i empatii.
### Wysoka inteligencja: natura czy wychowanie?
Skąd się bierze wysoki poziom inteligencji? Niektórzy badacze twierdzą, że dziedziczymy ją po rodzicach. Do określenia odziedziczalności (ang. ) inteligencji naukowcy zajmujący się tym tematem wykorzystują zazwyczaj badania na bliźniętach. Jednym z najbardziej znanych tego typu badań jest studium rozdzielonych bliźniąt z Minnesoty. W toku prowadzonej analizy badacze odkryli, że korelacja między wynikami w testach inteligencji uzyskiwanymi przez bliźnięta jednojajowe – zarówno te wychowywane razem, jak i osobno – jest wyższa niż w przypadku wychowującego się razem rodzeństwa lub bliźniąt dwujajowych (Bouchard et al., 1990). Badanie to sugeruje, że inteligencja ma podłoże genetyczne (). Jednocześnie inni psychologowie uważają, że inteligencję kształtuje środowisko, w którym dziecko się rozwija. Gdyby rodzice dostarczali dzieciom bodźców intelektualnych, zanim przyjdą one na świat, prawdopodobnie czerpałyby one korzyści z tej stymulacji, co z pewnością miałoby odzwierciedlenie w poziomie inteligencji.
W rzeczywistości słuszne są niektóre aspekty obu tych teorii. Jak sugerują wyniki jednego z badań, chociaż genetyka wydaje się kontrolować poziom inteligencji, wpływ otoczenia stabilizuje lub zmienia przejawy zdolności poznawczych (Bartels et al., 2002). Istnieją z pewnością uwarunkowania, które sprzyjają rozwojowi inteligencji, ale nie należy ignorować genetycznego podłoża wysokiego IQ. Jednak, podobnie jak w przypadku wszystkich cech dziedzicznych, nie zawsze można wyodrębnić, jak i kiedy wysoki poziom inteligencji jest przekazywany następnym pokoleniom.
Zakres reakcji (ang. ) to teoria, zgodnie z którą każdy reaguje na otoczenie w unikatowy sposób, warunkowany przez jego kod genetyczny. Oznacza to, że twój potencjał genetyczny jest cechą stałą, ale to, czy zrealizujesz go w pełni, zależy od doświadczanej stymulacji, szczególnie w dzieciństwie. Przeanalizuj następujący scenariusz: para adoptuje dziewczynkę o przeciętnym genetycznym potencjale intelektualnym. Wychowuje ją w mocno stymulującym środowisku. Co się stanie z córką tej pary? Prawdopodobnie długotrwałe pobudzanie przez otoczenie pozytywnie wpłynie na jej osiągnięcia intelektualne w przyszłości. A co by było w odwrotnym przypadku? Co się wydarzy, gdy dziecko o bardzo silnym podłożu genetycznym inteligencji zostanie umieszczone w środowisku, które go nie stymuluje? Co ciekawe, jak wynika z długookresowych badań osób szczególnie uzdolnionych, „skrajnie optymalne i skrajnie patologiczne środowiska są reprezentowane nieproporcjonalnie często w doświadczeniach osób kreatywnych”. Jednak osoby pochodzące z rodzin okazujących im wsparcie częściej deklarowały, że są szczęśliwe (Csikszentmihalyi i Csikszentmihalyi, 1993, s. 187).
Kolejnym wyzwaniem związanym z ustaleniem źródła wysokiej inteligencji jest niejasna natura struktur społecznych. Problematyczne jest stwierdzenie, że pewne grupy etniczne uzyskują lepsze wyniki w testach IQ niż inne – możliwe, że wyniki te nie mają nic wspólnego z poziomem intelektu poszczególnych grup. Podobnie sytuacja wygląda ze statusem socjoekonomicznym. Dzieci dorastające w biedzie częściej doświadczają codziennego stresu niż dzieci, które mają zaspokojone podstawowe potrzeby, jak poczucie bezpieczeństwa, dach nad głową czy pożywienie. Takie obawy mogą negatywnie wpływać na sposób funkcjonowania i rozwój mózgu, co przekłada się na niższe IQ. Mark Kishiyama i jego współpracownicy stwierdzili, że u dzieci żyjących w biedzie obserwuje się gorsze funkcjonowanie mózgu w części przedczołowej, porównywalne do dzieci z uszkodzoną boczną korą przedczołową (Kishiyama et al., 2009).
Dyskusja na temat podstaw inteligencji i czynników na nią wpływających rozgorzała w 1969 roku, gdy psycholog edukacyjny Arthur Jensen (1923-2012) opublikował w magazynie „Harvard Educational Review” artykuł pt. Jak bardzo można wpłynąć na poprawę IQ i osiągnięć. Jensen przeprowadził testy na inteligencję wśród różnych grup studentów, a wyniki doprowadziły go do stwierdzenia, że to genetyka determinuje IQ. Postawił również tezę, że na inteligencję składają się dwa rodzaje umiejętności: na poziomie I i poziomie II. Według jego teorii poziom I odpowiada za uczenie się mechaniczne, natomiast poziom II jest odpowiedzialny za zdolności pojęciowe i analityczne. Jak pokazują wyniki jego badań, poziom I jest taki sam w całym gatunku ludzkim. Jednak poziom II różni się w zależności od grupy etnicznej (Modgil i Routledge, 1987). Najbardziej kontrowersyjny wniosek Jensena to sugestia, że inteligencja na poziomie II jest najwyższa u osób rasy azjatyckiej, następnie u przedstawicieli rasy białej, a na końcu u Afroamerykanów. Robert Williams był jednym z tych, którzy wyniki Jensena określili mianem dyskryminacji rasowej (Williams, 1970).
Interpretacja Jensena uzyskanych przez niego danych wywołała oczywiście silną reakcję w Stanach Zjednoczonych, tym bardziej że był to czas znacznych zmian społecznych związanych z rugowaniem dyskryminacji rasowej w USA (Fox, 2012). Jego koncepcja nie była jednak ani odosobniona, ani szczególnie wyjątkowa. Plasowała go raczej w gronie wielu psychologów opowiadających się za różnicami rasowymi w zakresie ilorazu inteligencji i zdolności poznawczych. Rushton i Jensen (2005) przeanalizowali trzy dekady badań nad zależnościami między rasą a zdolnościami poznawczymi. U podstaw wniosków Jensena leży przekonanie o dziedzicznej naturze inteligencji i miarodajności testów IQ. Jeśli jednak uważasz, że inteligencja to coś więcej niż poziom I i II oraz że testy IQ nie uwzględniają różnic socjoekonomicznych i kulturowych między ludźmi, zapewne odrzucisz wnioski Jensena, gdyż stanowią one jedynie wąskie okno, przez które obserwujemy złożony i zróżnicowany obraz ludzkiej inteligencji.
A teraz historia powiązana z przedstawioną wyżej teorią. W 1979 roku rodzice afroamerykańskich uczniów wnieśli pozew przeciwko stanowi Kalifornia. Ich zdaniem testy użyte do identyfikacji uczniów z zaburzeniami w uczeniu się były tendencyjne z perspektywy kulturowej, gdyż znormalizowano i standaryzowano je na dzieciach rasy białej (Larry P. v. Riles, 1979). W wyniku metod stosowanych przez ten stan opóźnienie umysłowe u dzieci pochodzenia afroamerykańskiego stwierdzano nieproporcjonalnie często. W rezultacie wielu uczniów było błędnie uznawanych za opóźnionych umysłowo. Jak można przeczytać w streszczeniu sprawy Larry P. przeciw Riles:
Ponownie pokazuje to ograniczenia testów na inteligencję.
### Czym są trudności w uczeniu się?
Trudności w uczeniu się to zaburzenie poznawcze wpływające na różne obszary poznania, w szczególności na umiejętności językowe i czytanie. Należy podkreślić, że zaburzenia te różnią się od niepełnosprawności intelektualnej. Trudności w uczeniu się to pewien rodzaj upośledzenia neurologicznego, a nie ogólna niepełnosprawność intelektualna czy rozwojowa. Osoba z trudnościami w przyswajaniu języka ma problemy z rozumieniem i używaniem języka mówionego, podczas gdy osoba doświadczająca problemów z czytaniem, mająca np. dysleksję, z trudem przetwarza tekst czytany.
Często trudności w uczeniu się rozpoznawane są dopiero w chwili rozpoczęcia nauki szkolnej. Jednym z mylących aspektów tych zaburzeń jest to, że zazwyczaj dotykają one dzieci z przeciętnym lub ponadprzeciętnym ilorazem inteligencji. Jednocześnie trudności w uczeniu się współwystępują z innymi zaburzeniami, np. z zespołem nadpobudliwości psychoruchowej z deficytem uwagi (ang. ). Pewnego rodzaju trudności w uczeniu się występują u 30%–70% osób ze zdiagnozowanym ADHD (Riccio et al., 1994). Przyjrzyjmy się trzem przykładom częstych trudności tego typu: dysgrafii, dysleksji i dyskalkulii.
### Dysgrafia
Dzieci z dysgrafią (ang. ) cierpią na zaburzenie uczenia się związane z trudnościami w czytelnym pisaniu. Ogromnym wyzwaniem jest dla nich pisanie ręczne. Dzieci te mają również zazwyczaj duże problemy z przelewaniem myśli na papier (Smits-Engelsman i Van Galen, 1997). Trudności te nie są zbieżne z IQ danej osoby. Oznacza to, że zgodnie z ilorazem inteligencji i/lub zdolnościami w innych dziedzinach dziecko z dysgrafią powinno potrafić pisać, ale nie potrafi. Dzieci z dysgrafią mogą mieć również niższe zdolności przestrzenne.
Uczniowie z dysgrafią potrzebują odpowiedniego wsparcia, by mogli radzić sobie w szkole. Może to być np. zapewnienie alternatywnych metod oceny, aby mogli zaprezentować swoją wiedzę (Barton, 2003). Na przykład ucznia z dysgrafią można dopuścić do egzaminu ustnego zamiast do tradycyjnego testu pisemnego. Leczenie odbywa się zazwyczaj we współpracy z terapeutą zajęciowym, mimo że pojawiają się pewne wątpliwości co do skuteczności takiej terapii (Zwicker, 2005).
### Dysleksja
Dysleksja (ang. ) to najczęściej spotykane zaburzenie w uczeniu się u dzieci. Dyslektyk nie potrafi poprawnie analizować wyglądu i brzmienia liter. U takich osób neurologiczny mechanizm przetwarzania dźwięków nie funkcjonuje w odpowiedni sposób. W rezultacie dzieci dyslektyczne nie rozumieją analogii między dźwiękiem a literą. Dziecko z dysleksją może mieszać litery w wyrazach i zdaniach. Charakterystyczną cechą tego zaburzenia jest odwracanie liter, jak w przykładzie pokazanym na . Ponadto, podczas czytania zdarza się dzieciom pomijać całe słowa. Dyslektyk może mieć również trudności z ortografią. W związku z zaburzonym sposobem przetwarzania liter i dźwięków przez mózg uczenie się czytania jest dla takiej osoby frustrującym doświadczeniem. Niektóre osoby z dysleksją radzą sobie, zapamiętując kształty większości słów, ale tak naprawdę nigdy nie opanowują umiejętności czytania (Berninger, 2008).
### Dyskalkulia
Dyskalkulia (ang. ) polega na trudnościach w uczeniu się czy rozumieniu materiału arytmetycznego. Często jej pierwsze oznaki zauważane są, gdy dziecko ma kłopoty z określeniem, ile jest przedmiotów w małym zbiorze bez zliczania ich. Inne symptomy obejmują np. trudności z zapamiętywaniem materiału matematycznego, organizowaniem liczby czy różnicowaniem między cyframi, symbolami matematycznymi i zapisanymi liczbami, jak w przypadku „3” i „trzy”.
### Summary
Genetyka i środowisko mają wpływ na inteligencję i wyzwania związane z niektórymi trudnościami w uczeniu się. Na poziom inteligencji człowieka korzystnie oddziałuje bogata stymulacja ze strony otoczenia, dostarczana od najmłodszych lat. Jednak osoby o wysokim ilorazie inteligencji mogą wykazywać wrodzoną odporność na działanie szkodliwych czynników, która pozwala im pokonywać przeszkody ze strony środowiska wychowawczego. Trudności w uczeniu się stanowią spore wyzwanie dla dzieci uczących się czytać i pisać. W przeciwieństwie do niepełnosprawności rozwojowej, trudności w uczeniu się mają ściśle neurologiczny charakter i nie są związane z poziomem inteligencji. Przykładowo, uczniowie dyslektyczni mogą mieć ogromne trudności z nauką czytania, ale ich poziom inteligencji bywa przeciętny lub ponadprzeciętny.
### Review Questions
### Critical Thinking Questions
### Personal Application Question
|
# Pamięć
## Wprowadzenie
Moglibyśmy uczyć się najlepiej na świecie, ale cóż by nam przyszło ze zdobytej wiedzy, gdybyśmy nie zapamiętywali tego, czego się nauczyliśmy?
Jak wyglądałby twój dzień, gdyby pamięć odmówiła ci posłuszeństwa? Trzeba by codziennie dochodzić do tego, jak należy się ubierać, codziennie na nowo odkrywać, jak działają guziki i suwaki. Ktoś bliski musiałby ci tłumaczyć, jak szczotkować zęby i jak wiązać sznurowadła. Ale jak tu poprosić o pomoc, skoro nie potrafisz rozpoznawać twarzy swoich bliskich? Chwila... Czy to aby naprawdę twój dom? Oj, burczy ci w brzuchu i czujesz głód. Chcesz coś zjeść, ale nie masz pojęcia, skąd się bierze żywność ani jak ją przyrządzić. To naprawdę zaczyna być stresujące. Może lepiej wrócić do łóżka? Ale moment... Czym jest łóżko?
Zdajemy sobie sprawę z tego, że nasza pamięć ma ogromne możliwości, ale czy wiemy, w jaki sposób przetwarzamy i przechowujemy informacje? Czy istnieją różne rodzaje pamięci, a jeśli tak, to co charakteryzuje każdy z nich? Jak się nam udaje przywoływać wspomnienia? I dlaczego zapominamy? W tym rozdziale poszukamy odpowiedzi na te pytania i dowiemy się więcej o pamięci.
### References
Abel, M., & Bäuml, K.-H. T. (2013). Sleep can reduce proactive interference. Memory, 22(4), 332–339. doi:10.1080/09658211.2013.785570. Retrieved from http://www.psychologie.uni-regensburg.de/Baeuml/papers_in_press/sleepPI.pdf
Anderson, N. S. (1969). The influence of acoustic similarity on serial recall of letter sequences. Quarterly Journal of Experimental Psychology, 21(3), 248–255.
Anderson, R. C. (1984). Role of the reader's schema in comprehension, learning, and memory. In R. C. Anderson, J. Osborn, & R. J. Tierney (Eds.), Learning to read in American schools: Basal Readers and Content Texts (pp. 243–257). Hillsdale, NJ: Erlbaum.
Atkinson, R. C., & Shiffrin, R. M. (1968). Human memory: A proposed system and its control processes. In K. W. Spence & J. T. Spence (Eds.), The psychology of learning and motivation: Volume 2 (pp. 89–195). New York, NY: Academic Press.
Baddeley, A. (2004). Your memory: A user's guide. Richmond Hill, Canada: Firefly Books.
Baddeley, A. D., & Hitch, G. (1974). Working memory. In G. H. Bower (Ed.), The psychology of learning and motivation: Advances in research and theory (Vol. 8, pp. 47–89). New York, NY: Academic Press.
Bayley, P. J., & Squire, L. R. (2002). Medial temporal lobe amnesia: Gradual acquisition of factual information by nondeclarative memory. Journal of Neuroscience, 22, 5741–5748.
Bellezza, F. S. (1981). Mnemonic devices: Classification, characteristics and criteria. Review of Educational Research, 51, 247–275.
Benjamin N. Cardozo School of Law, Yeshiva University. (2009). Reevaluating lineups: Why witnesses make mistakes and how to reduce the chance of a misidentification. Retrieved from The Innocence Project website: http://www.innocenceproject.org/docs/Eyewitness_ID_Report.pdf
Blockland, A. (1996). Acetylcholine: A neurotransmitter for learning and memory? Brain Research Reviews, 21, 285–300.
Bodie, G. D., Powers, W. G., & Fitch-Hauser, M. (2006). Chunking, priming, and active learning: Toward an innovative approach to teaching communication-related skills. Interactive Learning Environment, 14(2), 119–135.
Bousfield, W. (1935). The occurrence of clustering in the recall of randomly arranged associates. Journal of General Psychology, 49, 229–240.
Bransford, J. D., & McCarrell, N. S. (1974). A sketch of a cognitive approach to comprehension. In W. B. Weimer & D. J. Palermo (Eds.), Cognition and the symbolic processes (pp. 189–229). Hillsdale, NJ: Lawrence Erlbaum Associates.
Briere, J., & Conte, J. (1993). Self-reported amnesia for abuse in adults molested as children. Journal of Traumatic Stress, 6, 21–31.
Carli, L. (1999). Cognitive reconstruction, hindsight, and reactions to victims and perpetrators. Personality and Social Psychology Bulletin, 25(8), 966–979. doi:10.1177/01461672992511005
Ceci, S. J., & Bruck, M. (1993). Child witness: Translating research into policy. Social Policy Report, 7(3), 1–30.
Ceci, S. J., & Bruck, M. (1995). Jeopardy in the courtroom: A scientific analysis of children’s testimony. Washington, DC: American Psychological Association.
Cheit, R. E. (2007). The recovered memory project. Retrieved from http://blogs.brown.edu/recoveredmemory/.
Christianson, S. A. (1992). The handbook of emotion and memory: Research and theory. Hillsdale, NJ: Erlbaum.
Clark, R. E., Zola, S. M., & Squire, L. R. (2000). Impaired recognition memory in rats after damage to the hippocampus. The Journal of Neuroscience, 20(23), 8853–8860.
Corkin, S. (1965). Tactually-guided maze learning in man: Effects of unilateral cortical excisions and bilateral hippocampal lesions. Neuropsychologia, 3, 339–351.
Corkin, S. (1968). Acquisition of motor skill after bilateral medial temporal-lobe excision. Neuropsychologia, 6, 255–264.
Corkin, S., Amaral D. G., González, R. G., Johnson, K. A., & Hyman, B. T. (1997). H. M.’s medial temporal lobe lesion: Findings from magnetic resonance imaging. Journal of Neuroscience, 17(10), 3964–3979.
Craik, F. I. M., & Lockhart, R. S. (1972). Levels of processing: A framework for memory research. Journal of Verbal Learning and Verbal Behavior, 11, 671–684.
Craik, F. I. M., Moroz, T. M., Moscovitch, M., Stuss, D. T., Winocur, G., Tulving, E., & Kapur, S. (1999). In search of the self: A positron emission tomography study. Psychological Science, 10(1), 26–34.
Craik, F. I. M., & Tulving, E. (1975). Depth of processing and the retention of words in episodic memory. Journal of Experimental Psychology, 104(3), 268–294.
Craik, F. I. M., & Watkins, M. J. (1973). The role of rehearsal in short-term memory. Journal of Verbal Learning and Verbal Behavior, 12, 599–607.
Green, J. T., & Woodruff-Pak, D. S. (2000). Eyeblink classical conditioning in aging animals. In D. S. Woodruff-Pak & J. E. Steinmetz (Eds.), Eyeblink classical conditioning: Animal models (Vol. 2, pp.155–178). Boston, MA: Kluwer Academic.
Greenberg, D. L. (2004). President Bush's false [flashbulb] memory of 9/11/01. Applied. Cognitive Psychology, 18(3), 363–370. doi:10.1002/acp.1016
Devilly, G. J. (2007). If nothing happened why do I still hurt? An update on the memory wars. InPsych, 29(2), 16–18.
Ebbinghaus, H. (1964). Memory: A contribution to experimental psychology (H. A. Ruger & C. E. Bussenius, Trans.). New York, NY: Dover. (Original work published 1885)
Goodman, G. S. (2006). Children’s eyewitness memory: A modern history and contemporary commentary. Journal of Social Issues, 62, 811–832.
Hassabis D., & Maguire E. A. (2007). Deconstructing episodic memory with construction. Trends in Cognitive Sciences, 11(7), 299–306.
Jacobs, J. (1887). Experiments on “prehension.” Mind, 12, 75–79.
Josselyn, J. A. (2010). Continuing the search for the engram: Examining the mechanism of fear memories. Journal of Psychiatry Neuroscience, 35(4), 221–228.
Kapur, S., Craik, F. I. M., Tulving, E., Wilson, A. A., Houle, S., & Brown, G. M. (1994). Neuroanatomical correlates of encoding in episodic memory: Levels of processing effect. Proceedings of the National Academy of Sciences of the United States of America, 91(6), 208–2011.
Lashley K. S. (1950). In search of the engram. Society of Experimental Biology Symposium, 4: Psychological Mechanisms in Animal Behavior. Cambridge, UK: Cambridge University Press.
Loftus, E. F., & Palmer, J. C. (1974). Reconstruction of auto-mobile destruction: An example of the interaction between language and memory. Journal of Verbal Learning and Verbal Behavior, 13, 585–589.
MacLeod, C. M., Gopie, N., Hourihan, K. L., Neary, K. R., & Ozubko, J. D. (2010). The production effect: Delineation of a phenomenon. Journal of Experimental Psychology: Learning, Memory, and Cognition, 36(3), 671–685.
Mayford, M., Siegelbaum, S. A., & Kandel, E. R. (2012). Synapses and memory storage. New York, NY: Cold Spring Harbor Perspectives in Biology, Cold Spring Harbor Laboratory Press.
McGaugh, J. L. (2003). Memory and emotion: The making of lasting memories. New York, NY: Columbia University Press.
McLeod, S. A. (2011). Anterograde amnesia [Web log post]. Retrieved from http://www.simplypsychology.org/anterograde-amnesia.html
Miller, G. A. (1956). The magical number seven, plus or minus two: Some limits on our capacity for processing information. Psychological Review, 68, 81–87.
Myhrer, T. (2003). Neurotransmitter systems involved in learning and memory in the rat: A meta-analysis based on studies of four behavioral tasks. Brain Research Reviews, 41(2–3), 268–287.
Newseum. (n.d.). G-men and journalists: D. C. sniper [Web log post]. Retrieved from http://www.newseum.org/exhibits-and-theaters/temporary-exhibits/g-men-and-journalists/sniper/
Nickerson, R. S., & Adams, M. J. (1979). Long-term memory for a common object. Cognitive Psychology, 11(3), 287–307.
Paivio, A. (1986). Mental representations: A dual coding approach. New York, NY: Oxford University Press.
Parker, E. S., Cahill, L., & McGaugh, J. L. (2006). A case of unusual autobiographical remembering. Neurocase, 12, 35–49.
Payne, B. K., Jacoby, L. L., & Lambert, A. J. (2004). Memory monitoring and the control of stereotype distortion. Journal of Experimental Social Psychology, 40, 52–64.
Pew Research Center (2011, September 1). Ten years after 9/11: United in remembrance, divided over policies. Washington, DC: People Press.
Pipe, M.-E. (1996). Children’s eyewitness memory. New Zealand Journal of Psychology, 25(2), 36–43.
Pipe, M.-E., Lamb, M., Orbach, Y., & Esplin, P. W. (2004). Recent research on children’s testimony about experienced and witnessed events. Developmental Review, 24, 440–468.
Roediger, H. L., & DeSoto, K. A. (2015). The psychology of reconstructive memory. In J. Wright (Ed.), International Encyclopedia of the Social and Behavioral sciences, 2e. Oxford, UK: Elsevier.
Roediger, H. L., III, & McDermott, K. B. (2000). Tricks of memory. Current Directions in Psychological Science, 9, 123–127.
Rogers, T. B., Kuiper, N. A., & Kirker, W. S. (1977). Self-reference and the encoding of personal information. Journal of Personal Social Psychology, 35(9), 677–688.
Schacter, D. (2001). The seven sins of memory: How the mind forgets and remembers. New York, NY: Houghton Mifflin.
Steinmetz, J. E. (1999). A renewed interest in human classical eyeblink conditioning. Psychological Science, 10, 24–25.
Tigner, R. B. (1999). Putting memory research to good use. College Teaching, 47(4), 149–152.
Tulving, E. (1972). Episodic and semantic memory. In E. Tulving & W. Dolandson (Eds.), Organization of memory (pp. 381–403). New York, NY: Academic Press.
Tulving, E. (2002, February). Episodic memory: From mind to brain. Annual Review of Psychology, 53, 1–25. doi:10.1146/annurev.psych.53.100901.135114
van Praag, H. (2008). Neurogenesis and exercise: Past and future directions. NeuroMolecular Medicine, 10(2), 128–140.
Wells, G. L., & Quinlivan, D. S. (2009). Suggestive eyewitness identification procedures and the Supreme Court’s reliability test in light of eyewitness science: 30 years later. Law and Human Behavior, 33, 1–24. doi:10.1007/s10979-008-9130-3
Wrubel, B. (Writer), & Spiller, M. (Director). (2010). The Old Wagon [Television series episode]. In S. Levitan & C. Lloyd (Executive producers), Modern Family. 20th Century Fox Television.
Yogo, M., & Fujihara, S. (2008). Working memory capacity can be improved by expressive writing: A randomized experiment in a Japanese sample. British Journal of Health Psychology, 13(1), 77–80. doi:10.1348/135910707X252440 |
# Pamięć
## Jak działa pamięć
Pamięć jest systemem przetwarzania informacji, dlatego często jej działanie porównujemy z działaniem komputera. Pamięć (ang. ) to zestaw procesów wykorzystywanych do kodowania, przechowywania i wydobywania informacji ().
### Kodowanie
Nasz mózg otrzymuje informacje w procesie zwanym kodowaniem (przyswajaniem) (ang. ), czyli wprowadzaniem informacji do pamięci. Otrzymawszy ze zmysłów informacje z otoczenia, mózg je oznacza, czyli koduje. Taką informację łączymy z innymi elementami i wiążemy nowe pojęcia z już przechowywanymi w umyśle. Kodowanie informacji może być automatyczne lub kontrolowane.
Gdyby ktoś cię spytał, co było dziś na śniadanie, prawdopodobnie przypomnisz to sobie bez wysiłku. Ten rodzaj przetwarzania nazywamy automatycznym lub bezwysiłkowym. Tak zapamiętujemy czas, przestrzeń, częstotliwość czy znaczenie słów. Przetwarzanie automatyczne (ang. ) odbywa się bez świadomego wysiłku, Innym przykładem może być przypomnienie sobie ostatnich przygotowań do egzaminu. Ale co było wtedy do nauczenia? Zapamiętanie tych informacji zapewne wymagało od ciebie wiele wysiłku i skupienia uwagi. Taki rodzaj przetwarzania nazywamy kontrolowanym (lub wysiłkowym) (ang. ) ().
Jakie sposoby zapewniają najskuteczniejsze kodowanie ważnych informacji? Nawet najprostsze zdanie łatwiej zapamiętać, jeśli ma ono dla nas sens (Anderson, 1984). Przeczytaj poniższe zdania (Bransford i McCarrell, 1974), odwróć wzrok i policz od 30 do zera trójkami, a potem spróbuj je zapisać (tylko bez podglądania!).
1. Nuty były fałszywe, bo szwy się rozeszły.
2. Podróż nie uległa opóźnieniu z powodu rozbicia butelki.
3. Stóg siana miał znaczenie, gdyż materiał się rozdarł.
Jak ci poszło? Każde z tych zdań z osobna zapewne wydało ci się zagmatwane i trudno było ci je sobie dokładnie przypomnieć. Teraz spróbuj zapisać je ponownie, używając następujących podpowiedzi: kobza, chrzest statku, skok ze spadochronem. Policz od 40 do zera czwórkami i sprawdź, jak dobrze udało ci się zapamiętać je tym razem. Czy zdania nie wydają się teraz łatwiejsze do zapamiętania? Wszystko przez to, że zostały podane w kontekście. Materiał lepiej się zapamiętuje, jeśli nadamy mu sens.
Istnieją trzy rodzaje kodowania. Kodowanie słów i ich znaczenia jest znane jako kodowanie semantyczne (ang. ). Kodowanie semantyczne nie jest jednak ograniczone tylko do słów, ale dotyczy wszelkich informacji niosących znaczenie. Jako pierwszy opisał je w 1935 roku William Bousfield (1854-1943) na podstawie wyników eksperymentu, w którym prosił badanych o zapamiętywanie słów. Zestaw słów sprawiał wrażenie, że są one niepowiązane, ale faktycznie należały one do czterech kategorii znaczeniowych. Co ciekawe, badani przywoływali je zgodnie z podziałem na kategorie, co wskazywało, że podczas zapamiętywania mogli jednak zwracać uwagę na ich znaczenie.
Zapamiętywanie obrazów nazywamy kodowaniem wzrokowym (ang. ), a dźwięków, zwłaszcza słów - kodowaniem akustycznym (ang. ). Żeby zorientować się, na czym polega kodowanie wizualne, przeczytaj poniższą listę wyrazów: samochód, poziom, pies, prawda, książka, wartość. Jak sądzisz, które z nich byłoby ci najłatwiej zapamiętać i odtworzyć po pewnym czasie? Prawdopodobnie łatwiej byłoby ci przypomnieć sobie samochód, psa i książkę, a trudniej poziom, prawdę i wartość. Dlaczego? Bo łatwiej przywołać z pamięci konkretne obrazy niż same słowa. Czytając słowa samochód, pies albo książka, tworzysz w umyśle odpowiadające im obrazy. Te wyrazy mają swoje konkretne odpowiedniki. Tymczasem abstrakcyjne pojęcia, jak wolność, prawda i wartość, nie mają obrazowych odpowiedników. Słowa, którym odpowiadają obrazy, są zapamiętywane zarówno wzrokowo, jak i semantycznie (Paivio, 1986), a przez to zapamiętujemy je skuteczniej. Określamy to jako podwójne kodowanie.
Teraz zajmijmy się kodowaniem akustycznym. Przyjmijmy, że jedziesz samochodem i nagle w radiu zaczynają grać piosenkę, którą słyszysz po raz pierwszy od co najmniej 10 lat. Zaczynasz śpiewać do wtóru i okazuje się, że pamiętasz każde słowo. W Stanach Zjednoczonych dzieci często uczą się alfabetu poprzez piosenkę, w ten sposób zapamiętują także liczbę dni w każdym miesiącu: Thirty days has September, / April, June, and November; / All the rest have thirty-one, / Save February, with twenty-eight days clear, / And twenty-nine each leap year. W polskim systemie edukacyjnym od piosenek popularniejsze są wierszyki, np.: Pamiętają mali, duzi,/ że dwanaście sztuk to tuzin”. Zapamiętanie faktów jest łatwiejsze dzięki kodowaniu akustycznemu, czyli kodowaniu dźwięków, jakie towarzyszą tym słowom. To jeden z powodów, dla których małe dzieci większość wiadomości przyswajają poprzez piosenkę, rym i rytm.
Jak myślisz, który z tych trzech typów kodowania najlepiej pozwoliłby zapamiętać informacje werbalne? W latach 70. XX wieku psychologowie Fergus Craik i Endel Tulving (1975) przeprowadzili serię eksperymentów, w których uczestnikom prezentowano słowa razem z dotyczącymi ich pytaniami. Pytania wymagały od badanych przetwarzania słów na jednym z trzech poziomów. Żeby wymusić przetwarzanie wzrokowe, pytano np. o krój czcionki, którą zapisano dane słowo. Przy przetwarzaniu akustycznym – o brzmienie, jakie ma słowo albo o kojarzący się z nim rym, przy przetwarzaniu semantycznym zaś – o znaczenie słowa. Po zakończeniu prezentacji przeprowadzano niezapowiedziany sprawdzian pamięciowy.
Słowa kodowane semantycznie były zapamiętywane lepiej niż kodowane wzrokowo lub akustycznie. Kodowanie semantyczne wymaga głębszego przetwarzania niż wzrokowe czy akustyczne. Craik i Tulving stwierdzili, że najlepiej przetwarzamy informacje werbalne dzięki kodowaniu semantycznemu, szczególnie jeśli zastosujemy coś, co nazywamy efektem odniesienia do Ja. Efekt odniesienia do (ang. ) to tendencja jednostki do lepszego zapamiętywania tego, co dotyczy niej samej, w przeciwieństwie do informacji mniej osobiście istotnej (Rogers, Kuiper i Kirker, 1977). Czy kodowanie semantyczne może być korzystne podczas zapamiętywania pojęć zawartych w tym rozdziale?
### Przechowywanie
Gdy już informacja zostanie zakodowana, musimy ją jakoś przechować. Nasze mózgi robią to bezustannie. Przechowywanie (ang. ) oznacza stworzenie dla informacji trwałej bazy.
Żeby informacja trafiła do magazynu pamięci (czyli do pamięci trwałej), musi przejść przez trzy odrębne fazy: pamięci sensorycznej (inaczej: rejestr sensoryczny lub pamięć ultrakrótkotrwała), pamięci krótkotrwałej i wreszcie pamięci długotrwałej (inaczej: trwałej). Taki podział zaproponowali jako pierwsi Richard Atkinson i Richard Shiffrin (1968). Ich model ludzkiej pamięci (), nazwany modelem Atkinsona i Shiffrina (ang. ) opiera się na założeniu, że przetwarzamy informacje na podobnej zasadzie, jak robią to komputery.
Model Atkinsona i Shiffrina nie jest jedyny. Na przykład Baddeley i Hitch (1974) zaproponowali model pamięci roboczej, w którym pamięć krótkotrwała przybiera różne formy. W ich modelu zachowywanie wspomnień w pamięci krótkotrwałej przypomina otwieranie różnych plików w komputerowym katalogu i dodawanie tam nowych informacji. Pliki w pamięci roboczej mają ograniczoną pojemność dla przechowywanych informacji. Typ pamięci krótkotrwałej (czy też pliku komputerowego) zależy od rodzaju otrzymanej informacji. Istnieją wspomnienia w postaci wizualno-przestrzennej (obrazowej) i takie o materiale mówionym albo pisanym (słownym). Wszystkie są przechowywane w trzech systemach pamięci krótkotrwałej: szkicowniku (notesie) wizualno-przestrzennym, buforze epizodycznym i pętli fonologicznej (Baddeley, 2004). W tym modelu kontrolę nad przepływem informacji do i z tych trzech systemów krótkoterminowych sprawuje centralny system wykonawczy (centralny mechanizm wykonawczy), jak również jest on odpowiedzialny za przenoszenie informacji do pamięci długotrwałej. W ten sposób ujęta jest jeszcze jedna, niezwykle istotna funkcja pamięci - przetwarzanie informacji.
### Rejestr sensoryczny
W modelu Atkinsona i Shiffrina bodźce z otoczenia najpierw przechodzą przez rejestr sensoryczny (ang. ), przechowujący krótkotrwałe wrażenia zmysłowe, takie jak obrazy, dźwięki czy smaki. Takie przechowanie trwa zaledwie ułamek sekundy lub kilka sekund. Ciągle jesteśmy bombardowani informacjami zmysłowymi. Nie możemy zachować wszystkich ani nawet większej części z nich. Zresztą większość nie ma żadnego wpływu na nasze życie. Na przykład, jak była ubrana pani profesor na ostatnim wykładzie? Jeśli strój jest odpowiedni do sytuacji, to nie ma to dla ciebie żadnego znaczenia. Informacje płynące ze zmysłów o dźwiękach, obrazach, zapachach, a nawet teksturach odrzucamy jako nieistotne. Dopiero jeśli uznamy, że w jakiś sposób są dla nas ważne, przenosimy je do magazynu pamięci krótkotrwałej.
### Pamięć krótkotrwała
Pamięć krótkotrwała (ang. to miejsce czasowego przechowywania informacji zmysłowych, w którym są one przetwarzane; czasami nazywa się ją też pamięcią roboczą (operacyjną, pracującą), chociaż oba te rodzaje pamięci nie są tym samym.. Pamięć krótkotrwała stanowi element pamięci roboczej. Pobiera informacje z pamięci zmysłowej i czasami wiąże je z czymś, co już istnieje w pamięci długotrwałej. Przechowywanie danych w pamięci roboczej trwa od 15 do 30 sekund.
Pomyśl o pamięci krótkotrwałej jak o informacji, która pojawia się na ekranie komputera: dokumencie, arkuszu kalkulacyjnym czy stronie internetowej. Możesz ją przenieść do pamięci trwałej (zapisać na twardym dysku) albo odrzucić (skasować dokument lub zamknąć stronę internetową). Ten krok nazywamy powtarzaniem (ang. ). Świadome utrwalanie informacji, które chcemy zapamiętać, przenoszenie ich z pamięci krótkotrwałej do długotrwałej, nazywamy konsolidacją śladów pamięciowych (ang. ).
Dzięki powtarzaniu informacje są przenoszone z pamięci krótkotrwałej do długotrwałej. Przykładem aktywnego powtarzania (ang. ) jest śpiewanie piosenki ABC przez dzieci uczące się angielskiego, która pozwala zapamiętać kolejność liter w alfabecie. Natomiast tzw. powtarzanie opracowujące (ang. elaborative rehearsal) polega na łączeniu nowych informacji z tymi, które już znamy. Możesz je zastosować, gdy spotkasz kogoś na imprezie i chcesz zanotować adres tej osoby, ale musisz polegać wyłącznie na swojej pamięci, bo twój telefon ma rozładowaną baterię. By zapamiętać nazwę ulicy, możesz np. uświadomić sobie, że autobus, którym jeździsz na uczelnię, zatrzymuje się na przystanku, na którym widnieje nazwa tej właśnie zapamiętywanej przez ciebie ulicy. Craik i Lockhart (1972) zaproponowali hipotezę poziomów przetwarzania (ang. ), zgodnie z którą im głębiej o czymś myślisz, tym lepiej to zapamiętujesz.
Możesz spytać, ile informacji nasza pamięć potrafi przetwarzać jednocześnie. Żeby zbadać pojemność i trwałość swojej pamięci krótkotrwałej, poproś znajomą osobę, by przeczytała ci kolejne losowe ciągi cyfr od najkrótszego do najdłuższego (), rozpoczynając każdy ciąg od słów: „Jesteś gotowy/ Jesteś gotowa?” i kończąc go słowem „Odtwórz”, po którym powinieneś spróbować zapisać dany ciąg z pamięci w podanej kolejności.
Zapisz najdłuższy ciąg, który udało ci się powtórzyć bezbłędnie. Dla większości będzie to mniej więcej 7 cyfr, plus lub minus 2. W roku 1956 George Miller dokonał przeglądu badań nad pojemnością pamięci krótkotrwałej i stwierdził, że ludzie są w stanie zapamiętać od 5 do 9 elementów, bitów uznał więc, że pojemność pamięci krótkotrwałej wynosi „magiczną liczbę siedem”. Jednak nowsze badania wykazały, że pojemność pamięci operacyjnej wynosi 4 plus lub minus 1 (Cowan, 2010). Na ogół przypominanie jest nieco łatwiejsze dla losowych ciągów cyfr niż dla losowych ciągów liter (Jacobs, 1887) i często lepsze dla informacji, które słyszymy (kodowanie akustyczne) niż dla tych, które widzimy (kodowanie wizualne) (Anderson, 1969).
Zanikanie śladów pamięciowych (ang. ) oraz ich nakładanie się, czyli interferencja (ang. ) to dwa czynniki mające wpływ na utrzymanie informacji w pamięci krótkotrwałej. Peterson i Peterson (1959) badali pamięć krótkotrwałą za pomocą trzyliterowych sekwencji (trigramów), np. CLS, które uczestnik miał przypominać sobie po czasie od 3 do 18 sekund. Okazało się, że po 3 sekundach uczestnicy pamiętali około 80% trigramów, a po 18 sekundach zaledwie 10% trigramów. Na tej podstawie badacze sformułowali hipotezę, że pamięć krótkotrwała zanika po 18 sekundach. W tym 18-sekundowym okresie ślady pamięciowe stają się coraz mniej aktywne i informacja ulega zapomnieniu. Jednak Keppel i Underwood (1962) po przeanalizowaniu tylko pierwszej próby zadania z trigramami ustalili, że na utrzymywanie się pamięci krótkotrwałej ma wpływ również interferencja proaktywna, która polega na tym, że zapamiętana wcześniej informacja utrudnia zapamiętywanie nowej.
Zanikanie śladów pamięciowych oraz interferencja proaktywna wpływają na przechowywanie informacji w pamięci krótkotrwałej. Gdy wreszcie informacja zostanie przekazana do pamięci długotrwałej, musi ulec konsolidacji zarówno na poziomie synaptycznym, co trwa kilka godzin, jak i w systemie pamięciowym, co może trwać tydzień lub dłużej.
### Pamięć długotrwała
Pamięć długotrwała (ang. ) to inaczej przechowywanie informacji na stałe. W przeciwieństwie do pamięci krótkotrwałej, pojemność LTM jest nieograniczona. Przechowuje wszystko to, co pamiętasz, a zdarzyło się wcześniej niż kilka minut temu. Trudno jest prowadzić rozważania nad pamięcią długotrwałą bez zastanowienia się, jak jest ona ustrukturalizowana. A teraz szybki test: jakie pierwsze słowo przychodzi ci do głowy, gdy słyszysz „dżem truskawkowy”? Czy jest to „bułka”? Jeśli tak, prawdopodobnie twój mózg skojarzył dżem i bułkę. Przyjmuje się, że wspomnienia są zorganizowane w postaci sieci semantycznych (skojarzeniowych) (Collins i Loftus, 1975). Sieć semantyczna składa się z pojęć, które są – jak już pewnie wiesz z wcześniejszej lektury – lingwistycznymi kategoriami informacji, obrazów, idei i wspomnień takich jak doświadczenia życiowe. Chociaż doświadczenia i zdobyta wiedza mogą mieć wpływ na organizację pojęć, uważa się, że są one uporządkowane w umyśle w sposób hierarchiczny (Anderson i Reder, 1999, Johnson i Mervis, 1997, 1998; Palmer, Jones, Hennessy, Unze, i Pick, 1989; Rosch, Mervis, Gray, Johnson, i Boyes-Braem, 1976; Tanaka i Taylor, 1991). Pokrewne pojęcia są ze sobą powiązane, a siła tego połączenia zależy od tego, jak często występowały wspólnie.
Sieci semantyczne u każdego z nas są różne i zależą od naszych osobistych doświadczeń. Istotne dla procesu zapamiętywania jest spostrzeżenie, że aktywacja któregokolwiek fragmentu sieci semantycznej również w pewnym stopniu aktywuje pojęcia z nim połączone. Proces ten nosi nazwę rozprzestrzeniania się aktywacji (ang. ) (Collins i Loftus, 1975). Zaktywizowanie pewnego fragmentu sieci ułatwia dostęp do skojarzonych z nim pojęć, ponieważ zostały one już częściowo zaktywizowane. Gdy przypominasz sobie wcześniejsze wydarzenia, aktywujesz jakieś pojęcie. Dzięki temu powiązane z nim pojęcia mogą być łatwiej przypomniane, bo już są częściowo aktywne. Aktywacja jednak nie rozprzestrzenia się tylko w jednym kierunku. Gdy coś sobie przypominasz, zwykle możesz skorzystać z kilku ścieżek, które pozwolą ci dostać się do określonego zasobu twojej pamięci. Im więcej masz wypracowanych połączeń z danym pojęciem, tym większa jest szansa, że lepiej je zapamiętasz.
Istnieją dwa rodzaje pamięci długotrwałej: pamięć jawna (świadoma) (ang. ) i pamięć utajona (nieświadoma) (ang. ) schematycznie przedstawione na .
Istotny dla zrozumienia, czym oba rodzaje pamięci się różnią, jest odmienny wpływ na obie z nich takich czynników jak: starzenie się, niektóre rodzaje urazów mózgu oraz określone zaburzenia psychiczne. W pamięci jawnej przechowujemy wspomnienia, które staramy się aktywnie zapamiętać i przywołać. Gdy na przykład uczysz się do egzaminu z chemii, wiedza, którą zdobywasz, stanie się częścią twojej pamięci jawnej. Posługując się analogią komputerową, informacje w LTM są zapisane na twardym dysku. Nie masz ich na pulpicie (w pamięci krótkotrwałej), ale możesz je przywołać, gdy tylko zechcesz, przynajmniej przez większość czasu.
Nie wszystkie wspomnienia w pamięci trwałej są silne. Niektóre można sobie przypomnieć tylko dzięki odpowiednim wskazówkom. Łatwo zapewne będzie ci odpowiedzieć na pytanie: „Które miasto jest stolicą Polski?”, ale trudniej przywołać z pamięci nazwę restauracji, w której jedliście obiad podczas zeszłorocznych wakacji w Grecji. Łatwiej ci będzie przypomnieć ją sobie dzięki wskazówce, np. że nazwa pochodzi od nazwiska właściciela, z którym rozmawialiście o piłce nożnej, bo odkryliście, że to wasza wspólna pasja. Pamięć jawna jest czasami określana jako deklaratywna, gdyż zawarte w niej informacje mogą być ujęte w słowach. Pamięć jawna dzieli się na pamięć epizodyczną i semantyczną.
Pamięć epizodyczna (ang. ) jest rodzajem pamięci deklaratywnej, która gromadzi informacje o tym, czego doświadczyliśmy osobiście, tzw. epizody. Może to być na przykład wspomnienie twoich ostatnich urodzin. Zwykle wspomnienia epizodyczne mają charakter narracji, opowiadania. Pojęcie pamięci epizodycznej po raz pierwszy zaproponowano w latach 70. XX wieku (Tulving, 1972). Od tamtej pory Endel Tulving (ur. 1927) i inni badacze pod wpływem dowodów naukowych przeformułowali swoją teorię. Obecnie uważają, że pamięć epizodyczna dotyczy tego, co zdarzyło się w określonym miejscu i czasie; obejmuje co, gdzie i kiedy każdego zapamiętanego zdarzenia (Tulving, 2002). Zawiera nie tylko wspomnienie wizualne, lecz także poczucie, że znamy to, co pamiętamy (Hassabis i Maguire, 2007). Ponadto pamięć epizodyczną cechuje poczucie subiektywnego czasu, świadomość autonoetyczna i odniesienie do Ja. Występuje, zdaniem Tulvinga, tylko u ludzi i pojawia się w rozwoju ontogenetycznym później niż pamięć semantyczna. Pamięć semantyczna (ang. ) to wiedza na temat słów, pojęć i tych wszystkich faktów, które są oparte na wiedzy językowej. Na ogół informacje z tej pamięci są odtwarzane jako fakty. Semantyczna oznacza mająca związek z językiem i wiedzą na temat języka. Na przykład odpowiedzi na takie pytania jak „czym jest psychologia” czy „na jakim kontynencie leży Polska” są przechowywane w pamięci semantycznej. Przypomnieć jednak należy, jak wspomniano wcześniej, że wiedza semantyczna dotyczy wszelkich treści, którym możemy nadać znaczenie, czyli nie jest ograniczona do języka.
Pamięć utajona z kolei przechowuje wspomnienia będące poza świadomością. Chociaż wspomnienia te są nabywane bez naszej wiedzy i nie jesteśmy w stanie świadomie ich odtworzyć, fakt ich przechowywania ujawnia się w wykonaniu niektórych zadań (Roediger, 1990; Schacter, 1987). Do badania pamięci utajonej wykorzystuje się zadania stawiające wysokie wymagania poznawcze, jak uczenie się sztucznej gramatyki (Reber, 1976), pamiętanie słów (Jacoby, 1983; Jacoby i Witherspoon, 1982) oraz uczenie się ukrytych zależności czy zasad (Greenspoon, 1955; Giddan i Eriksen, 1959; Krieckhaus i Eriksen, 1960). Wracając do metafory komputerowej, pamięć utajona przypomina programy działające w tle, których wpływu nie jesteśmy świadomi. Pamięć utajona może ujawniać się zarówno w obserwowalnych zachowaniach, jak i w wykonywaniu zadań poznawczych, jednak nie można jej wyrazić słowami. Wyróżnia się kilka rodzajów pamięci utajonej, w tym proceduralną, torowanie i warunkowanie emocjonalne. Większość autorów prac z zakresu psychologii pamięci za Larrym Squire'em (ur. 1941) uznaje, że szerszym pojęciem jest pamięć niedeklaratywna, obejmująca wymienione powyżej rodzaje pamięci, w tym pamięć utajoną.
Pamięć proceduralna (ang. ) jest często badana za pomocą obserwowalnych zachowań (Adams, 1957; Lacey i Smith,1954; Lazarus i McCleary, 1951). Przechowuje ona informacje o tym, jak wykonywać określone czynności i wiedzę na temat umiejętności, jak mycie zębów, jazda na rowerze czy prowadzenie samochodu. Na pewno pierwsze próby jazdy na rowerze czy prowadzenia samochodu nie były zbyt udane, ale po roku ćwiczenia każdy z nas był w tym znacznie lepszy. Skuteczniejsza jazda na rowerze wynikała z nauczenia się utrzymywania równowagi. Na początku myśli się o trzymaniu prosto, ale po nabyciu wprawy po prostu się to czyni. Co więcej, potrafisz utrzymać równowagę, ale trudno byłoby opisać słowami, jak to robisz. Podobnie dzieje się w trakcie nauki prowadzenia samochodu. Początkowo trzeba stale świadomie myśleć o wielu czynnościach, natomiast później wykonywane są one automatycznie. Często w początkowych etapach uczenia się umiejętności potrzebujemy wskazówek słownych podawanych przez inne osoby. Jednak rezultatem dalszego ćwiczenia jest wiedza przechowywana w pamięci utajonej.
Innym rodzajem pamięci utajonej jest utajone torowanie (Schacter, 1992). W torowaniu ekspozycja na jakiś bodziec wpływa na sposób reagowania na inny bodziec. Bodźcami mogą być słowa czy obrazy, stosowane w celu wywołania określonej reakcji lub wspomożenia rozpoznawania. Na przykład niektórzy ludzie lubią pikniki, wyjazd na łono natury, rozkładanie obrusu na trawie i spożywanie pysznych kanapek.
A teraz popatrz na poniższe litery i ułóż z nich słowo.
Jakie słowo udało się ułożyć? Jest prawdopodobne, że „masło”.
Po przeczytaniu takiego tekstu: „Niektórzy ludzie lubią prace ogrodowe. Jesienią grabią liście i opatulają krzaki na zimę”, zapewne tym słowem byłaby „słoma”, a nie masło.
Czy pamiętasz wcześniejszą dyskusję na temat sieci semantycznych? Ludziom łatwiej przychodzi do głowy słowo „masło” po przeczytaniu o pikniku, gdyż masło jest skojarzone z kanapkami i piknikiem. „Masło” podległo torowaniu dzięki aktywizacji sieci semantycznej. Analogicznie słowo „słoma” podległo torowaniu przez ogród. Torowanie odpowiada także za to, że na słowo „dżem truskawkowy” prawdopodobnie powiesz „bułka”.
Utajone warunkowanie emocjonalne stanowi rodzaj pamięci zaangażowany w reakcje emocjonalne warunkowane za pomocą warunkowania klasycznego (Olson i Fazio, 2001). Takie skojarzenia emocjonalne nie mogą być świadomie opisane ani przywołane, ale mogą być powiązane z różnymi bodźcami. Na przykład specyficzne zapachy potrafią wywołać u niektórych osób jakąś reakcję emocjonalną. Jeśli jakiś zapach wywołuje u ciebie dobry lub zły nastrój, a nie wiesz, dlaczego tak się dzieje, jest to utajona reakcja emocjonalna. Podobnie wiele osób reaguje na jakąś konkretną piosenkę w sposób emocjonalny. Także w tym przypadku mamy do czynienia z utajoną reakcją emocjonalną (Yang, Xu, Du, Shi, Fang, 2011).
### Wydobywanie
Sporo wysiłku kosztowało cię zakodowanie (dzięki przetwarzaniu kontrolowanemu) i przechowanie ważnych informacji do zbliżającego się egzaminu. Jak je wydobyć z magazynu, gdy będą potrzebne? Proces pobierania informacji z magazynu pamięci i uświadamiania ich sobie znany jest pod nazwą wydobywania (ang. ). Nieco przypomina otwieranie dokumentu, który został przez ciebie wcześniej zapisany na twardym dysku. Z powrotem masz go na pulpicie i możesz na nim pracować. Nasza zdolność do wydobywania informacji z magazynu pamięci długotrwałej jest kluczowa w codziennym funkcjonowaniu. Żeby wiedzieć, jak coś zrobić: od mycia zębów i czesania, przez dojazd do pracy, po wiedzę, jak robić to, co robisz w pracy, gdy już do niej dojedziesz – musisz umieć wydobywać informacje zapisane w pamięci.
Istnieją trzy sposoby odzyskiwania informacji z magazynu pamięci długotrwałej: odtwarzanie (reprodukcja), rozpoznawanie i ponowne uczenie się. O odtwarzaniu myślimy najczęściej, gdy mówimy o odzyskiwaniu informacji; oznacza ono, że umiemy informację wydobyć bez podpowiedzi. Odtwarzanie (ang. ) wykorzystujesz, np. pisząc esej na egzaminie. Rozpoznawanie (ang. ) to identyfikacja wcześniej zapamiętanej informacji po jej ponownym napotkaniu. Zdolność ta obejmuje proces porównywania. W teście wielokrotnego wyboru właściwą odpowiedź często możesz odnaleźć, właśnie posługując się metodą rozpoznawania. Przykład? Powiedzmy, że wracasz do rodzinnego miasta po 10 latach od ukończenia podstawówki na zjazd absolwentów. Pewnie nie rozpoznasz wszystkich kolegów i koleżanek z klasy, ale wielu przypomnisz sobie, przeglądając album ze zdjęciami.
Trzecim sposobem odzyskiwania informacji jest, zgodnie z nazwą, powtórne uczenie się (ang. ). To przyswajanie informacji wcześniej już wyuczonej. Przykład? Katarzyna w szkole średniej uczyła się hiszpańskiego, ale później nie miała okazji, żeby posługiwać się tym językiem. Teraz ma 31 lat i pracodawca zaproponował jej pracę w filii w mieście Meksyk. Żeby się przygotować, poszła na kurs hiszpańskiego w lokalnym ośrodku kultury. Zdziwiła się, jak łatwo idzie jej nauka po 13 latach braku kontaktu z językiem. To właśnie przykład ponownego uczenia się.
### Podsumowanie
Pamięć to system lub proces magazynowania tego, czego się nauczyliśmy, aby mogło zostać wykorzystane w przyszłości. Ma ona trzy podstawowe funkcje: kodowanie, przechowywanie i wydobywanie informacji. Kodowanie to wprowadzenie informacji do układu pamięci w wyniku automatycznego lub kontrolowanego jej przetwarzania. Przechowywanie informacji to jej magazynowanie. Wydobywanie informacji z magazynu pamięci do świadomości może polegać na odtwarzaniu, rozpoznawaniu lub ponownym uczeniu się. Koncepcja, że informacja jest przetwarzana w trzech systemach pamięciowych, to model pamięci Atkinsona i Shiffrina. Najpierw bodźce z otoczenia docierają do rejestru sensorycznego, gdzie przebywają przez maksymalnie kilka sekund. Te z nich, które dostrzegamy i zwracamy na nie uwagę, przechodzą do pamięci krótkotrwałej. Zgodnie z tym modelem, jeśli będziemy daną informację powtarzać, to przejdzie ona do pamięci długotrwałej i będzie tam przechowywana bezterminowo. Inne modele pamięci, jak Baddeley'a i Hitcha, sugerują, że między pamięcią roboczą a długotrwałą istnieje rodzaj sprzężenia zwrotnego. Pamięć długotrwała ma praktycznie nieograniczoną pojemność. Dzieli się na pamięć utajoną i jawną.
### Pytania sprawdzające
### Critical Thinking Questions
### Personal Application Questions
|
# Pamięć
## Obszary mózgu zaangażowane w procesy pamięciowe
Czy wspomnienia są przechowywane tylko w jednym, konkretnym obszarze mózgu, czy też w wielu różnych obszarach? Karl Lashley (1890-1958) zaczął badać tę kwestię 100 lat temu. Uszkadzał mózgi szczurów i małp, aby znaleźć dowody na istnienie engramów (ang. ): grup neuronów stanowiących „fizyczną reprezentację pamięci” (Josselyn, 2010). Najpierw Lashley (1950) uczył szczury znajdowania wyjścia z labiryntu. Potem przy użyciu dostępnych wtedy narzędzi — a konkretnie lutownicy — uszkadzał im różne obszary kory mózgowej. Próbował w ten sposób wymazać engramy, oryginalne ślady pamięciowe, jakie miałyby powstawać u szczurów w trakcie uczenia się przemieszczania się w labiryncie. Lashley nie znalazł dowodów na istnienie engramów, a zwierzęta niezależnie od wielkości i umiejscowienia uszkodzenia znajdowały wyjście z labiryntu. Na podstawie wniosków z uszkadzania mózgu i reakcji szczurów naukowiec sformułował hipotezę ekwipotencjalności (ang. ): gdy część jakiegoś obszaru mózgu zaangażowanego w procesy pamięciowe zostanie uszkodzona, wówczas inne części tego samego obszaru mogą przejąć jej funkcje (Lashley, 1950). Choć wczesne prace Lashleya nie potwierdziły istnienia engramów, to współcześni psychologowie robią postępy w ich lokalizacji. Na przykład noblista Eric Kandel (ur. 1929) poświęcił dziesiątki lat na badania synapsy, podstawowej struktury mózgu, i jej roli w kontrolowaniu przepływu informacji przez obwody neuronalne niezbędne do przechowywania wspomnień (Mayford et al., 2012).
Liczni badacze twierdzą, że w procesy pamięciowe jest zaangażowany cały mózg. Ale od czasu prac Lashley'a innym badaczom udało się bardziej precyzyjnie określić związki między mózgiem i pamięcią. Uważają oni, że pamięć jest zlokalizowana w wybranych obszarach mózgowych i można wskazać, które konkretnie neurony są zaangażowane w tworzenie śladów pamięciowych. Kluczowe obszary biorące udział w procesach pamięciowych to: ciało migdałowate, hipokamp, móżdżek i kora przedczołowa ().
### Ciało migdałowate
Głównym zadaniem ciała migdałowatego (ang. ) jest regulacja emocji takich jak strach i agresja, które są wyzwalane przez hormony stresu. Jednocześnie ciało migdałowate bierze udział w przechowywaniu wspomnień. Połączenie obu funkcji tego obszaru mózgu sprawia, że sposób przechowywania wspomnień staje się zależny od hormonów stresu. Jedna z badaczek prowadziła badania nad reakcją strachu u szczurów (Josselyn, 2010). Wykorzystała ona warunkowanie klasyczne; połączyła neutralny dźwięk z rażeniem prądem, wywołując u szczurów reakcję strachu. Po uwarunkowaniu zwierzęta za każdym razem, kiedy słyszały dźwięk, zamierały w bezruchu (to u szczurów reakcja obronna, zwana też „zastyganiem”), co świadczyło o tym, że pamiętają doznane wstrząsy elektryczne. Następnie Josselyn wywołała śmierć komórek nerwowych w bocznej części ciał migdałowatych, obszarze odpowiedzialnym za wspomnienia strachu. Wykazała, że pamięć strachu zanikła (została wymazana). Ze względu na rolę w przetwarzaniu informacji nacechowanych emocjami ciało migdałowate jest też zaangażowane w konsolidację śladów pamięciowych – proces przenoszenia świeżo nabytej wiedzy do pamięci długotrwałej. Wydaje się, że ta część mózgu ułatwia kodowanie wspomnień na głębszym poziomie, jeśli są one zabarwione emocjonalnie.
### Hipokamp
Naukowcy pracowali także nad ustaleniem, jaką rolę w przetwarzaniu informacji odgrywa hipokamp (ang. ) (). Wykazali oni, że uszkodzenie tej części mózgu u szczurów wywołuje upośledzenie pamięci i uniemożliwia rozpoznawanie przedmiotów czy znalezienie wyjścia z labiryntu. Zdaniem badaczy hipokamp jest zaangażowany w procesy pamięciowe, ściśle rzecz biorąc – w wydobywanie wspomnień oraz w zadania przestrzenne (gdy trzeba przypomnieć sobie jakąś mapę umysłową) (Clark et al., 2000). Innym zadaniem hipokampu jest przekazywanie informacji do rejonów korowych, które nadają im znaczenie i łączą z już posiadanymi wspomnieniami. Ta struktura odgrywa też rolę w konsolidacji śladów pamięciowych – procesie przekazywania nowo zapamiętanych danych do pamięci długotrwałej.
Uszkodzenie hipokampu nie pozwala skutecznie przetwarzać nowych, deklaratywnych wspomnień. Pacjentowi znanemu przez lata tylko z inicjałów H. M. w wieku 27 lat (w roku 1953) usunięto oba płaty skroniowe (a więc i oba hipokampy), by opanować napady padaczkowe, na które od lat cierpiał (Corkin et al., 1997). W efekcie w znacznym stopniu uszkodzeniu uległa jego pamięć deklaratywna. Chory nie umiał tworzyć nowych wspomnień semantycznych, lecz zachował te, które nabył przed operacją. Pomimo tak poważnych problemów H. M. żył stosunkowo długo, gdyż zmarł w roku 2008. Więcej na temat H.M. można było przeczytać w podrozdziale Mózg i rdzeń kręgowy.
### Móżdżek i kora przedczołowa
Po utracie hipokampu można – dzięki móżdżkowi (ang. ) – wciąż tworzyć nowe wspomnienia niedeklaratywne (proceduralne, ruchowe i powstające drogą warunkowania klasycznego) (). W eksperymentach dotyczących warunkowania klasycznego często wykorzystuje się warunkowanie odruchu mrugania w reakcji na podmuch powietrza na gałkę oczną, zarówno u zwierząt, np. królików, jak i u ludzi. Gdy badacze uszkodzili królikom móżdżki, okazało się, że zwierzęta nie potrafiły nauczyć się mrugania w reakcji na podmuch w oko (Steinmetz, 1999; Green et al., 2000).
Inni naukowcy badali sposób przetwarzania i przechowywania informacji u ludzi, wykorzystując do tego neuroobrazowanie, w tym tomografię pozytonową (PET, ang. ). Z badań tych wynika, że pewną rolę odgrywa w tym przetwarzaniu kora przedczołowa. W jednym z eksperymentów badani mieli wykonać jedno z dwóch zadań: albo odnajdywać literę a w różnych słowach (co uznano za zadanie percepcyjne), albo dokonać rozróżnienia rzeczowników żywotnych i nieżywotnych (zadanie semantyczne) (Kapur et al., 1994). Potem badanych pytano, które słowa już wcześniej widzieli. Przypominanie szło o wiele lepiej w przypadku zadania semantycznego niż percepcyjnego. W badaniach PET stwierdzono, że w pierwszym rodzaju zadania pobudzenie lewej dolnej kory przedczołowej było o wiele silniejsze niż w drugim. W innej pracy kodowanie powiązano z aktywnością lewego rejonu czołowego, a odzyskiwanie informacji - z prawym rejonem czołowym (Craik et al., 1999).
### Neuroprzekaźniki
Wydaje się, że w pamiętanie zaangażowane są też swoiste neuroprzekaźniki, takie jak adrenalina, dopamina, serotonina, glutaminian i acetylocholina (Myhrer, 2003). Naukowcy wciąż spierają się, jaką rolę odgrywają poszczególne neuroprzekaźniki (ang. ) w procesach pamięciowych (Blockland, 1996). Choć nadal nie znamy odpowiedzi na to pytanie, to wiemy, że zależna od nich komunikacja między neuronami ma kluczowe znaczenie dla tworzenia nowych wspomnień. Cykliczna aktywność neuronów prowadzi do wzrostu liczby neuroprzekaźników w synapsach, jak również do zwiększenia liczby połączeń synaptycznych i ich efektywności. Tak zachodzi konsolidacja wspomnień.
Powszechny jest pogląd, że silne emocje pobudzają tworzenie trwałych wspomnień. Ten efekt nosi nazwę koncepcji pobudzenia emocjonalnego (ang. ) (Christianson, 1992). Silne uczucia mogą powodować uwalnianie neuroprzekaźników i hormonów, co wzmacnia wspomnienie; dlatego lepiej pamiętamy zdarzenia związane z silnymi emocjami niż te, które były dla nas obojętne. Pod wpływem stresu mózgi zwierząt i ludzi wydzielają więcej glutaminianu, a to pomaga w lepszym zapamiętaniu stresujących wydarzeń (McGaugh, 2003). Efekt ten znany jest pod nazwą „pamięć fleszowa”.
Pamięć fleszowa (ang. ) to niezwykle wyraźne pamiętanie ważnego zdarzenia (). Sondaż Pew Research Center z 2011 roku wykazał, że 10 lat po atakach terrorystycznych z 11 września 2001 roku aż 97% Amerykanów, którzy w dniu zamachów mieli więcej niż 8 lat, twierdziło, że dobrze pamięta, gdzie i kiedy dowiedzieli się o tych tragicznych zdarzeniach. A czy ty pamiętasz moment, w którym dotarła do ciebie informacja o zamachu na prezydenta Gdańska, Pawła Adamowicza dokonanym 13 stycznia 2019 roku?
### Podsumowanie
Począwszy od Karla Lashley'a, badacze i psychologowie poszukiwali engramów – fizycznych śladów pamięciowych. Lashley ich nie znalazł, ale zasugerował, że wspomnienia są rozmieszczone w całym mózgu, a nie gromadzone w konkretnych obszarach. Dziś wiemy, że szczególną rolę w przetwarzaniu i przechowywaniu różnych typów wspomnień odgrywają trzy obszary: móżdżek, hipokamp i ciało migdałowate. Rolą móżdżku jest przetwarzanie śladów proceduralnych, hipokamp to miejsce, gdzie kodowane są nowe informacje, a ciało migdałowate pomaga określić, które wspomnienia zachować i gdzie je umieścić w zależności od tego, czy niosą ze sobą silny, czy niewielki ładunek emocjonalny. Zdarzenia o dużym ładunku emocjonalnym mogą uwalniać neuroprzekaźniki i hormony wzmacniające wspomnienia, dlatego lepiej pamiętamy zdarzenia, którym towarzyszyły emocje niż ubogie w nie. Dowodem na to są tzw. wspomnienia fleszowe: nasza zdolność do pamiętania ważnych dla nas zdarzeń. Jednak nawet w przypadku zdarzeń, które osobiście przeżyliśmy, pamięć autobiograficzna nie zawsze jest dokładna.
### Review Questions
### Critical Thinking Questions
### Personal Application Questions
|
# Pamięć
## Kłopoty z pamięcią
Możesz zachwycać się swoją umiejętnością zapamiętywania dat urodzin i wieku wszystkich przyjaciół oraz członków rodziny albo tym, że potrafisz przywołać z pamięci szczegóły przyjęcia w McDonaldzie, jakie wyprawiono ci na piąte urodziny. Wszyscy jednak czasem odczuwamy frustrację, a bywa, że zażenowanie, gdy pamięć nas zawodzi. W tym podrozdziale skupimy się na mechanizmach zapominania. Rozpoczniemy od bardzo poważnych zaburzeń pamięci, amnezji, które jednak, na szczęście, nie dotykają większości ludzi.
### Amnezja
Amnezja (ang. ) (inaczej: niepamięć) oznacza utratę pamięci długotrwałej. Może być efektem choroby, urazu fizycznego albo psychicznego. Endel Tulving (2002) razem ze współpracownikami z University of Toronto przez wiele lat badał pacjenta K. C., u którego ciężka amnezja była skutkiem urazu głowy doznanego w wypadku samochodowym. Tulving pisał:
### Amnezja następcza
Istnieją dwa główne typy amnezji: następcza i wsteczna (). Amnezja następcza często stanowi konsekwencję urazu mózgu, np. spowodowanego uderzeniem w głowę, interwencją chirurgiczną, lub uszkodzenia mózgu w procesie chorobowym. W przypadku amnezji następczej (ang. ) chory nie jest w stanie zapamiętywać nowych informacji, choć pamięta dane i zdarzenia sprzed urazu. Ten typ zazwyczaj wiąże się z uszkodzeniem hipokampu (McLeod, 2011). Wskazuje to, że uraz mózgu uniemożliwia przesyłanie informacji z pamięci krótkotrwałej do pamięci długotrwałej, czyli nie dochodzi do konsolidacji śladów pamięciowych.
Wiele osób cierpiących na ten rodzaj niepamięci nie potrafi tworzyć nowych wspomnień epizodycznych ani semantycznych, ale wciąż potrafi budować wspomnienia proceduralne (Bayley i Squire, 2002). Tak było w przypadku omawianego wcześniej pacjenta H. M. Uszkodzenie mózgu w wyniku zabiegu chirurgicznego wywołało amnezję następczą. H. M. mógł np. czytać wciąż to samo czasopismo i nie pamiętać, że czytał je kiedykolwiek wcześniej; za każdym razem było dla niego nowe. Nie pamiętał też osób, które poznał po operacji. Gdyby przedstawiono cię temu pacjentowi, a potem na kilka minut wywołano z pokoju, to po powrocie H. M. nie pamiętałby cię. Kiedy jednak przez kilka dni kładziono przed nim te same puzzle, to choć nie pamiętał, że wcześniej je układał, w kolejnych dniach robił to coraz szybciej (zadziałał tu mechanizm powtórnego uczenia się) (Corkin, 1965, 1968).
### Amnezja wsteczna
Amnezja wsteczna (ang. ) oznacza utratę dostępu do wspomnień zdarzeń, które nastąpiły przed urazem fizycznym lub psychicznym. Osoby z tym rodzajem niepamięci nie potrafią sobie przypomnieć niektórych, a niekiedy nawet żadnych zdarzeń ze swojej przeszłości. Trudno im też przypomnieć sobie wspomnienia epizodyczne. Pomyśl, jakie byłyby twoje odczucia po obudzeniu się w szpitalu, a przy twoim łóżku stałyby osoby twierdzące, że są twoim mężem/twoją żoną, dziećmi albo rodzicami, a ty nie możesz tego skojarzyć? Jesteś po wypadku, w którym doszło do urazu głowy, i teraz cierpisz na amnezję wsteczną. Nie pamiętasz niczego sprzed tego wypadku, sprzed momentu obudzenia się w szpitalu. Taki opis może wyglądać jak scenariusz hollywoodzkiego filmu. Hollywood bowiem od ponad stu lat, od filmu Garden of Lies z 1915 roku aż po bliższe nam szpiegowskie thrillery o Jasonie Bournie, fascynuje się niepamięcią. Jednak rzeczywistość osób cierpiących na tę przypadłość jest daleka od wizji filmowych. Były gracz NFL Scott Bolzan (ur. 1962) upadł, uderzył się w głowę i w jednej chwili wymazaniu z jego pamięci uległo 46 lat życia. Stanowi on jeden z najbardziej skrajnych opisanych przypadków niepamięci wstecznej. Inny znany przypadek to Clive Wearing (ur. 1938), brytyjski muzyk, który doznał rozległej amnezji na skutek opryszczkowego zapalenia mózgu.
### Tworzenie i odtwarzanie wspomnień
Tworzenie nowych wspomnień określane jest czasem jako ich konstruowanie (ang. ) a proces ich przywoływania z zasobów pamięci – jako rekonstruowanie (ang. ). Tyle że odtwarzając wspomnienia, mamy tendencję do ich modyfikowania. Wyciągnięty z pamięci długotrwałej do roboczej ślad pamięciowy sprzed lat jest podatny na zmiany. W procesie wydobywania starych wspomnień i łączenia ich z późniejszymi to, co pamiętamy z przeszłości, może zostać rozszerzone o nowe zdarzenia lub zniekształcone. Dzieje się tak, mimo że ludzie zwykle nie zamierzają świadomie zniekształcać faktów (Roediger and DeSoto, 2015).
### Podatność na sugestię
Gdy ktoś jest świadkiem zbrodni, szczegóły, jakie zapamiętał, mogą być bardzo pomocne w ujęciu sprawcy. Świadkom łatwo jednak (nawet przypadkowo) ulec sugestii, bo ludzka pamięć jest ulotna. Podatność na sugestię (ang. ) określa sytuację, gdy nieprawdziwe informacje z zewnątrz sprawiają, że tworzymy fałszywe wspomnienia. Jesienią 2002 roku w okolicach Waszyngtonu snajper strzelał do ludzi będących na stacji benzynowej, wychodzących z hipermarketu czy po prostu idących ulicą. Do ataków dochodziło w różnych miejscach przez ponad trzy tygodnie, w sumie zginęło dziesięć osób. Można sobie wyobrazić, że przez cały ten czas ludzie w mieście byli przerażeni. Bali się wychodzić z domów, na zakupy czy nawet do sąsiadów. Policja i FBI intensywnie poszukiwały sprawcy. W tym celu założono specjalną infolinię. Stróże prawa otrzymali na nią ponad 140 tysięcy zgłoszeń, wytypowano ok. 35 tysięcy podejrzanych (Newseum, n.d.).
Większość zgłoszeń okazała się fałszywa. Za wartościową uznano dopiero informację, że na miejscu jednej ze strzelanin ktoś zauważył białego vana. Po konferencji prasowej zorganizowanej przez naczelnika policji na infolinię zadzwoniło kilku innych naocznych świadków, by powiedzieć, że oni też widzieli białego vana uciekającego z miejsca strzelaniny. W tym czasie i w tamtym rejonie znajdowało się ponad 70 tys. białych vanów. Policja i cała społeczność skupiły się wyłącznie na takich autach, ponieważ uwierzono relacjom naocznych świadków. Inne wskazówki zignorowano. Gdy w końcu ujęto podejrzanych, okazało się, że poruszali się oni niebieskim sedanem.
Ten przykład pokazuje, jak bardzo jesteśmy podatni na siłę sugestii pochodzącej np. z tego, co oglądamy w wiadomościach. Możemy też twierdzić, że pamiętamy coś, co zostało nam jedynie przez kogoś zasugerowane. To właśnie siła sugestii jest źródłem fałszywych wspomnień.
### Fałszywe zeznania naocznego świadka
Choć pamięć jest ulotna, a proces odzyskiwania wspomnień może prowadzić do zniekształceń, policjanci, prokuratorzy i sądy często w śledztwach i procesach polegają na zeznaniach naocznych świadków. Tymczasem fałszywa identyfikacja i takież zeznania mogą prowadzić do skazania niewinnej osoby ().
Jak dochodzi do takich sytuacji? W 1984 roku brutalnie zgwałcono 22-letnią Jennifer Thompson, studentkę z Karoliny Północnej, grożąc jej nożem. W trakcie gwałtu dziewczyna starała się zapamiętać każdy szczegół wyglądu twarzy i ciała napastnika, przyrzekłszy sobie, że jeśli przeżyje, doprowadzi do jego skazania. Policja sporządziła portret pamięciowy napastnika, a studentce pokazano sześć zdjęć. Wybrała dwa. Na jednym z nich był Ronald Cotton. Dziewczyna patrzyła na fotografię przez jakieś 5 minut, a potem powiedziała „Tak, to ten”, po czym dodała jeszcze „Myślę, że to ten facet”. Gdy prowadzący sprawę detektyw dopytywał, czy jest pewna, potwierdziła. Potem pytała policjanta, czy dobrze jej poszło, a on umocnił ją w tym przekonaniu, mówiąc, że świetnie się sprawiła. Ten rodzaj niezamierzonych wskazówek i sugestii, jakich mogą udzielać policjanci, potrafi sprawić, że naoczny świadek zidentyfikuje niewłaściwego podejrzanego. Prokurator okręgową zaniepokoił brak pewności ofiary przy pierwszym okazaniu, doprowadziła więc do kolejnego, w trakcie którego pokazano studentce siedmiu mężczyzn. Jennifer powiedziała, że waha się między numerem 4 a 5, ale w końcu zdecydowała, że to piątka - Ronald Cotton: „najbardziej go przypomina”. Chłopak miał wtedy 22 lata.
Do rozpoczęcia procesu dziewczyna była już absolutnie pewna, że została zgwałcona przez Ronalda Cottona. Zeznając przed sądem, była tak przekonująca, że jej zeznanie doprowadziło do skazania. Jak doszła od „Myślę, że to był ten facet” i „Najbardziej go przypomina” do takiej pewności? Gary Wells i Deah Quinlivan (2009) twierdzą, że to efekt sugestywności policyjnych procedur, takich jak ustawianie osób do identyfikacji w taki sposób, by podejrzany był bardziej z przodu niż inni, co sugeruje ofierze, kogo ma wybrać, i utwierdzanie jej w wyborze słowami „Dobry wybór” albo „Znalazłaś go”.
Po tym, jak Cotton został skazany za gwałt, trafił do więzienia z wyrokiem dożywocia plus 50 lat. Po 4 latach udało się wznowić proces. Jennifer Thompson ponownie zeznawała przeciw niemu i tym razem wyrok brzmiał: podwójne dożywocie. Po 11 latach w więzieniu test DNA wykazał w końcu, że to nie Cotton był gwałcicielem, że jest niewinny i że przez ponad 10 lat odsiadywał wyrok za zbrodnię, której nie popełnił.
Historia Ronalda Cottona nie jest, niestety, jedyną. Zdarza się, że oskarżony zostaje skazany na śmierć, a później oczyszczony z zarzutów. Projekt Niewinność to organizacja non-profit, która wspiera niesłusznie skazanych, w tym i takich, których skazano na podstawie zeznań naocznych świadków. Chcesz dowiedzieć się więcej? Odwiedź stronę http://www.innocenceproject.org.
### Efekt dezinformacji
Psycholog poznawcza Elizabeth Loftus (ur. 1944) prowadziła szeroko zakrojone badania nad pamięcią. Interesowały ją fałszywe wspomnienia, jak również odzyskane wspomnienia o molestowaniu w dzieciństwie. Loftus jest też odkrywczynią paradygmatu efektu dezinformacji (ang. ), zgodnie z którym ekspozycja na fałszywą informację może wywołać zakłócenia w prawidłowym odtwarzaniu wcześniej zapamiętanego zdarzenia.
Zdaniem Loftus w związku z efektem dezinformacji u naocznego świadka wspomnienie zdarzenia może się zmieniać. Żeby sprawdzić prawdziwość tej teorii, Loftus wraz z Johnem Palmerem (1974) poprosili 45 amerykańskich studentów o określenie szybkości samochodów uczestniczących w wypadku. Za każdym razem pytanie formułowano w inny sposób (). Uczestnikom pokazywano scenki wypadków samochodowych, kazano im odgrywać rolę naocznego świadka i opisywać, co się stało. Pytano ich: „Jak szybko jechały samochody zanim uległy zmiażdżeniu / stuknięciu w siebie / wpadły na siebie / walnęły się / miały stłuczkę?”. Okazało się, że uczestnicy odmiennie oceniali szybkość samochodów zależnie od tego, jakim słowem opisano zdarzenie.
Ci, którym powiedziano, że auta roztrzaskały się, oceniali ich prędkość na o wiele wyższą niż ci, którzy dostali informację, że samochody miały stłuczkę. Pośrednia informacja o prędkości, wynikająca z podanego słowa, miała więc wpływ na to, jak uczestnicy zapamiętywali wypadek. Po tygodniu byli pytani, czy widzieli rozbite szkło (na oryginalnych filmach niczego takiego nie było). I znów ci, którym podano słowo „zmiażdżone”, ponad dwa razy częściej informowali, że pamiętają rozbite szkło. Loftus i Palmer wykazali w ten sposób, że pytanie sugerujące nie tylko każe im oceniać prędkość aut jako większą, ale nawet sprawia, że widzą rozbite szkło, którego nie było.
### Kontrowersje wokół odzyskiwania tłumionych wspomnień
Badacze opisali również, jak można „przypomnieć” sobie wspomnienia nie tylko pojedynczych słów, lecz także całych wydarzeń, które w rzeczywistości wcale nie miały miejsca. Z tym zagadnieniem wiąże się zjawisko wypierania traumatycznych zdarzeń. Zjawisko to jest głównym tematem dziedziny psychologii zapoczątkowanej przez Zygmunta Freuda (1856-1939), a otaczające go kontrowersje są żywe do dziś.
Wydobywanie nieprawdziwych wspomnień jest określane jako syndrom fałszywych wspomnień autobiograficznych (ang. ), szeroko opisywany w mediach, przede wszystkim dlatego, że dotyczy wspomnień zdarzeń, przy których nie było niezależnych świadków. Często jedynymi osobami, które wiedzą o danym zdarzeniu, są sprawca i ofiara, dzieje się tak np. w przypadku wykorzystywania seksualnego.
W dyskusji na ten temat po jednej stronie stoją ci, którzy po latach od molestowania odzyskali wspomnienia. Badacze twierdzą, że niektóre przeżycia z dzieciństwa są tak traumatyczne i dręczące, że dziecko musi je zamknąć z dala od świadomości, by móc wieść w miarę normalne życie. Uważają, że tłumione wspomnienia mogą pozostawać w uśpieniu nawet dziesiątki lat, a potem zostać wydobyte w idealnym stanie, np. dzięki hipnozie czy technikom wspomaganej wizualizacji (Devilly, 2007).
Z badań wynika, że wyparcie wspomnień o byciu wykorzystywanym w dzieciństwie jest u dorosłych całkiem powszechne. Jedno z dużych badań prowadzone przez Johna Briere'ego i Jona Conte'ego (1993) ujawniło, że 59% z 450 mężczyzn i kobiet, którzy wymagali terapii z powodu molestowania ich przed 18. rokiem życia, zapomniało o tych przeżyciach.
Ross Cheit (2007) zasugerował, że wyparcie tych wspomnień stanowi przyczynę psychologicznych napięć w życiu dorosłym. Dlatego właśnie, z myślą o ofiarach seksualnego wykorzystywania w dzieciństwie, powołano Recovered Memory Project. Jego celem jest pomoc pokrzywdzonym w przypomnieniu sobie traumatycznych zdarzeń, by można było rozpocząć proces zabliźniania ran psychicznych (Cheit, 2007; Devilly, 2007).
Z drugiej strony inni badacze, np. wspomniana już Elizabeth Loftus, podważają tezę, że jednostki mogą wyprzeć traumatyczne wspomnienia z dzieciństwa, w tym wykorzystywania seksualnego, a potem przypominać sobie te zdarzenia dzięki hipnozie, technikom wspomaganej wizualizacji czy regresji wiekowej.
Loftus nie twierdzi, że wykorzystywanie seksualne się nie zdarza; kwestionuje jednak dokładność takich wspomnień i podchodzi sceptycznie do procesu zadawania pytań stosowanych w celu ich wydobycia, gdyż nawet najmniejsza sugestia ze strony terapeuty może wywołać efekt dezinformacji. Naukowcy Stephen Ceci i Maggie Brucks (1993, 1995) prosili trzylatki, by wykorzystując anatomicznie dokładne lalki, pokazały, gdzie dotykał ich lekarz pediatra podczas ostatniego badania. 55% dzieci wskazało na genitalia / okolice odbytu lalki, nawet jeśli lekarz nie badał tamtych okolic.
Od czasu, gdy w latach 70. Loftus opublikowała pierwsze badania na temat wpływu sugestii na zeznania naocznych świadków, socjologowie, policjanci, terapeuci i prawnicy zdają sobie sprawę z błędów popełnianych w trakcie przesłuchań. W efekcie podjęto kroki, by zmniejszyć wpływ sugestii na świadków. Jednym z nich jest zmiana sposobu zadawania pytań. Gdy przesłuchujący używają neutralnego, mniej sugerującego języka, dzieci dokładniej przypominają sobie, co się stało i kto brał w tym udział (Goodman, 2006; Pipe, 1996; Pipe et al., 2004). Kolejną zmianą jest modyfikacja prowadzenia okazań. Zaleca się, by osoba pokazująca zdjęcia potencjalnych przestępców nie wiedziała, który z nich jest podejrzanym. W ten sposób zmniejsza się ryzyko, że nieświadomie zasugeruje się coś świadkowi. Do tego w niektórych stanach USA sędziowie informują obecnie członków ławy przysięgłych o możliwości mylnej identyfikacji podejrzanego. A wszędzie na świecie sędziowie mogą odrzucić zeznanie naocznego świadka, jeśli uznają je za niewiarygodne.
### Zapominanie
„Mam świetną pamięć do zapominania” - żartował dziewiętnastowieczny szkocki powieściopisarz Robert Louis Stevenson. Termin zapominanie (ang. ) oznacza utratę informacji zapisanej kiedyś w pamięci trwałej. Wszyscy czasem zapominamy: datę urodzin ukochanej osoby, czyjeś imię albo gdzie położyliśmy kluczyki od samochodu. Wiesz już, że pamięć jest ulotna, a zapominanie bywa powodem frustracji i zażenowania. Jednak właściwie dlaczego zapominamy? Żeby odpowiedzieć na to pytanie, przyjrzymy się temu zjawisku bliżej i z różnych perspektyw.
### Błąd kodowania
Czasem zapominanie zaczyna się jeszcze przed uruchomieniem procesu zapamiętywania. Nazywamy to błędem kodowania. Nie można przecież pamiętać czegoś, czego nigdy nie wprowadziliśmy do zasobów pamięci. To trochę jak próba odnalezienia w czytniku książki, której nigdy tam nie załadowaliśmy. Często, by coś zapamiętać, musimy zwracać uwagę na szczegóły i aktywnie skupiać się na przetwarzaniu informacji (kodowanie kontrolowane). W wielu przypadkach tego nie robimy. Każdy Amerykanin wielokrotnie widział monetę o nominale 10 centów. Czy jednak potrafi precyzyjnie odtworzyć wygląd awersu? Gdy to pytanie zadali Raymond Nickerson i Marilyn Adams (1979), odkryli, że większość Amerykanów nie umie wskazać właściwej monety. To najprawdopodobniej efekt błędu kodowania. Większość nigdy nie zadała sobie trudu, by zapamiętać szczegóły tej monety. Na co dzień wystarcza przecież zapamiętanie cech pozwalających odróżnić ją od innych nominałów. Jeśli nie zakodujemy jakiejś informacji, nie może ona trafić do pamięci długotrwałej, a zatem nie możemy jej sobie potem przypomnieć.
### Błędy pamięci
Psycholog Daniel Schacter (2001), znany badacz pamięci, przedstawił siedem sposobów, na to, że nasza pamięć może nas zwieść. Nazwał je siedmioma grzechami pamięci (ang. ) i podzielił na trzy grupy: zapominanie, zniekształcanie i ingerencje ().
Spójrzmy na pierwszy z grzechów pamięci: nietrwałość (ang. ), czyli fakt, że wspomnienia z czasem bledną w naszym umyśle. Przykład? Nauczyciel zadał uczniom przeczytanie Ferdydurke. Sebastian wrócił do domu i powiedział mamie, że musi przeczytać tę lekturę. „Och, uwielbiałam ją!” – zawołała mama. Chłopiec zapytał ją więc, o czym opowiada powieść. Po chwili wahania kobieta powiedziała „Hm, pamiętam, że czytałam ją w liceum i że główny bohater miał na imię Józio, i że jego nauczycielem był profesor Pimko, ale – szczerze mówiąc – niewiele więcej”. Nathan zastanawiał się, czy jego mama naprawdę przeczytała tę książkę, a ona sama była zdziwiona, że tak niewiele z niej pamięta. To, co się stało, to rozpad śladów pamięciowych; nieużywane informacje z czasem bledną i znikają.
W 1885 roku niemiecki psycholog Hermann Ebbinghaus (1850-1909) przeanalizował na sobie proces zapamiętywania. Najpierw starał się zapamiętać zestawy bezsensownych sylab. Potem sprawdzał, ile zapamiętał (ile pozostało w jego pamięci), gdy próbował ponownie nauczyć się tego samego zestawu. Testy przeprowadzał w różnych odstępach czasowych: od 20 minut po 30 dni od pierwszego zapamiętania. Efektem badań jest słynna krzywa zapominania (). Z powodu błędów przechowywania przeciętny człowiek po 20 minutach traci połowę z zapamiętanych informacji, a po 4 godzinach – aż 70% (Ebbinghaus, 1885/1964). Pamięć świeżych zdarzeń słabnie szybko, ale potem jej poziom się stabilizuje. Chociaż pierwotne badanie Ebbinghausa obejmowało tylko jednego badanego, zostało przeprowadzone z wielkim rygoryzmem metodologicznym, a niezliczone późniejsze replikacje potwierdziły sformułowane przez niego wnioski.
Wciąż gubisz telefon? Zdarzyło ci się wracać do domu, by sprawdzić, czy na pewno kuchenka jest wyłączona lub wtyczka od żelazka wyjęta z kontaktu? A może czasami uświadamiasz sobie w pół drogi do pokoju, że właściwie nie pamiętasz, po co tam idziesz? Większość z nas odpowiedziałaby pozytywnie przynajmniej na jedno z tych pytań, a wielu – na wszystkie. Nie ma się jednak co martwić, to powszechna przypadłość. Każdy jest podatny na błąd zwany roztargnieniem (ang.). Te luki w pamięci wywołane są chwilowym brakiem skupienia lub tym, że w trakcie jakiejś czynności nasz umysł jest zajęty czymś innym.
Psycholożka Cynthia przypomina sobie, kiedy ostatnio popełniła grzech roztargnienia.
A kiedy tobie ostatnio zdarzyło się być roztargnionym?
„Poszliśmy na film Niepamięć, z tym słynnym aktorem... jak on się nazywa... Grał w tych wszystkich filmach... Skazani na Shawshank i trylogii Mroczny rycerz. Chyba nawet dostał Oscara. O kurczę, mam przed oczyma jego twarz, słyszę jego głos, ale nie mogę sobie przypomnieć nazwiska! Będzie mnie to teraz prześladować, dopóki sobie nie przypomnę!”. Ten błąd pamięci jest szczególnie frustrujący, bo informację mamy w zasadzie na końcu języka. Zdarzyło ci się tak kiedyś? Jeśli tak, to masz za sobą błąd zwany blokowaniem (ang. ): chwilowo nie masz dostępu do przechowywanej informacji ().
Teraz przyjrzyjmy się trzem błędom zniekształcania: błędnej atrybucji, podatności na sugestię i tendencyjności. Z błędną atrybucją (ang. ) mamy do czynienia, gdy mylimy się co do źródła zapamiętanych informacji. Powiedzmy, że Aleksander spotykał się z Łucją i razem obejrzeli pierwszy film z serii Hobbit. Potem się rozstali i Aleksander obejrzał drugi film z tej serii z kimś innym. A potem znów do siebie wrócili i któregoś dnia rozmawiali o tym, jak różni się książka od filmu. Aleksander powiedział do Łucji: „Fajnie mi się z tobą oglądało drugi film; pamiętam, jak podskoczyłaś na fotelu przy tej strasznej scenie”. Dopiero gdy Łucja popatrzyła na niego gniewnie i z zadziwieniem, Aleksander uświadomił sobie, że właśnie dokonał błędnej atrybucji.
A co, jeśli ktoś padł ofiarą gwałtu krótko po tym, jak oglądał program telewizyjny? Czy jest możliwe, żeby przez błędną atrybucję przypisał gwałt osobie, którą oglądał na ekranie? To właśnie przytrafiło się Donaldowi Thomsonowi (1901-1970).
Kolejnym błędem zniekształcania jest podatność na sugestię (ang. suggestibility). To błąd podobny do błędnej atrybucji; też obejmuje fałszywe wspomnienia, ale różni się od wyżej opisanego. W błędnej atrybucji sami tworzymy fałszywe wspomnienie, tak jak zrobiła to ofiara gwałtu w przypadku Thomsona. Sugestia wymaga, by fałszywe wspomnienie podał nam ktoś z zewnątrz, np. terapeuta albo policjant przesłuchujący nas w charakterze świadka i zadający naprowadzające pytania.
Wspomnienia mogą też ulec tendencyjności (ang. ). To ostatni z błędów zniekształcania. Schacter (2001) twierdzi, że emocje i pogląd na świat mogą zniekształcać wspomnienia przeszłych wydarzeń na kilka sposobów.
1.
2.
3.
Czy zdarzyło ci się kiedyś, że w głowie uporczywie wybrzmiewały ci dźwięki piosenki? Albo powracały w myślach wspomnienia wstrząsającego zdarzenia, o którym lepiej byłoby zapomnieć? Stan, gdy wspomnienie wciąż powraca i nie można go wyrzucić z głowy do tego stopnia, że nie da się skupić na niczym innym, określamy mianem uporczywości (ang. ). To siódmy i ostatni grzech pamięci wg Daniela Schactera (ur. 1952). Tak naprawdę to błąd naszej pamięci wyzwalający wspomnienia (szczególnie te przykre) bez naszej woli, a często wbrew niej (). Dzieje się tak, gdy np. w drodze do pracy jesteś świadkiem strasznego wypadku drogowego i potem nie możesz się skupić na pracy, bo cały czas przez głowę przelatują ci tamte dramatyczne sceny.
### Interferencja
Bywa, że informacja tkwi gdzieś w zasobach pamięci, ale z jakiegoś powodu nie mamy do niej dostępu. Taką sytuację nazywamy interferencją. Istnieją dwa jej typy: proaktywna i retroaktywna (). Zdarzyło ci się może zmienić numer telefonu albo przeprowadzić się pod nowy adres, ale jeszcze przez jakiś czas podawać ludziom stary (i już nieaktualny) numer lub adres, a na początku nowego roku nieświadomie wpisywać w dokumentach stary? To przykłady interferencji proaktywnej (ang. ): gdy stare informacje utrudniają przywołanie nowych, świeżo zapamiętanych. Z kolei interferencja retroaktywna (ang. ) zachodzi, gdy świeżo zakodowana informacja utrudnia przywołanie starszych wspomnień. Przykład? W tym tygodniu uczymy się o pamięci, w tym o mechanizmie wypierania niechcianych wspomnień według Freuda. W następnym zgłębiamy rozwój w biegu życia i teorię Eriksona rozwoju psychospołecznego. Efekt? W kolejnym tygodniu nie możemy przypomnieć sobie poglądów Freuda na temat zapominania, bo pamiętamy tylko teorię Eriksona.
### Podsumowanie
Każdy z nas bywa skonsternowany, sfrustrowany, a nawet zażenowany tym, że pamięć go zawodzi. Pamiętajmy, że jest ona elastyczna i podatna na błędy. To dlatego zeznania naocznych świadków są z reguły mało wiarygodne. Istnieje wiele przyczyn zapominania. Urazy głowy lub choroby mogą wywoływać bardzo poważne problemy z pamięcią: amnezję, której istotą jest zapominanie. Inna przyczyna to błąd kodowania informacji. Przecież nie można pamiętać czegoś, czego się nigdy nie włożyło do magazynu pamięci. Schacter opisał siedem grzechów pamięci, które odgrywają rolę w zapominaniu. Czasami informacje są kodowane, lecz nie możemy ich odzyskać z powodu interferencji. Z interferencją proaktywną mamy do czynienia, gdy starsze dane utrudniają przywołanie tych świeżo zapamiętanych. Retroaktywna zaś występuje, gdy świeższe wspomnienia utrudniają wydobycie tych dawniejszych.
### Review Questions
### Critical Thinking Questions
### Personal Application Questions
|
# Pamięć
## Sposoby na poprawę pamięci
Większości z nas zdarzają się problemy z pamięcią i prawie wszyscy chcielibyśmy ją usprawnić, żeby nigdy nie mieć wątpliwości, gdzie położyliśmy kluczyki od samochodu albo – co ważniejsze – zapamiętać cały materiał, z jakiego będziemy odpytywani na egzaminie. W tym podrozdziale przyjrzymy się niektórym metodom usprawniania pamięci i strategiom skuteczniejszego uczenia się.
### Strategie usprawniania pamięci
Jakie są proste sposoby na usprawnienie pamięci, w tym przywoływanie wspomnień? Żeby informacja nie zgubiła się w drodze z pamięci krótkotrwałej do magazynu pamięci długotrwałej, możesz zastosować jedną ze strategii zapamiętywania (ang. ). Taką jak powtarzanie (ang. ), czyli świadome powtarzanie danych, które chcemy zapamiętać (Craik i Watkins, 1973). Przypomnij sobie naukę tabliczki mnożenia z podstawówki: 6 · 6 = 36, 6 · 7 = 42, a 6 · 8 = 48. Zapamiętywanie takich faktów odbywa się właśnie przez powtarzanie.
Inną strategią jest grupowanie (ang. ), określane także jako porcjowanie, czyli organizowanie informacji w łatwiej przyswajalne fragmenty (Bodie et al., 2006). Grupowanie przydaje się, gdy chcemy zapamiętać takie informacje, jak daty i numery telefonów. Zamiast próbować zapamiętać 127555046, pamiętasz ten numer jako 12-755-50-46. Jeśli więc spotkasz na przyjęciu interesującą osobę i chcesz zapamiętać numer jej telefonu, naturalną rzeczą będzie podzielenie go na kawałki oraz powtarzanie ich w myślach, czyli zastosowanie strategii powtarzania.
Pamięć można także wzmacniać dzięki stosowaniu powtarzania opracowującego (ang. ): techniki, w której zapamiętując, myślisz o znaczeniu nowej informacji i próbujesz ją powiązać z tym, co już znasz i masz w magazynie pamięci (Tigner, 1999). Powtarzanie opracowujące obejmuje zarówno wiązanie zapamiętywanych danych z wiedzą przechowywaną w pamięci, jak i powtarzanie tych informacji. Wracając do naszego przykładowego numeru, możesz przywołać z pamięci, że 12 to kierunkowy do Krakowa i okolic, a osoba, której telefon próbujesz zapamiętać, jest właśnie z Krakowa. To pewnie sprawi, że lepiej zapamiętasz numer, a informacja przejdzie do magazynu pamięci długotrwałej.
Mnemotechniki (ang. ) to sposoby, dzięki którym łatwiej nam uporządkować informacje, które chcemy zakodować (). Szczególnie przydatne są, gdy pragniemy przywołać z pamięci duże pakiety danych: kroki, fazy, etapy czy części systemu (Bellezza, 1981). Bartek chce nauczyć się kolejności planet w Układzie Słonecznym, ale ma z tym problem. Jego przyjaciółka Kasia sugeruje mu mnemotechnikę: niech po prostu zapamięta obco brzmiące nazwisko: Mr. VEM J. SUN. Kolejne litery kryją nazwy planet (oczywiście po angielsku): Mercury, Venus, Earth, Mars, Jupiter, Saturn, Uranus i Neptune. Po polsku moglibyśmy użyć np. zdania-podpowiedzi: Marysia Woli Zjeść Marsa, Już Sobie Upatrzyła Nakrycie. Mnemotechniki pomagają zapamiętywać imiona, równania czy kolejność wykonywania działań matematycznych.
Przykład takiej mnemotechniki mogliśmy zobaczyć w serialu Współczesna rodzina. Phil Dunphy wyjaśnia tam, jak zapamiętuje nazwiska:
Wydaje się, że im bardziej aktywna lub niezwykła mnemotechnika, tym lepiej pomaga w zapamiętywaniu. Kluczowe jest znalezienie takiej, która sprawdzi się w twoim przypadku.
Strategie stosowane w celu usprawnienia pamięci obejmują także pisanie ekspresyjne i głośne wypowiadanie słów. Ta pierwsza metoda pomaga poszerzyć pamięć krótkotrwałą, szczególnie jeśli piszesz o traumatycznych wydarzeniach z własnego życia. Masao Yogo i Shuji Fujihara (2008) prosili badanych, by ci regularnie pisali w sesjach po 20 minut. Mieli opisywać jakieś traumatyczne wydarzenie, siebie w najlepszej możliwej przyszłości albo coś, co nie wzbudzało w nich głębszych uczuć. Badacze stwierdzili, że już po 5 tygodniach takie proste zadanie pisania poprawiało pojemność pamięci krótkotrwałej, ale tylko wtedy, gdy uczestnicy opisywali traumatyczne zdarzenia. Psychologowie nie wiedzą, dlaczego tak się dzieje, ale to działa.
A co, jeśli chcesz zapamiętać zwykłą listę zakupów? Po prostu powtórz ją na głos. W serii badań (MacLeod et al., 2010) wykazano, że głośne wypowiadanie słowa poprawia jego zapamiętywanie, ponieważ zwiększa jego rozróżnialność (dystynktywność). Mówienie na głos nazw przypadkowych rzeczy do kupienia brzmi głupio? Ta mnemotechnika działa nawet wtedy, kiedy tylko bezdźwięcznie poruszasz ustami. Wśród badanych stosujących tę metodę zapamiętywanie słów poprawiało się o ponad 10%. Zastosuj te techniki, ucząc się do egzaminu.
### Jak uczyć się skutecznie?
Oto kilka strategii i sugestii, które mogą pomóc ci udoskonalić proces uczenia się (). Kluczem jest wybranie tej strategii, która najlepiej sprawdzi się w twoim przypadku.
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
Najpierw matematyczny asie,
wykonuj działania w nawiasie.
Następnie dziel i mnóż,
a wynik jest tuż-tuż.
Na koniec dodawaj i odejmuj,
i o wynik się nie przejmuj.
### Podsumowanie
Jest wiele sposobów walki z nieuchronnymi potknięciami naszej pamięci. Niektóre, jak mnemotechniki, utrwalanie, odniesienie do Ja i wysypianie się, można stosować w codziennych sytuacjach. Pomogą ci też skuteczniej się uczyć.
### Review Questions
### Critical Thinking Questions
### Personal Application Questions
|
# Psychologia rozwojowa
## Wprowadzenie
Oto historia twojego życia. Ten rozdział możesz potraktować jako fascynującą opowieść o twoim wzrastaniu i rozwoju, które sprawiły, że jesteś właśnie taką a nie inną osobą. Pochylimy się również nad tym, co cię jeszcze czeka. To historia twojego rozwoju () od narodzin aż do śmierci.
W niemowlęctwie i wczesnym dzieciństwie wzrastanie i rozwój uznajemy za oczywistość, lecz rozwój każdego z nas trwa nieprzerwanie, minuta po minucie, do końca życia. To, kim jesteśmy dziś, i to, kim będziemy w przyszłości, zależy od połączenia uwarunkowań genetycznych, wpływu środowiska, kultury, relacji osobistych i wielu innych czynników, które oddziałują na każdym etapie życia. Większość tego, o czym powiemy w tym rozdziale, może dotyczyć także twojego życia. Dowiemy się, w jaki sposób rozwój fizyczny, poznawczy, społeczny i psychiczny opisuje psychologia.
### References
Ainsworth, M. D. S., & Bell, S. M. (1970). Attachment, exploration, and separation: Illustrated by the behavior of one-year-olds in a strange situation. Child Development, 41, 49–67.
Ainsworth, M. D. S., Blehar, M. C., Waters, E., & Wall, S. (1978). Patterns of attachment: A psychological study of the strange situation. Hillsdale, NJ: Erlbaum.
American Academy of Pediatrics. (2007). The importance of play in promoting healthy child development and maintaining strong parent-child bonds. Pediatrics, 199(1), 182–191.
American Psychological Association. (2019). Ruth Howard, PhD. Retrieved from https://www.apa.org/pi/oema/resources/ethnicity-health/psychologists/ruth-howard
Amsterdam, B. (1972). Mirror image reactions before age two. Developmental Psychobiology, 5, 297–305.
Archer, J. (1992). Ethology and human development. New York, NY: Harvester Wheatsheaf.
Arnett, J. (2000). Emerging adulthood: A theory of development from the late teens through the twenties. American Psychologist, 55(5), 469–480.
Ashley, S. J., Magnuson, S. I., Omnell, L. M., & Clarren, S. K. (1999). Fetal alcohol syndrome: Changes in craniofacial form with age, cognition, and timing of ethanol exposure in the macaque. Teratology, 59(3), 163–172.
Bahr, S. J., & Hoffman, J. P. (2010). Parenting style, religiosity, peers, and adolescent heavy drinking. Journal of Studies on Alcohol and Drugs, 71, 539–543.
Baillargeon, R. (2004). Infants’ reasoning about hidden objects: Evidence for event-general and event-specific expectations. Developmental Science, 7(4), 391–424.
Baillargeon, R. (1987). Young infants' reasoning about the physical and spatial properties of a hidden object. Cognitive Development, 2(3), 179–200.
Baillargeon, R., Li, J., Gertner, Y., & Wu, D. (2011). How do infants reason about physical events. In: U. Goswami (Ed.),The Wiley-Blackwell handbook of childhood cognitive development(2nd ed., pp.11–48). Wiley‐Blackwell.
Barber, B. K. (1994). Cultural, family, and person contexts of parent-adolescent conflict. Journal of Marriage and the Family, 56, 375–386.
Basseches, M. (1984). Dialectical thinking as metasystematic form of cognitive organization. In: M. L. Commons, F. A. Richards, & C. Armon (Eds.), Beyond formal operations: Late adolescent and adult cognitive development (pp. 216–238). New York, NY: Praeger.
Baumrind, D. (1971). Current patterns of parental authority. Developmental Psychology, 4(1, Pt. 2), 1–103. doi:10.1037/h0030372.
Baumrind, D. (1991). The influence of parenting style on adolescent competence and substance use. Journal of Early Adolescence, 11(1), 56–95.
Bayley, N., & Oden, M. H. (1955). The maintenance of intellectual ability in gifted adults. Journal of Gerontology, 10, 91–107.
Bjorklund, D. F. (1987). A note on neonatal imitation. Developmental Review, 7, 86–92.
Blossom, M., & Morgan, J.L. (2006). Does the face say what the mouth says? A study of infants’ sensitivity to visual prosody. In: D. Bamman, T. Magnitskaia, & C. Zaller (Eds.),30th anuual Boston University conference on language development(pp. 24-35). Somerville, MA: Cascadilla Press.
Bogartz, R. S., Shinskey, J. L., & Schilling, T. (2000). Infancy, 1(4), 403–428.
Borkowska A.R., Domagalska Ł. (red.). (2008). Podstawy neuropsychologii klinicznej. Lublin: Wydawnictwo Uniwersytetu Marii Curie-Skłodowskiej.
Bowlby, J. (1969). Attachment and loss: Attachment (Vol. 1). New York, NY: Basic Books.
Bowlby, J. (1988). A secure base: Parent-child attachment and health human development. New York, NY: Basic Books.
Brumley, R., Enquidanos, S., Jamison, P., Seitz, R., Morgenstern, N., Saito, S., . . . Gonzalez, J. (2007). Increased satisfaction with care and lower costs: Results of a randomized trial of in-home palliative care. Journal of the American Geriatric Society, 55(7), 993–1000.
Brumley, R. D., Enquidanos, S., & Cherin, D. A. (2003). Effectiveness of a home-based palliative care program for end-of-life. Journal of Palliative Medicine, 6(5), 715–724.
Brzezińska A., Appelt K., Ziółkowska B. (2016). Psychologia rozwoju człowieka. Sopot: Gdańskie Wydawnictwo Psychologiczne
Callaghan, T. C., Rochat, P., Lillard, A., Claux, M.L., Odden, H., Itakura, S., . . . Singh, S. (2005). Synchrony in the onset of mental-state reasoning. Psychological Science, 16, 378–384.
Carel, J-C., Lahlou, N., Roger, M., & Chaussain, J. L. (2004). Precocious puberty and statural growth. Human Reproduction Update, 10(2), 135–147.
Carstensen, L. L. (1992). Social and emotional patterns in adulthood: Support for socioemotional selectivity. Psychology and Aging, 7(3), 331–338.
Case, R. (1985). Intellectual development: Birth to Adulthood. New York, NY: Academic.
Casey, B. J., Tottenham, N., Liston, C., & Durston, S. (2005). Imaging the developing brain: What have we learned about cognitive development? TRENDS in Cognitive Sciences, 19(3), 104–110.
Centers for Disease Control and Prevention. (2013). Smoking during pregnancy. Retrieved from http://www.cdc.gov/tobacco/basic_information/health_effects/pregnancy/.
Chick, K., Heilman-Houser, R., & Hunter, M. (2002). The impact of child care on gender role development and gender stereotypes. Early Childhood Education Journal, 29(3), 149–154.
Chomsky, N. (1957). Syntactic structures. The Hague, Netherlands: Mouton.
Cicirelli, V. G. (2002) Older adults' views on death, New York: Springer Publishing Company
Clements, R. (2004). An investigation of the status of outdoor play. Contemporary Issues in Early Childhood, 5(1), 68–80.
Commons, M. L., & Bresette, L. M. (2006). Illuminating major creative scientific innovators with postformal stages. In: C. Hoare (Ed.), Handbook of adult development and learning (pp. 255–280). New York, NY: Oxford University Press.
Connor, S. R., Pyenson, B., Fitch, K., Spence, C., & Iwasaki, K. (2007). Comparing hospice and nonhospice patient survival among patients who die within a three-year window. Journal of Pain and Symptom Management, 33(3), 238–246.
Cortright B. (2018). Neurogeneza - regeneracja mózgu. 4-stopniowy program eliminowania chorób neurodegeneracyjnych o naukowo potwierdzonej skuteczności. Białystok: Wydawnictwo Vital.
Courage, M. L., & Howe, M. L. (2002). From infant to child: The dynamics of cognitive change in the second year of life. Psychological Bulletin, 128, 250–277.
Curtiss, S. (1981). Dissociations between language and cognition: Cases and implications. Journal of Autism and Developmental Disorders, 11(1), 15–30.
Darling, N. (1999). Parenting style and its correlates. Retrieved from ERIC database (EDO-PS-99-3) http://ecap.crc.illinois.edu/eecearchive/digests/1999/darlin99.pdf.
de Hevia, M. D., & Spelke, E. S. (2010). Number-space mapping in human infants. Psychological Science, 21(5), 653–660.
Dennett, D. (1987). The intentional stance. Cambridge, MA: MIT Press.
Diamond, A. (2009). The interplay of biology and the environment broadly defined. Developmental Psychology, 45(1), 1–8.
Donenberg, G. R., Wilson, H. W., Emerson, E., Bryant, F. B. (2002). Holding the line with a watchful eye: The impact of perceived parental permissiveness and parental monitoring on risky sexual behavior among adolescents in psychiatric care. AIDS Education Prevention, 14(2), 138–157.
Dornbusch, S. M., Ritter, P. L., Leiderman, P. H., Roberts, D. F., & Fraleigh, M. J. (1987). The relation of parenting style to adolescent school performance. Child Development, 58(5), 1244–1257.
Duncan, G. J., & Magnuson, K. A. (2005). Can family socioeconomic resources account for racial and ethnic test score gaps? The Future of Children, 15(1), 35–54.
Engle, R.W., Sędek, G., Hecker von U., McIntosh, D. N. (2006) Ograniczenia poznawcze. Starzenie się i psychopatologia. Warszawa: PWN
Erikson, E. H. (1963). Childhood and Society (2nd ed.). New York, NY: Norton.
Erikson, E. H. (1968). Identity: Youth and crisis. New York, NY: Norton.
Ferrer, M., & Fugate, A. (2003). Helping your school-age child develop a healthy self-concept. Retrieved from http://edis.ifas.ufl.edu/fy570#FOOTNOTE_2
Figdor, E., & Kaeser, L. (1998). Concerns mount over punitive approaches to substance abuse among pregnant women. The Guttmacher Report on Public Policy 1(5), 3–5.
Fischer, K. W., Yan, Z., & Stewart, J. (2003). Adult cognitive development: Dynamics in the developmental web. In: J. Valsiner & K Connolly (Eds.), Handbook of developmental psychology (pp. 491–516). Thousand Oaks, CA: Sage Publications.
Flannery, D. J., Rowe, D. C., & Gulley, B. L. (1993). Impact of pubertal status, timing, and age on adolescent sexual experience and delinquency. Journal of Adolescent Research, 8, 21–40.
Freud, S. (1909). Analysis of a phobia in a five-year-old boy. In: Collected Papers: Volume 111, Case Histories (1949) (pp. 149–289). Hogarth Press: London.
Fromkin, V., Krashen, S., Curtiss, S., Rigler, D., & Rigler, M. (1974). The development of language in Genie: A case of language acquisition beyond the critical period. Brain and Language, 1, 81–107.
Galambos, N. L., & Almeida, D. M. (1992). Does parent-adolescent conflict increase in early adolescence? Journal of Marriage and the Family, 54, 737–747.
Ganger, J., & Brent, M.R. (2004). Reexamining the vocabulary spurt. Developmental Psychology, 40(4), 621–632.
Ge, X., Conger, R. D., & Elder, G. H. (2001). Pubertal transition, stressful life events, and the emergence of gender differences in adolescent depressive symptoms. Developmental Psychology, 37, 404–417.
Gervai, J. (2009). Environmental and genetic influences on early attachment. Child and Adolescent Psychiatry and Mental Health, 3, 25.
Gesell, A. (1933). Maturation and the patterning of behavior. In: C. Murchison (Ed.), A handbook of child psychology (2nd ed., pp. 209–235). Worcester, MA: Clark University Press.
Gesell, A. (1939). Biographies of child development. New York, NY: Paul B. Hoeber.
Gesell, A. (1940). The first five years of life. New York, NY: Harper.
Gesell, A., & Ilg, F. L. (1946). The child from five to ten. New York, NY: Harper.
Gilligan, C. (1982). In a different voice: Psychological theory and women's development. Cambridge, MA: Harvard University Press.
Gleitman, L.R., & Newport, E. L. (1995). The invention of language by children: Environmental and biological influences on the acquisition of language. In: D.N. Osherson , L.R. Gleitman, & M. Liberman (Eds.), An invitation to cognitive science: Language (pp. 1–24). Cambridge, MA: The MIT Press.
Gleitman, L. R., & Newport, E. L. (1995). The invention of language by children: Environmental and biological influences on the acquisition of language. In: L. R. Gleitman & M. Liberman (Eds.), An invitation to cognitive science, Vol. 1: Language. (2nd ed., pp. 1–24). Cambridge, MA: MIT Press.
Godkin, M., Krant, M., & Doster, N. (1984). The impact of hospice care on families. International Journal of Psychiatry in Medicine, 13, 153–165.
Graber, J. A., Lewinsohn, P. M., Seeley, J. R., & Brooks-Gunn, J. (1997). Is psychopathology associated with the timing of pubertal development? Journal of the Academy of Child and Adolescent Psychiatry, 36, 1768–1776.
Hair, E. C., Moore, K. A., Garrett, S. B., Kinukawa, A., Lippman, L., & Michelson, E. (2005). The parent-adolescent relationship scale. In: L. Lippman (Ed.), Conceptualizing and Measuring Indicators of Positive Development: What Do Children Need to Fluorish? (pp. 183–202). New York, NY: Kluwer Academic/Plenum Press.
Hall, S. S. (2004, May). The good egg. Discover, 30–39.
Hall, G. S. (1904). Adolescence. New York, NY: Appleton.
Harlow, H. (1958). The nature of love. American Psychologist, 13, 673–685.
Harris, J. R. (2009). The nurture assumption: Why children turn out the way they do (2nd ed.). New York, NY: Free Press.
Hart, B., & Risley, T. R. (2003). The early catastrophe: The 30 million word gap. American Educator, 27(1), 4–9.
Hatch, E. (1983). Psycholinguistics: A second language perspective. Rowley, MA: Newbury House.
Hertzog, C., Kramer, A. F., Wilson, R. S., & Lindenberger, U. (2009). Enrichment effects on adult cognitive development. Psychological Science in the Public Interest, 9(1), 1–65.
Hood, R. W., Jr., Spilka, B., Hunsberger, B., & Corsuch, R. (1996). The psychology of religion: An empirical approach (2nd ed.). New York, NY: Guilford.
Huebler, F. (2005, December 14). International education statistics [Web log post]. Retrieved from http://huebler.blogspot.com/2005/12/age-and-level-of-education-in-nigeria.html
Hutchinson, N. (2011). A geographically informed vision of skills development. Geographical Education, 24, 15.
Huttenlocher, P. R., & Dabholkar, A. S. (1997). Regional differences in synaptogenesis in human cerebral cortex. Journal of Comparative Neurology, 387(2), 167–178.
Iverson, J.M., & Goldin-Meadow, S. (2005). Gesture paves the way for language development. Psychological Science, 16(5), 367–71.
Iyengar, S. S., Wells, R. E., & Schwartz, B. (2006). Doing better but feeling worse: Looking for the best job undermines satisfaction. Psychological Science, 17, 143–150.
Jos, P. H., Marshall, M. F., & Perlmutter, M. (1995). The Charleston policy on cocaine use during pregnancy: A cautionary tale. The Journal of Law, Medicine & Ethics, 23(2), 120–128.
Kaczkowski J., Jabłońska K. (2017). Żyć aż do końca. Instrukcja obsługi choroby. Warszawa: Wydawnictwo Więź.
Kaczkowski J., Żyłka P. (2015). Życie na pełnej petardzie. Warszawa: Wydawnictwo WAM.
Kaltiala-Heino, R. A., Rimpela, M., Rissanen, A., & Rantanen, P. (2001). Early puberty and early sexual activity are associated with bulimic-type eating pathology in middle adolescence. Journal of Adolescent Health, 28, 346–352.
Kaplan, H., & Dove, H. (1987). Infant development among the Aché of Eastern Paraguay. Developmental Psychology, 23, 190–198.
Karasik, L. B., Adolph, K. E., Tamis-LeMonda, C. S., & Bornstein, M. H. (2010). WEIRD Walking: Cross-cultural research on motor development. Behavioral & Brain Sciences, 33(2-3), 95–96.
(Karney A., Oblacińska A., Kluba A., Świątkowska D. (2014). Otyłość u dzieci i młodzieży. Poradnik dla Rodziców. Warszawa: Instytut Matki i i Dziecka).
Karnik, S., & Kanekar, A. (2012). Childhood obesity: A global public health crisis. International Journal of Preventive Medicine, 3(1), 1–7.
Kohlberg, L. (1969). Stage and sequence: The cognitive-developmental approach to socialization. In: D. A. Goslin (Ed.), Handbook of socialization theory and research (p. 379). Chicago, IL: Rand McNally.
Kolb, B., & Whishaw, I. Q. (2009). Fundamentals of human neuropsychology. New York, NY: Worth.
Kübler-Ross, E. (1969). On death and dying. New York, NY: Macmillan.
Kurcz, I. (2000).Psychologia języka i komunikacji.Warszawa: Wydawnictwo Naukowe SCHOLAR
Labouvie-Vief, G., & Diehl, M. (1999). Self and personality development. In: J. C. Cavanaugh & S. K. Whitbourne (Eds.), Gerontology: An interdisciplinary perspective (pp. 238–268). New York, NY: Oxford University Press.
Larson, E. B., Wang, L., Bowen, J. D., McCormick, W. C., Teri, L., Crane, P., & Kukull, W. (2006). Exercise is associated with reduced risk for incident dementia among persons 65 years of age or older. Annals of Internal Medicine, 144, 73–81.
Lee, V. E., & Burkam, D. T. (2002). Inequality at the starting gate: Social background differences in achievement as children begin school. Washington, DC: Economic Policy Institute.
Lobo, I. (2008) Environmental influences on gene expression. Nature Education 1(1), 39.
Loop, E. (2013). Major milestones in cognitive development in early childhood. Retrieved from http://everydaylife.globalpost.com/major-milestones-cognitive-development-early-childhood-4625.html.
Maccoby, E. (1980). Social development: Psychological growth and the parent-child relationship. New York, NY: Harcourt Brace Jovanovich.
MacFarlane, A. (1978, February). What a baby knows. Human Nature, 74–81.
Maier, S. E., & West, J. R. (2001). Drinking patterns and alcohol-related birth defects. Alcohol Research & Health, 25(3), 168–174.
Main, M., & Solomon, J. (1990). Procedures for identifying infants as disorganized/disoriented during the Ainsworth Strange Situation. In: M. T. Greenberg, D. Cicchetti, & E. M. Cummings (Eds.), Attachment in the Preschool Years (pp. 121–160). Chicago, IL: University of Chicago Press.
Markus, H. R., Ryff, C. D., Curan, K., & Palmersheim, K. A. (2004). In their own words: Well-being at midlife among high school-educated and college-educated adults. In: O. G. Brim, C. D. Ryff, & R. C. Kessler (Eds.), How healthy are we? A national study of well-being at midlife (pp. 273–319). Chicago, IL: University of Chicago Press.
McIntosh, D. N., Silver, R. C., & Wortman, C. B. (1993). Religion’s role in adjustment to a negative life event: Coping with the loss of a child. Journal of Personality and Social Psychology, 65, 812–821.
McMillan, S. C., Small, B. J., Weitzner, M., Schonwetter, R., Tittle, M., Moody, L., & Haley, W. E. (2006). Impact of coping skills intervention with family caregivers of hospice patients with cancer. Cancer, 106(1), 214-222.
Miklikowska, M., Duriez, B., & Soenens, B. (2011). Family roots of empathy-related characteristics: The role of perceived maternal and paternal need support in adolescence. Developmental Psychology, 47(5), 1342–1352.
Mills, M., & Melhuish, E. (1974). Recognition of mother’s voice in early infancy. Nature, 252, 123–124.
Mohr, R. D., & Zoghi, C. (2006). Is job enrichment really enriching? (U.S. Bureau of Labor Statistics Working Paper 389). Washington, DC: U.S. Bureau of Labor Statistics. Retrieved from http://www.bls.gov/ore/pdf/ec060010.pdf.
Moore, K. A., Guzman, L., Hair, E. C., Lippman, L., & Garrett, S. B. (2004). Parent-teen relationships and interactions: Far more positive than not. Child Trends Research Brief, 2004-25. Washington, DC: Child Trends.
National Institutes of Health. (2013). What is prenatal care and why is it important? Retrieved from http://www.nichd.nih.gov/health/topics/pregnancy/conditioninfo/Pages/prenatal-care.aspx.
Nolen-Hoeksema, S., & Larson, J. (1999). Coping with loss. Mahweh, NJ: Erlbaum.
Oniszczenko, W. Dragan,Ł. W. (2008) Genetyka zachowania w psychologii i psychiatrii. Warszawa. Wydawnictwo Naukowe SCHOLAR
Ostaszewski K. (2016). Standardy profilaktyki. Warszawa: Krajowe Biuro ds. Przeciwdziałania Narkomanii.
Overman, W. H., Bachevalier, J., Turner, M., & Peuster, A. (1992). Object recognition versus object discrimination: Comparison between human infants and infant monkeys. Behavioral Neuroscience, 106, 15–29.
Paloutzian, R. F. (1996). Invitation to the psychology of religion. Boston, MA: Allyn & Bacon.
Parent, J., Forehand, R., Merchant, M. J., Edwards, M. C., Conners-Burrow, N. A., Long, N., & Jones, D. J. (2011). The relation of harsh and permissive discipline with child disruptive behaviors: Does child gender make a difference in an at-risk sample? Journal of Family Violence, 26, 527–533.
Piaget, J. (1954). The construction of reality in the child. New York: Basic Books.
Pickens, J. (1994). Full-term and preterm infants’ perception of face-voice synchrony. Infant Behavior and Development, 17, 447–455.
Piaget, J. (1930). The child’s conception of the world. New York, NY: Harcourt, Brace & World.
Piaget, J. (1932). The moral judgment of the child. New York, NY: Harcourt, Brace & World.
Podewils, L. J., Guallar, E., Kuller, L. H., Fried, L. P., Lopez, O. L., Carlson, M., & Lyketsos, C. G. (2005). Physical activity, APOE genotype, and dementia risk: Findings from the Cardiovascular Health Cognition Study. American Journal of Epidemiology, 161, 639–651.
Pollack, W., & Shuster, T. (2000). Real boys’ voices. New York, NY: Random House.
Rhodes, R. L., Mitchell, S. L., Miller, S. C., Connor, S. R., & Teno, J. M. (2008). Bereaved family members' evaluation of hospice care: What factors influence overall satisfaction with services? Journal of Pain and Symptom Management, 35, 365–371.
Risley, T. R., & Hart, B. (2006). Promoting early language development. In: N. F. Watt, C. Ayoub, R. H. Bradley, J. E. Puma, & W. A. LeBoeuf (Eds.), The crisis in youth mental health: Early intervention programs and policies (Vol. 4, pp. 83–88). Westport, CT: Praeger.
Rosochacka-Gmitrzak, M. (2017) Młodzi dorosli mieszkający z rodzicami - analiza wybranych interpretacji zjawiska. Societas/Communitas, 24, 89-106
Rothbaum, R., Weisz, J., Pott, M., Miyake, K., & Morelli, G. (2000). Attachment and culture: Security in the United States and Japan. American Psychologist, 55, 1093–1104.
Russell, S. T., Crockett, L. J., & Chao, R. (Eds.). (2010). Asian American parenting and parent-adolescent relationships. In: R. Levesque (Series Ed.), Advancing responsible adolescent development. New York, NY: Springer.
Ryff, C. D., & Singer, B. (2009). Understanding healthy aging: Key components and their integration. In: V. L. Bengtson, D. Gans., N. M. Putney, & M. Silverstein. (Eds.), Handbook of theories of aging (2nd ed., pp. 117–144). New York, NY: Springer.
Samarel, N. (1991). Caring for life after death. Washington, DC: Hemisphere.
Sanson, A., & Rothbart, M. K. (1995). Child temperament and parenting. In: M. Bornstein (Ed.), Applied and practical parenting (Vol. 4, pp. 299–321). Mahwah, NJ: Lawrence Erlbaum.
Schechter, C., & Byeb, B. (2007). Preliminary evidence for the impact of mixed-income preschools on low-income children’s language growth. Early Childhood Research Quarterly, 22, 137–146.
Shamay-Tsoory, S. G., Tomer, R., & Aharon-Peretz, J. (2005). The neuroanatomical basis of understanding sarcasm and its relationship to social cognition. Neuropsychology, 19(3), 288–300.
Shanahan, L., McHale, S. M., Osgood, D. W., & Crouter, A. C. (2007). Conflict frequency with mothers and fathers from middle childhood to late adolescence: Within and between family comparisons. Developmental Psychology, 43, 539–550.
Siegler, R. S. (2005). Children’s thinking (4th ed). Mahwah, NJ: Erlbaum.
Siegler, R. S. (2006). Microgenetic analyses of learning. In: D. Kuhn & R. S. Siegler (Eds.), Handbook of child psychology: Cognition, perception, and language (6th ed., Vol. 2). New York: Wiley.
Sinnott, J. D. (1998). The development of logic in adulthood: Postformal thought and its applications. New York, NY: Springer.
Small, M. F. (1999). Our babies, ourselves: How biology and culture shape the way we parent. New York, NY: Anchor Books.
Spelke, E.S., & Cortelyou, A. (1981). Perceptual aspects of social knowing: Looking and listening in infancy. In: M.E. Lamb & L.R. Sherrod (Eds.), Infant social cognition: Empirical and theoretical considerations (pp. 61–83). Hillsdale, NJ: Erlbaum.
Steinberg, L., & Morris, A. S. (2001). Adolescent development. Annual Review of Psychology, 52, 83–110.
Sterns, H. L., & Huyck, M. H. (2001). The role of work in midlife. In: M. Lachman (Ed.), The handbook of midlife development (pp. 447–486). New York, NY: Wiley.
Stork, F. C., & Widdowson, D. A. (1974). Learning about linguistics. London, UK: Hutchinson Ltd.
Streissguth, A. P., Bookstein, F. L., Barr, H. M., Sampson, P. D., O’Malley, K., & Young, J. K. (2004). Risk factors for adverse life outcomes in fetal alcohol syndrome and fetal alcohol effects. Developmental and Behavioral Pediatrics, 25(4), 228–238.
Striegel-Moore, R. H., & Cachelin, F. M. (1999). Body image concerns and disordered eating in adolescent girls: Risk and protective factors. In: N. G. Johnson, M. C. Roberts, & J. Worell (Eds.), Beyond appearance: A new look at adolescent girls. Washington, DC: American Psychological Association.
Tanner, J. M. (1978). Fetus into man: Physical growth from conception to maturity. Cambridge, MA: Harvard University Press.
Temel, J. S., Greer, J. A., Muzikansky, A., Gallagher, E. R., Admane, S., Jackson, V. A. . . . Lynch, T. J. (2010). Early palliative care for patients with metastic non-small-cell lung cancer. New England Journal of Medicine, 363, 733–742.
Thomas, A. (1984). Temperament research: Where we are, where we are going. Merrill-Palmer Quarterly, 30(2), 103–109.
Tran, T. D., & Kelly, S. J. (2003). Critical periods for ethanol-induced cell loss in the hippocampal formation. Neurotoxicology and Teratology, 25(5), 519–528.
Trempała J. (red.) (2011). Psychologia rozwoju człowieka. Warszawa: Wydawnictwo Naukowe PWN.
Umberson, D., Pudrovska, T., & Reczek, C. (2010). Parenthood, childlessness, and well-being: A life course perspective. Journal of Marriage and the Family, 72(3), 612–629.
United Nations Educational, Scientific and Cultural Organization. (2013, June). UIS Fact Sheet: Schooling for millions of children jeopardized by reductions in aid. Montreal, Canada: UNESCO Institute for Statistics.
Vaillant, G. E. (2002). Aging well. New York, NY: Little Brown & Co.
Van der Graaff, J., Branje, S., De Wied, M., Hawk, S., Van Lier, P., & Meeus, W. (2013). Perspective taking and empathetic concern in adolescence: Gender differences in developmental changes. Developmental Psychology, 50(3), 881.
van Ijzendoorn, M. H., & Sagi-Schwartz, A. (2008). Cross-cultural patterns of attachment: Universal and contextual dimensions. In: J. Cassidy & P. R. Shaver (Eds.), Handbook of attachment. New York, NY: Guilford.
Vouloumanos, A., & Werker, J. F. (2004). Tuned to the signal: The privileged status of speech for young infants. Developmental Science, 7, 270–276.
WHO Multicentre Growth Reference Study Group. (2006). WHO Child growth standards: Methods and development: Length/height-for-age, weight-for-age, weight-for-length, weight-for-height and body mass index-for-age. Geneva, Switzerland: World Health Organization.
Winerman, L. (2011). Closing the achievement gap. Monitor of Psychology, 42(8), 36.
Wortman, J. H., & Park, C. L. (2008). Religion and spirituality in adjustment following bereavement: An integrative review. Death Studies, 32(8), 703-736. doi: 10.1080/07481180802289507.
Youngentob S.L., Kent P.F., Sheehe P.R., Molina J.C., Spear N.E., Youngentob L.M. (2007). Experience-induced fetal plasticity: The effect of gestational ethanol exposure on the behavioral and neurophysiologic olfactory response to ethanol odor in early postnatal and adult rats. Behavioral Neuroscience, 121(6), 1293–1305.
Zdrowie i Ochrona zdrowia w 2016 r. (2017). Warszawa: Główny Urząd Statystyczny. |
# Psychologia rozwojowa
## Co to jest psychologia rozwojowa?
"Kiedy krąg nieba tęcza obleka
Serce z radości mi rośnie!
Tak było w życia mojego wiośnie,
Tak jest i teraz gdym wzrósł w człowieka,
Niech i tak będzie, gdy się doczeka
Wiek mój starości, lub umrzeć wolę.
Dziecię jest ojcem człowieka;
I daj mi Boże, niech w jednem kole
Rodzinnych uczuć dni me zespolę.
(William Wordsworth, 1802; źródło tłum.: Przegląd Poznański, tom V, 1847, red. dr Szafarkiewicz)
„Dziecię jest ojcem człowieka”, pisze William Wordsworth (1770-1850). Możemy doszukać się tu interpretacji związanej z psychologią rozwojową i badaniem wpływu doświadczeń z dzieciństwa na ukształtowanie osoby dorosłej. W jakim stopniu dzieciństwo wpływa na dorosłość? Jak dziecko różni się od dorosłego, którym się staje? Na tego typu pytania próbują odpowiedzieć psychologowie rozwojowi, badając to, w jaki sposób człowiek się zmienia i rośnie, od poczęcia, przez dzieciństwo i dojrzewanie, po dorosłość, aż do śmierci. Rozwój postrzegany jest jako trwający całe życie proces, który można rozpatrywać z trzech perspektyw:
1.
fizycznej,
2.
poznawczej,
3.
psychospołecznej.
Rozwój fizyczny (ang. ) obejmuje wzrastanie i zmiany zachodzące w ciele i mózgu, rozwój zmysłów, motoryki oraz zdrowie i dobrostan człowieka. Rozwój poznawczy (ang. ) odnosi się do uczenia, uwagi, pamięci, języka, myślenia, wnioskowania i kreatywności. Rozwój psychospołeczny (ang. ) dotyczy emocji, osobowości i relacji społecznych. W tym rozdziale omówimy każdy z tych obszarów.
We wszystkich trzech obszarach rozwoju: fizycznym, poznawczym i psychospołecznym stosuje się również podejście normatywne (ang. ). Jego podstawą jest pytanie: „Co jest normą w rozwoju?”. W pierwszej połowie XX wieku psychologowie normatywni przebadali dużą liczbę dzieci w różnym wieku, by ustalić normy, tj. zakres wiekowy (np. od 5. do 6. miesiąca życia), w którym większość dzieci osiąga kolejne kamienie milowe w rozwoju (ang. w każdej z trzech ww. dziedzin (Gesell, 1933, 1939, 1940; Geselli Ilg, 1946; Hall, 1904). Choć dzieci rozwijają się w różnym tempie, to możemy posłużyć się tymi ogólnymi wytycznymi, by porównać dzieci w tym samym wieku i określić przybliżony wiek, w którym powinny osiągnąć umiejętności charakterystyczne dla danego okresu w rozwoju, zwane kamieniami milowymi (np. raczkowanie, chodzenie, pisanie, ubieranie się, nazywanie kolorów, mówienie zdaniami czy początek dojrzewania).
Nie wszystkie zmiany mają charakter uniwersalny, co znaczy, że nie wszystkie staną się udziałem każdego człowieka we wszystkich kulturach. Fizyczne kamienie milowe, takie jak dojrzałość płciowa, są uniwersalne, jeśli nie występują zaburzenia rozwoju. Społeczne kamienie milowe, jak wiek, w którym dziecko rozpoczyna edukację szkolną, nie są uniwersalne, lecz dotyczą większości osób w danej kulturze (ang. ) (Gesell, Ilg, 1946). Na przykład w krajach rozwiniętych dzieci rozpoczynają naukę w szkole w wieku 5–7 lat. W krajach rozwijających się, takich jak Nigeria, dzieci często rozpoczynają edukację później lub w ogóle jej nie zaczynają (Huebler, 2005; United Nations Educational, Scientific and Cultural Organization, 2013).
By lepiej zrozumieć podejście normatywne, wyobraź sobie Luizę i Klarę, które są bliskimi przyjaciółkami i mają dzieci w podobnym wieku. Córka Luizy ma 14 miesięcy, a syn Klary 12 miesięcy. Zgodnie z podejściem normatywnym średni wiek, w którym dzieci zaczynają chodzić, to 12 miesięcy. Jednak czternastomiesięczna córka Luizy jeszcze nie chodzi. Luiza zwierza się Klarze, że martwi się, czy jej dziecko rozwija się prawidłowo. Klara jest zaskoczona, ponieważ jej syn zaczął chodzić, gdy miał 10 miesięcy. Czy Luiza powinna być zaniepokojona? Czy powinna się martwić, jeśli jej córka nadal nie będzie chodzić w wieku 15 lub 18 miesięcy?
### Teoretyczne podstawy psychologii rozwojowej
Istnieje wiele teorii dotyczących rozwoju człowieka. Pamiętaj, że psychologia rozwojowa skupia się na tym, jak ludzie się zmieniają, i zwróć uwagę, że wszystkie podejścia prezentowane w tym rozdziale zajmują się zagadnieniem rozwoju, ale w różny sposób odpowiadają na podstawowe pytania dotyczące procesu rozwojowego: czy rozwój jest płynny, czy też następuje etapami (ciągły vs skokowy), czy schemat, zgodnie z którym odbywa się rozwój, jest taki sam dla wszystkich, czy może występuje wiele różnych schematów rozwoju (jedna vs wiele ścieżek rozwoju), w jaki sposób geny i środowisko wpływają na rozwój (natura a wychowanie)?
### Czy rozwój jest ciągły, czy skokowy?
Rozwój ciągły (ang. ) to pogląd, zgodnie z którym rozwój jest procesem kumulacyjnym: stopniowym doskonaleniem posiadanych umiejętności (). W tym przypadku zmiana zachodzi płynnie (liniowo). Pomyśl na przykład o fizycznym wzroście dziecka: z każdym rokiem przybywa mu centymetrów. Natomiast teorie, wg których rozwój jest skokowy (ang. ), uznają, że rozwój przebiega określonymi etapami, zachodzącymi w określonym wieku. W tym przypadku zmiana dokonuje się gwałtowniej, np. kiedy dziecko uzyska zdolność pojmowania stałości obiektu.
### Jedna czy wiele ścieżek rozwojowych?
Czy rozwój przebiega tak samo u wszystkich dzieci (tj. istnieje jeden schemat rozwoju), czy też rozwój przebiega inaczej dla każdego dziecka, w zależności od jego uwarunkowań genetycznych i środowiskowych (tj. istnieje wiele ścieżek rozwoju)? Czy występuje więcej podobieństw czy różnic między rozwojem ludzi z różnych stron świata? Jak bardzo kultura i geny wpływają na zachowanie dziecka?
Teorie stadiów rozwoju zakładają, że etapy rozwoju są uniwersalne. Na przykład międzykulturowe badania nad rozwojem języka wykazały, że dzieci z różnych części świata w podobnej kolejności osiągają kolejne kamienie milowe w rozwoju języka (Gleitmani Newport, 1995). Niemowlęta z różnych kręgów kulturowych najpierw głużą, a potem gaworzą. Zaczynają gaworzyć mniej więcej w tym samym wieku i wypowiadają pierwsze słowa ok. 12. miesiąca życia (Kurcz, 2000). Lecz przecież warunki, w których dorastamy, mogą być bardzo zróżnicowane i wywierać na nas unikalny wpływ. Na przykład badacze byli kiedyś przekonani, że rozwój motoryczny przebiega wg jednego schematu we wszystkich kulturach. Jednak sposoby opieki nad dziećmi różnią się w zależności od kultury, w związku z tym jedne dzieci szybciej, a inne wolniej osiągają kolejne kamienie milowe rozwoju ruchowego, takie jak siedzenie, raczkowanie czy chodzenie (Karasik et al., 2010).
Indianie Ache w Paragwaju większość czasu spędzają na przemierzaniu lasów. Matki noszą swoje dzieci i rzadko je odkładają, by nie stała im się krzywda. W rezultacie dzieci zaczynają chodzić ok. 23.–24. miesiąca życia, czyli dużo później niż niemowlęta z kultur zachodnich, gdzie pierwsze samodzielne kroki stawiane są ok. 12. miesiąca życia. Jednak z czasem matki Indian Ache dają dzieciom większą swobodę poruszania się i ok. 9. roku życia ich motoryka jest bardziej rozwinięta niż u dzieci w Stanach Zjednoczonych w tym samym wieku. Dzieci Ache potrafią wspinać się na ponad siedmiometrowe drzewa i torować sobie maczetami drogę przez las (Kaplan, Dove, 1987). Jak widać, na rozwój wpływa wiele czynników, które sprawiają, że czas wykształcenia różnych zdolności motorycznych może się różnić w zależności od kultury. Jednak rozwój motoryczny jako taki występuje we wszystkich kulturach: wszyscy uczymy się siadać, chodzić, biegać i skakać ().
### Jak natura i wychowanie wpływają na rozwój?
Czy jesteśmy tym, kim jesteśmy, ze względu na naturę (ang. ) (biologię i geny), czy też ze względu na wychowanie (ang. ) (środowisko i kulturę)? To odwieczne pytanie znane jest w psychologii jako spór „natura a wychowanie”. Jego źródłem jest próba zrozumienia, jaki wpływ na naszą osobowość i zachowanie mają geny i czynniki biologiczne, a w jaki sposób kształtują je nasze środowisko (w tym rodzice i rówieśnicy) oraz kultura. Pytamy np.: dlaczego biologiczne rodzeństwo zachowuje się czasami jak ich rodzice — czy ze względu na geny, czy na środowisko ich wczesnego dzieciństwa i to, czego nauczyło się od rodziców? Co w przypadku adoptowanych dzieci — czy są bardziej podobne do swoich biologicznych czy adopcyjnych rodzin? I jak to możliwe, że rodzeństwo czasem tak różni się między sobą?
Wszyscy rodzimy się z określonymi cechami odziedziczonymi po rodzicach, np. kolorem oczu, wzrostem, niektórymi cechami charakteru. Jednak poza podstawowym genotypem zachodzi również głębsza interakcja między genami a środowiskiem. Doświadczenia indywidualne wpływają na to, czy i w jaki sposób określone cechy się uwidocznią, i odwrotnie: nasze geny wpływają na funkcjonowanie w środowisku (Diamond, 2009; Lobo, 2008; Oniszczenko i Dragan, 2008). W tym rozdziale wykażemy, że natura i wychowanie wzajemnie na siebie oddziałują i razem wpływają na to, kim się stajemy. Lecz spór, jak silny jest wpływ każdego z tych czynników, wciąż pozostaje nierozstrzygnięty.
### Summary
Psychologia rozwojowa bada, w jaki sposób zmieniamy się i rośniemy, od poczęcia do śmierci. Tą subdyscypliną psychologii zajmują się psychologowie rozwojowi. Psychologia rozwojowa postrzega rozwój jako trwający całe życie proces, który można naukowo zbadać z perspektywy trzech obszarów rozwoju: fizycznego, poznawczego i psychospołecznego. Istnieje wiele teorii dotyczących rozwoju człowieka. Skupiają się one na następujących zagadnieniach: czy rozwój jest ciągły, czy skokowy; czy jest jeden schemat rozwoju, czy wiele; jaki wpływ na rozwój ma natura, a jaki wychowanie?
### Review Questions
### Critical Thinking Questions
### Personal Application Questions
|
# Psychologia rozwojowa
## Teorie psychologii rozwojowej
Powstało wiele teorii opisujących sposób, w jaki rosną i rozwijają się niemowlęta i dzieci, aby stać się szczęśliwymi, zdrowymi dorosłymi. W tym podrozdziale omówimy najważniejsze z nich.
### Teoria rozwoju psychoseksualnego
Zygmunt Freud (1856-1939) uważał, że osobowość i zachowanie są kształtowane we wczesnym dzieciństwie. Sądził, że rozwój jest skokowy i że w dzieciństwie człowiek musi przejść szereg faz rozwojowych, a brak odpowiedniego wychowania i opieki rodzicielskiej w danej fazie może skutkować zatrzymaniem się lub fiksacją w tej fazie. Freud mówił o pięciu fazach rozwoju psychoseksualnego (ang. ). Twierdził, że w każdej z nich: oralnej, analnej, fallicznej, latencji i genitalnej, dziecięce popędy zaspokojenia przyjemności skupiają się na innej części ciała będącej tzw. strefą erogenną.
Choć większość twierdzeń Freuda nie zostało popartych współczesnymi badaniami, to nie sposób nie docenić wkładu, jaki badacz ten wniósł w rozwój psychologii. Współcześni psychologowie kwestionują fazy rozwoju psychoseksualnego jako wyjaśnienie rozwoju osobowości, lecz dzięki teorii Freuda wiemy, że osobowość kształtowana jest w pewnym stopniu przez doświadczenia z dzieciństwa. Fazy rozwoju psychoseksualnego zostaną szczegółowo omówione w rozdziale dotyczącym osobowości.
### Teoria rozwoju psychospołecznego
Erik Erikson (1902-1994) (), autor kolejnej teorii stadiów rozwoju, czerpał z teorii Freuda, ale zmodyfikował ją, by stworzyć własną teorię rozwoju psychospołecznego (ang. ). Koncepcja Eriksona kładzie nacisk na społeczny, a nie seksualny charakter rozwoju. Podczas gdy Freud uważał, że osobowość kształtuje się tylko w dzieciństwie, Erikson sądził, że rozwija się ona przez całe życie. Według niego interakcje z innymi mają wpływ na nasze poczucie tożsamości, co nazywał tożsamością ego (ang. ).
Według Eriksona naszą motywację stanowi potrzeba osiągnięcia kompetencji w spełnianiu oczekiwań i wymagań otoczenia społecznego w różnych sferach życia. Zgodnie z teorią rozwoju psychospołecznego od niemowlęctwa do dorosłości przechodzimy osiem stadiów rozwojowych. W każdym z nich doświadczamy konfliktu – kryzysu, z którym musimy sobie poradzić. Pomyślne rozwiązanie każdego z konfliktów rozwojowych pozwala na wykształcenie zdolności adaptacyjnych na wyższym poziomie, a także pomaga poradzić sobie lepiej z następnymi kryzysami. Nierozwiązanie kryzysu prowadzi do poczucia nieprzystosowania i utrudnia rozwiązywanie następnych kryzysów.
Według Eriksona (1963) podstawą prawidłowego rozwoju człowieka, nie tylko w okresie niemowlęctwa (od narodzin do 12. miesiąca życia), jest bazalne zaufanie. Podstawowym efektem kryzysu w tym stadium może być nabycie zaufania do świata (przede wszystkim do opiekunów) lub przeciwnie – brak takiego zaufania. Niemowlęta zależą od swoich opiekunów, dlatego opiekunowie wyczuleni i wrażliwi na potrzeby dziecka pomagają mu rozwinąć poczucie zaufania. Dziecko zaczyna postrzegać świat jako bezpieczny i przewidywalny. Opiekunowie, którzy ignorują potrzeby dziecka, mogą wykształcić w nim niepokój i strach; dziecko będzie postrzegać świat jako nieprzewidywalny i niebezpieczny.
We wczesnym dzieciństwie (1–3 lata) dzieci zaczynają odkrywać świat, uczą się, że są w stanie kontrolować swoje działania i wpływać na otoczenie, by uzyskać zamierzony efekt. Uczą się także kontrolować własne potrzeby fizjologiczne, co określane jest często jako „trening czystości”. Zaczynają wyraźnie preferować niektóre elementy otoczenia, np. pokarmy, zabawki czy ubrania. Uczą się także panować nad własnym ciałem.
Podstawowym konfliktem, który dziecko musi rozwiązać na tym etapie rozwoju, jest autonomia versus wstyd i zwątpienie. To stadium „ja to zrobię”, w którym dziecko próbuje uzyskać niezależność. Na przykład możemy zaobserwować rodzące się poczucie autonomii u dwulatki, która chce sama zdecydować, co założy, i sama chce się ubrać. Choć jej stroje mogą nie być odpowiednie na daną okoliczność, to jej wkład w tak podstawowe decyzje ma wpływ na rozwój poczucia niezależności. Jeśli dziecku odmawia się takiej możliwości wpływania na otoczenie, to może się u niego zrodzić zwątpienie we własne zdolności, co z kolei może prowadzić do niskiej samooceny i poczucia wstydu. To także okres, w którym dziecko jest chwalone za właściwe załatwianie swoich potrzeb fizjologicznych – dzięki czemu czuje się niezależne. Czuje się ganione i zawstydzane, jeśli nie zapanuje nad potrzebą fizjologiczną, co powoduje zwątpienie we własne możliwości.
W okresie przedszkolnym (3–6 lat) dzieci potrafią inicjować działania i kontrolować swój świat za pośrednictwem interakcji społecznych i zabawy, a także starają się poszerzyć swoją wiedzę o świecie, podejmując liczne działania eksploracyjne. Według Eriksona dzieci w wieku przedszkolnym muszą rozwiązać konflikt „inicjatywa versus poczucie winy”. Mogą sobie z nim poradzić, ucząc się planować i osiągać cele, także poprzez interakcję z innymi. Te, którym się to uda, wykształcą pewność siebie i przekonanie o celowości własnych działań. Porażka w tym stadium – nieudane lub stłumione inicjatywy dziecka – może skutkować poczuciem winy. Zgodnie z tą tezą nadopiekuńczy rodzice mogą stłumić inicjatywę dziecka. Negatywny wpływ na kształtowanie się poczucia kompetencji mają także opiekunowie mający tendencje do karania dziecka za nieudane próby własnej działalności (szkody wywołane przez dziecko w ramach działań eksploracyjnych).
W wieku szkolnym (6–12 lat) dzieci stają przed konfliktem „produktywność versus poczucie niższości”. Zaczynają porównywać się z rówieśnikami, by przekonać się, jak wypadają na ich tle. Wykształcają wówczas poczucie dumy i samorealizacji przez osiągnięcie nowych umiejętności szkolnych, sportowych oraz interakcje społeczne i życie rodzinne. Gdy nie dorównują innym, czują się nie dość dobre i rozwijają poczucie niższości. Sukcesy w szkole są podstawą do tworzenia wysokiej samooceny, a także samoakceptacji. Porażki mogą stać się przyczyną zaniżonej samooceny, kompleksów i poczucia niższości. Co mogą zrobić rodzice i nauczyciele, by pomóc dzieciom wykształcić poczucie kompetencji oraz wiarę w siebie i swoje możliwości?
W okresie dorastania (12–18 lat) dzieci stają przed konfliktem „tożsamość versus dyfuzja ról”. Według Eriksona głównym zadaniem nastolatka jest rozwinięcie poczucia tożsamości. W tym czasie większość nastolatków próbuje znaleźć odpowiedzi na pytania typu „Kim jestem?” i „Co chcę robić w życiu?”. Dokonują różnych wyborów, by sprawdzić, co najbardziej im odpowiada, tym samym budują tożsamość. Osoby nastoletnie, które pomyślnie przejdą to stadium, wykształcają silne poczucie własnej tożsamości i pozostają wierne swoim przekonaniom i wartościom, nawet w obliczu problemów i konfrontacji z innymi punktami widzenia. Co dzieje się z nastolatkami, które nie podejmują świadomych poszukiwań własnej tożsamości lub tymi, które są zmuszone dostosować się do rodzicielskiej wizji ich przyszłości? Będą miały problemy z określeniem, kim są i czego naprawdę chcą w życiu, co wpłynie na ich zaniżone poczucie własnej wartości i doświadczenie dyfuzji ról. Takie osoby nie są pewne swojej tożsamości ani tego, co chciałyby robić w przyszłości. Mają trudność ze znalezieniem swojej życiowej roli, czyli z podjęciem zobowiązań zawodowych, a także osobistych (tworzenie związków intymnych).
We wczesnej dorosłości (między 20. a 40. rokiem życia) człowiek staje przed konfliktem „intymność versus izolacja”. Rozwinąwszy poczucie tożsamości w okresie dorastania, osoba taka odczuwa gotowość, by dzielić życie z innymi. Erikson twierdził, że trzeba mieć silne poczucie tożsamości, by zbudować intymną relację z innymi. Dorośli, którzy w okresie dorastania nie wykształcili pozytywnego obrazu siebie, mogą czuć się samotni i emocjonalnie odizolowani. Brak silnego poczucia tożsamości prowadzi do lęku przed uzależnieniem się od innego człowieka – a w konsekwencji do braku umiejętności wchodzenia w związki intymne.
Osoby przekraczające 40. rok życia są w okresie środkowej dorosłości, trwającym do 60. roku życia. Konfliktem do rozwiązania jest wówczas „generatywność versus stagnacja”. Generatywność polega na stworzeniu dzieła swojego życia i przyczynieniu się do rozwoju innych przez działania takie jak samorealizacja w ramach życia zawodowego, wolontariat, bycie mentorem czy wychowywanie dzieci. Ci, którzy nie rozwiążą tego konfliktu pozytywnie, mogą doświadczyć stagnacji, przejawiającej się powierzchownymi relacjami z innymi, brakiem produktywności i zainteresowania samorozwojem, a przede wszystkim poczuciem znudzenia życiem.
Od ok. 65. roku życia do śmierci przechodzimy okres zwany późną dorosłością. Konflikt w tym stadium to „integralność ego versus rozpacz”. Erikson twierdził, że w tym czasie ludzie zastanawiają się nad swoim życiem, starając się podsumować swoje osiągnięcia życiowe i albo odczuwają satysfakcję – są zadowoleni z życia i spełnieni, albo mają poczucie klęski (porażki). Ludzie, którzy są dumni ze swoich dokonań, rozwijają poczucie integralności ego i potrafią patrzeć na przemijające życie bez żalu. Co więcej, nie odczuwają lęku przed śmiercią. Osoby, które niepomyślnie przechodzą to stadium, uważają, że zmarnowały życie. Skupiają się na myśleniu „co by było, gdyby...”. Na koniec życia stają się zgorzkniałe, przygnębione i zrozpaczone, świadome, że już niczego zmienić się nie da – coraz bardziej boją się śmierci. podsumowuje stadia rozwoju wg teorii Eriksona.
### Koncepcja rozwoju poznawczego
Jean Piaget (1896–1980) definiował rozwój w postaci stadiów (). W przeciwieństwie do Freuda i Eriksona nie patrzył na rozwój z perspektywy psychoanalitycznej czy psychospołecznej, ale skupiał się na rozwoju poznawczym dziecka, choć warto pamiętać, że dostrzegał silny związek między rozwojem poznawczym i emocjonalnym. Uważał, że myślenie jest centralnym aspektem rozwoju oraz że dzieci są z natury dociekliwe. Twierdził jednak, że dzieci nie myślą i nie rozumują tak jak dorośli – dziecko nie myśli gorzej – myśli inaczej (Piaget, 1930, 1932). Zgodnie z jego koncepcją rozwoju zdolności poznawcze rozwijają się w różnych stadiach, co jest przykładem teorii rozwoju skokowego (ang. ). W miarę jak dziecko zbliża się do nowego etapu, następuje znacząca zmiana w sposobie jego myślenia i rozumowania.
Piaget uważał, że dzieci budują schematy poznawcze, które ułatwiają im zrozumienie świata. Schematy poznawcze (ang. ) to konstrukty (modele myślowe) używane, by pomagać w kategoryzowaniu i interpretowaniu informacji. Do czasu osiągnięcia dorosłości dzieci tworzą schematy poznawcze niemal dla wszystkiego. Kiedy uczą się nowej informacji, dostosowują swoje schematy, wykorzystując dwa procesy: asymilację (ang. i akomodację (ang. . Najpierw asymilują nową informację lub doświadczenie zgodnie z dotychczasowymi schematami. Asymilacja ma miejsce, gdy dziecko przyswaja informację podobną do tej, którą już zna. Akomodacja następuje, gdy dziecko zmienia schematy, bazując na nowej informacji. Ten proces trwa w miarę, jak dzieci doświadczają współdziałania ze środowiskiem.
Na przykład 2-letni Błażej wytworzył schemat psa, ponieważ jego rodzina ma labradora retrievera. Kiedy chłopiec widzi psa w swoich pełnych obrazków książeczkach, mówi: „Patrz mamo, pies!”. Tym samym dokonuje ich asymilacji do swojego schematu psa. Pewnego dnia Błażej widzi po raz pierwszy owcę i mówi: „Patrz mamo, pies!”. Wykształciwszy podstawowy schemat: pies to zwierzę z czterema łapami i sierścią, Błażej myśli, że wszystkie czworonożne stworzenia z futrem to psy. Gdy mama wyjaśnia, że zwierzę na obrazku to owca, a nie pies, Błażej musi dostosować swój schemat psa i wprowadzić do niego więcej informacji, bazując na swoich doświadczeniach. Schemat psa wytworzony przez Błażeja był zbyt szeroki, ponieważ nie wszystkie czworonożne zwierzęta z sierścią to psy. Błażej modyfikuje więc schemat psa i tworzy nowy dla owiec, a być może także schemat czworonożnych zwierząt z sierścią.
Tak jak Freud i Erikson, Piaget uważał, że rozwój odbywa się w następujących po sobie stadiach odpowiadających przedziałom wiekowym. Sformułował on koncepcję rozwoju poznawczego, który odbywa się w czterech stadiach: sensoryczno-motorycznym, przedoperacyjnym, operacji konkretnych i operacji formalnych ().
Pierwsze stadium to stadium sensoryczno-motoryczne (ang. ), które trwa mniej więcej do 2. roku życia. W jego trakcie dzieci uczą się otaczającego ich świata za pośrednictwem zmysłów i aktywności motorycznej. Małe dzieci wkładają do buzi rzeczy, by sprawdzić, czy są jadalne, a gdy już potrafią wziąć przedmioty do ręki, potrząsają lub uderzają nimi, by przekonać się, czy wydają dźwięki. Między 5. a 8. miesiącem życia dziecko rozwija stałość reprezentacji obiektu (ang. ), czyli świadomość, że nawet jeśli coś znika z pola widzenia, to nadal istnieje (Bogartzet al., 2000). Według Piageta niemowlęta we wczesnym stadium rozwoju nie zapamiętują obiektów, które zniknęły im z oczu. Piaget badał reakcje niemowląt, którym pokazano zabawkę po raz pierwszy, po czym schowano ją pod kocem. Niemowlęta, które wykształciły stałość reprezentacji obiektu, sięgały po schowaną zabawkę, co oznacza, że wiedziały, że nadal istnieje, podczas gdy niemowlęta, które nie rozwinęły jeszcze stałości reprezentacji obiektu, sprawiały wrażenie zdezorientowanych.
Według Piageta mniej więcej w tym samym okresie, w którym dzieci rozwijają świadomość stałości obiektu, zaczynają również wykazywać lęk przed obcymi. Dzieci mogą dawać temu wyraz poprzez płacz, odwracanie się od osoby obcej, kurczowe trzymanie się opiekuna lub wyciąganie ramion do osób, które znają, np. rodziców. Lęk przed obcymi wynika z niemożliwości asymilacji obcej osoby do istniejącego schematu. Obawę u dziecka wywołuje niemożność przewidzenia, jak będzie wyglądało zetknięcie z nieznajomym.
Drugim stadium rozwoju wg koncepcji Piageta jest stadium przedoperacyjne (ang. ), które trwa od ok. 2. do 7. roku życia. Dzieci potrafią wówczas wykorzystywać symbole, by reprezentować pojęcia, obrazy i myśli, dlatego też w tym okresie lubią bawić się w udawanie („zabawa na niby”). Ręce stają się skrzydłami samolotu, kiedy dziecko pędzi po pokoju. Trzymając w ręku patyk, dziecko może przemienić się w dzielnego rycerza z mieczem. W stadium przedoperacyjnym dzieci zaczynają również używać języka, ale nie rozumieją logiki dorosłych i nie potrafią umysłowo manipulować informacją (termin „operacyjny” odnosi się do logicznej manipulacji informacją, dlatego to stadium nazywa się „przedoperacyjnym”). Dziecięca logika opiera się na ich osobistej, dotychczasowej wiedzy o świecie, nie zaś na wiedzy ogólnej. Na przykład tata dał 10-letniej Kasi kawałek pizzy, drugi kawałek pizzy dał jej 3-letniemu bratu Karolowi. Kawałek Karola został pokrojony na pięć mniejszych, więc chłopiec powiedział siostrze, że ma więcej pizzy niż ona. Dzieci na tym etapie nie potrafią przeprowadzać operacji umysłowych, ponieważ nie rozumieją jeszcze zasady zachowania stałości (ang. ), idei, że nawet po zmianie wyglądu jakiejś rzeczy, nadal posiada ona ten sam rozmiar, objętość czy liczbę tak długo, jak niczego nie dodajemy ani nie usuwamy.
W tym stadium dzieci zazwyczaj wykazują egocentryzm (ang. ) w myśleniu, co oznacza, że nie są w stanie przyjąć punktu widzenia innych. Dziecko na tym etapie uważa, że każdy widzi, myśli i czuje dokładnie tak jak ono. Wróćmy jeszcze raz do Karola i Kasi. Zbliżają się urodziny Kasi, więc jej mama zabrała Karola do sklepu z zabawkami, by wybrał prezent dla siostry. Karol wybrał figurkę Iron Mana, myśląc, że skoro jemu się podoba, to będzie też podobała się siostrze. Egocentrycznie myślące dziecko nie potrafi przyjąć punktu widzenia innych, dlatego przypisuje im swój punkt widzenia.
Trzecim etapem rozwoju poznawczego wg Piageta jest stadium operacji konkretnych (ang. ), które ma miejsce między 7. a 11. rokiem życia. W tym stadium dzieci potrafią myśleć logicznie o rzeczywistych (konkretnych) wydarzeniach, dobrze posługują się liczbami i zaczynają wykorzystywać strategie zapamiętywania. Umieją wykonywać działania matematyczne i rozumieją przekształcenia, np. że dodawanie jest przeciwieństwem odejmowania, a mnożenie przeciwieństwem dzielenia. Na tym etapie dzieci rozumieją już zasadę zachowania stałości. Nawet jeśli coś zmienia kształt, masę, objętość czy liczbę, pozostaje tą samą rzeczą. Na przykład jeśli przelejemy wodę z wysokiej, wąskiej do niskiej i pękatej szklanki, to ilość wody się nie zmieni. Pamiętasz historię Kasi, Karola i pizzy? Skąd Kasia wiedziała, że brat nie ma racji, mówiąc, że ma więcej pizzy niż ona?
Dzieci w stadium operacji konkretnych rozumieją również zasadę odwracalności (ang. ), w myśl której przedmioty mogą ulegać zmianom, a potem wrócić do pierwotnego kształtu lub stanu. Co więcej, potrafią przeprowadzić tę operację w myśli. Przywołajmy ponownie przykład wody – możemy ją ponownie przelać z niskiej, pękatej szklanki do wysokiej i wąskiej i wciąż mieć tę samą ilość (ze stratą kilku kropel).
Czwartym, ostatnim stadium, zgodnie z teorią Piageta, jest stadium operacji formalnych (ang. ), które trwa od 11. roku życia do dorosłości. Podczas gdy dzieci w stadium operacji konkretnych potrafią myśleć logicznie o konkretnych wydarzeniach, w stadium operacji formalnych umieją również zrozumieć abstrakcyjne konstrukty i sytuacje hipotetyczne. Nastolatki na tym etapie mają zdolność posługiwania się myśleniem abstrakcyjnym w celu rozwiązania danego problemu. W czasie dorastania ponownie pojawia się egocentryzm w myśleniu. Na przykład piętnastolatka z pryszczem na twarzy może uważać, że jest on ogromny i bardzo widoczny, niesłusznie sądząc, że inni na pewno postrzegają świat tak jak ona.
### Po stadium operacji formalnych
Podobnie jak w przypadku innych twórców teorii rozwoju, wiele twierdzeń Piageta spotkało się z krytyką popartą wynikami późniejszych badań. Na przykład wiele współczesnych badań potwierdza, że rozwój jest raczej ciągły, a nie podzielony na wyraźne stadia zaproponowane przez Piageta (Couragei Howe, 2002; Siegler, 2005, 2006). Wielu innych autorów sugeruje, że dzieci osiągają kamienie milowe znacznie wcześniej niż opisywał to Piaget (Baillargeon, 2004; de Hevia i Spelke, 2010).
Według Piageta najwyższym stadium rozwoju intelektualnego jest stadium operacji formalnych, które trwa między 11. a 20. rokiem życia. Badacz nie dostrzegał zmian poznawczych w okresie dorosłości. Wielu psychologów rozwojowych nie zgadza się z Piagetem, proponując piąte stadium rozwoju intelektualnego nazywane stadium operacji postformalnych (ang. ) (Basseches, 1984; Commons, Bresette, 2006; Sinnott, 1998). W tym stadium decyzje podejmowane są na podstawie sytuacji i okoliczności. Gdy dorośli tworzą zasady zależne od kontekstu, logika zintegrowana jest z emocjami. Tym, co odróżnia dorosłego w stadium operacji postformalnych od osoby dorastającej w stadium operacji formalnych, jest sposób, w jaki radzi sobie ona z problemami nacechowanymi emocjonalnie.
Po osiągnięciu dorosłości zmieniają się zdolności rozwiązywania problemów: zastanawiamy się głębiej nad wieloma aspektami naszego życia, takimi jak relacje z innymi, praca czy polityka (Labouvie-Vief, Diehl, 1999). Dzięki tej zmianie osoby w stadium operacji postformalnych potrafią czerpać z przeszłych doświadczeń, które pomagają im rozwiązać obecne problemy. Strategie rozwiązywania problemów z wykorzystaniem operacji postformalnych zmieniają się w zależności od sytuacji. Co to oznacza? Dorośli rozumieją np., że to, co wydaje się idealnym rozwiązaniem konfliktu z kolegą z pracy, może nie być najlepszym rozwiązaniem konfliktu z kimś bliskim.
Całkowicie nowym nurtem jest badanie ograniczeń poznawczych występujących wraz z procesami starzenia się (Engle et al., 2006) – niezwykle ważne ze względu na wydłużanie się życia ludzkiego.
### Neurokonstruktywizm
W ostatnich latach pojawiło się więcej badań i koncepcji na temat wzajemnego i obustronnego wpływu genów i środowiska (Newcombe, 2011). Jedno z takich podejść, neurokonstruktywizm, zakłada, że neuronalny rozwój mózgu wpływa na rozwój poznawczy, a sytuacje, których dziecko doświadcza, mogą wpłynąć na przebieg rozwoju ścieżek neuronalnych. Zachowanie każdego z nas zależy od tego, jak pojmujemy rzeczywistość. Interakcja między sieciami neuronalnymi i poznawczymi zachodzi na wszystkich poziomach oraz pomiędzy nimi, czyli między: genami, neuronami, mózgiem, ciałem i środowiskiem społecznym. Interakcje te – w zależności od doświadczeń zdobywanych przez całe nasze życie – kształtują określone reprezentacje umysłowe (Westermann, Mareschal, Johnson, Sirois, Spratling i Thomas, 2007).
Weźmy np. dziecko, którego genetyczną predyspozycją jest trudny temperament. Jego rodzice mogą mu jednak stworzyć warunki, w których będzie ono zachęcane do wyrażania siebie w możliwie najmniej konfliktowy czy roszczeniowy sposób, a wskutek tych doświadczeń w mózgu dziecka utworzą się odpowiednie połączenia neuronalne. Jego mózg przekazuje ciału, jak ma ono reagować na otoczenie. Następnie wzajemne oddziaływanie sieci neuronalnych i poznawczych wpływa na geny (np. łagodząc temperament), ciało (np. zmniejszając skłonność do wysokiego ciśnienia tętniczego) i środowisko społeczne (np. poszukiwanie podobnych ludzi).
### Społeczno-kulturowa teoria rozwoju
Rosyjski psycholog Lew Wygotski (1896-1934) zaproponował teorię mówiącą, że podstawowy wpływ na nasz rozwój ma tło kulturowe. Na nie zaś składają się doświadczenia historyczne społeczeństwa, w którym wzrastamy. Kształtują one język, którym mówimy, oraz nasz sposób myślenia i postrzegania świata.
### Teoria rozwoju moralnego
Ważnym zadaniem zaczynającym się w dzieciństwie i trwającym do wieku młodzieńczego jest nauka odróżniania dobra od zła. Psycholog Lawrence Kohlberg (1927-1987), bazując na wnioskach Piageta na temat rozwoju poznawczego i na sformułowanej przez niego teorii rozwoju moralnego, stworzył własną teorię rozwoju moralnego (ang. ). Kohlberg uważał, podobnie jak Piaget, że rozwój moralny, tak jak rozwój poznawczy, następuje etapami. W celu opracowania swojej teorii Kohlberg stawiał przed osobami w różnym wieku dylematy moralne, a następnie analizował odpowiedzi, by potwierdzić dane stadium rozwoju moralnego. Zanim przeczytasz o stadiach rozwoju moralnego, zastanów się przez chwilę, jaka byłaby twoja odpowiedź na jeden z najbardziej znanych kohlbergowskich dylematów moralnych, znany jako dylemat Heinza (ang. ):
Jak rozstrzygniesz ten dylemat? Kohlberga nie interesowało, czy odpowiesz „tak” czy „nie”; interesował go sposób rozumowania, który prowadził do wyboru konkretnej odpowiedzi.
Po przedstawieniu badanym tego i różnych innych dylematów moralnych Kohlberg analizował ich odpowiedzi i klasyfikował je jako przejawy różnych etapów rozwoju moralnego (ang. ) (). Według Kohlberga człowiek rozwija się od stadium moralności przedkonwencjonalnej (przed 9. rokiem życia) do moralności konwencjonalnej (wczesne dorastanie), a następnie w kierunku moralności postkonwencjonalnej (po osiągnięciu stadium operacji formalnych), którą w pełni rozwijają tylko niektórzy. W najwyższym stadium Kohlberg umieścił odpowiedzi osób, których rozumowanie zakładało, że Heinz słusznie ukradł lek, ponieważ życie jego żony było ważniejsze niż zysk aptekarza. Ludzkie życie ma wyższą wartość niż chciwość aptekarza. Ale uzasadnienie musiało zawierać informację, że podstawą rozumowania jest przyjęta przez daną osobę konkretna hierarchia wartości.
Należy powiedzieć, że nawet osoby opierające się czasami na bardzo złożonych postkonwencjonalnych przesłankach, w dokonywaniu niektórych wyborów mogą się kierować prostszymi, przedkonwencjonalnymi przesłankami. Wielu psychologów zgadza się z teorią rozwoju moralnego Kohlberga, lecz zaznacza, że moralne rozumowanie bardzo różni się od moralnego postępowania. W niektórych sytuacjach robimy coś innego niż mówimy. Inaczej: słowa słowami, a czyny czynami. Co więcej, zarówno Piaget i Kohlberg zakładali, że podejmujemy decyzje moralne w oparciu o analizę poznawczą. Współcześni badacze są raczej skłonni przypuszczać, że większość naszych decyzji jest podejmowana w ułamku sekundy, a więc opiera się na mechanizmach automatycznych.
W jaki sposób teoria Kohlberga dotyczy kobiet, a w jaki mężczyzn? Kohlberg (1969) uważał, że więcej mężczyzn niż kobiet przechodzi w rozwoju moralnym poza stadium czwarte. Stwierdził nawet, że kobiety wydają się być na niższym od mężczyzn poziomie w rozumowaniu moralnym. Te twierdzenia nie zostały przychylnie przyjęte przez Carol Gilligan (ur. 1936), asystentkę Kohlberga, która przedstawiła swoje poglądy na rozwój moralny. W przełomowej książce „Innym głosem: Teoria psychologiczna a rozwój kobiet” Gilligan (1982) skrytykowała teorię swojego byłego mentora, ponieważ została ona oparta wyłącznie na badaniach białych mężczyzn i chłopców z klasy wyższej. Zaprzeczała niższemu poziomowi rozumowania moralnego kobiet – twierdziła jednak, że kobiety i mężczyźni rozumują inaczej. Dziewczynki i kobiety skupiają się bardziej na utrzymaniu więzi i wadze relacji interpersonalnych. Tym samym w przypadku dylematu Heinza wiele dziewczynek i kobiet odpowiada, że Heinz nie powinien kraść leku. Zgodnie z ich rozumowaniem, jeśli to zrobi, zostanie aresztowany i znajdzie się w więzieniu, a co za tym idzie – on i jego żona zostaną rozdzieleni i możliwe, że żona umrze, gdy on będzie w zamknięciu.
### Summary
Powstało wiele teorii opisujących, w jaki sposób rosną i rozwijają się niemowlęta i dzieci, aby stać się szczęśliwymi, zdrowymi dorosłymi. Zygmunt Freud uważał, że przechodzimy wiele faz psychoseksualnych, w których skupiamy się na różnych strefach erogennych. Erik Erikson zmodyfikował koncepcję Freuda, tworząc teorię rozwoju psychospołecznego. Erikson twierdził, że interakcje społeczne i pomyślne rozwiązanie konfliktów kształtują poczucie tożsamości. Jean Piaget przedstawił koncepcję rozwoju poznawczego, w której wyjaśnił, w jaki sposób myślą i rozumują dzieci na poszczególnych stadiach rozwoju. Natomiast Lawrence Kohlberg, opierając się na założeniach zaproponowanych przez Piageta, skupił się na rozwoju moralnym. Twierdził, że człowiek przechodzi przez trzy poziomy rozumowania moralnego, których podstawą jest rozwój poznawczy.
### Review Questions
### Critical Thinking Questions
### Personal Application Questions Zastosowania
|
# Psychologia rozwojowa
## Stadia rozwoju
Jak już mówiliśmy na początku tego rozdziału, psychologowie rozwojowi często dzielą rozwój na trzy obszary: rozwój fizyczny, poznawczy i psychospołeczny. Podobnie jak w omawianych wcześniej teoriach, w tym podrozdziale rozwój człowieka został podzielony na różne etapy zależne od wieku. Przeanalizujemy rozwój w okresach: prenatalnym, niemowlęcym, dziecięcym, dorastania i dorosłości.
### Rozwój prenatalny
Jak to wszystko się zaczęło? Od pojedynczej komórki do narodzin rozwój prenatalny (ang. ) to uporządkowana sekwencja zmian. Wyróżniamy trzy stadia rozwoju prenatalnego: okres zygoty, zarodkowy i płodowy. Przeanalizujmy, co dzieje się na każdym z tych etapów.
### Okres zygoty (1.–2. tydzień ciąży)
Gdy w jednym z wcześniejszych rozdziałów omawialiśmy psychobiologię, mówiliśmy o genetyce i DNA. DNA matki i ojca jest przekazywane potomstwu w chwili poczęcia. Do zapłodnienia (ang. ) dochodzi w chwili, gdy plemnik wnika do komórki jajowej, w wyniku czego powstaje zygota (). Zygota (ang. ) to początkowo jedna komórka, będąca efektem połączenia plemnika i komórki jajowej. Na tym etapie określone zostają cechy uwarunkowane genetycznie. W pierwszym tygodniu po zapłodnieniu zygota dzieli się, przekształcając się z jednej komórki w dwie, następnie cztery, potem osiem komórek itd. Proces podziału komórki i wszystkich komórek ciała (somatycznych) nazywamy mitozą (ang. ). Podział komórek prowadzący do powstania komórek płciowych – plemników i komórek jajowych – nazywamy mejozą (ang. ). Z badań wynika, że mniej niż połowa zygot przeżywa dwa pierwsze tygodnie (Hall, 2004). Po 5 dniach mitozy jest około 100 komórek, a po 9 miesiącach – miliardy. Przy kolejnych podziałach komórki się specjalizują, tworząc różne narządy i części ciała.
### Okres zarodkowy (3.–8. tydzień ciąży)
Po 7–10 dniach podziału, kiedy zygota liczy 150 komórek, kończy się jej wędrówka wzdłuż jajowodu i zagnieżdża się ona w śluzówce macicy. Po zagnieżdżeniu wielokomórkowy organizm zyskuje miano embrionu (zarodka) (ang. ). Rozpoczyna się tworzenie naczyń krwionośnych łączących zarodek z krwiobiegiem matki. Zaczyna powstawać łożysko (ang. ). Następuje rozwój podstawowych części zarodka, które w przyszłości staną się głową i tułowiem. Podczas okresu zarodkowego zaczyna bić serce, powstają i zaczynają funkcjonować podstawowe narządy. Formuje się cewa nerwowa, z której wykształcą się rdzeń kręgowy oraz mózg.
### Okres płodowy (9.–40. tydzień ciąży)
Od ok. 9. tygodnia ciąży zarodek zaczynamy nazywać płodem (ang. ). Na tym etapie jest wielkości fasolki i wraz z zanikiem „ogona” zaczyna przybierać kształt człowieka.
Między 9. a 12. tygodniem ciąży zaczynają się różnicować narządy płciowe, przybierając postać charakterystyczną dla danej płci. W 16. tygodniu płód mierzy ok. 11 cm. Palce u rąk i nóg są całkowicie wykształcone, widoczne są linie papilarne. W 6. miesiącu płód waży do 700 g. Ma rozwinięty słuch, więc reaguje na dźwięki z zewnątrz, np. na głos czy muzykę. Narządy wewnętrzne takie jak płuca, serce, żołądek i jelita, są wystarczająco rozwinięte, by dziecko urodzone przedwcześnie na tym etapie miało szansę przeżyć poza łonem matki. W trakcie okresu płodowego rośnie i rozwija się mózg, którego objętość między 16. a 28. tygodniem zwiększa się niemal dwukrotnie. Około 36. tygodnia płód jest niemal w pełni ukształtowany. Waży ok. 2,7 kg i ma ok. 47 cm wzrostu, a w 37. tygodniu wszystkie narządy są wystarczająco rozwinięte, by dziecko mogło przeżyć poza organizmem matki. Płód w dalszym ciągu rośnie. Około 40. tygodnia przychodzi czas narodzin. Rozwój płodu na poszczególnych etapach przedstawia .
### Czynniki wpływające na rozwój w okresie prenatalnym
Na każdym etapie okresu prenatalnego na rozwój płodu mogą wpływać czynniki genetyczne, środowiskowe i stan zdrowia matki, która powinna być objęta opieką prenatalną (ang. ). W jej trakcie monitoruje się zdrowie matki i płodu (). Według Narodowego Instytutu Zdrowia w Stanach Zjednoczonych (ang. ) ([NIH], 2013) oraz w Polsce, zgodnie z Rozporządzeniem Ministra Zdrowia z dnia 16 sierpnia 2018 r. w sprawie standardu organizacyjnego opieki okołoporodowej (Dz. U. z 2018 r., poz. 1756), rutynowa opieka prenatalna zmniejsza ryzyko wystąpienia powikłań zdrowotnych u matki i płodu podczas ciąży. Kobiety, które zamierzają zajść w ciążę lub mogą zajść w ciążę, powinny omówić swoje plany z lekarzem. Ten może zalecić na przykład suplementację kwasem foliowym, który pomaga zapobiegać wadom cewy nerwowej u płodu, lub monitorowanie diety czy wysiłku fizycznego. Coraz więcej badań wskazuje, że szanse rozwojowe w okresie prenatalnym zależą także od zdrowia ojca.
Substancje odżywcze i tlen są dostarczane płodowi przez łożysko; przedostają się przez nie wszystkie substancje, które trafiają do krwiobiegu matki, łącznie ze spożywanymi przez nią lekami oraz z substancjami zanieczyszczającymi środowisko, w którym przebywa matka.
Teratogen (ang. ) to biologiczny, chemiczny lub fizyczny czynnik środowiskowy uszkadzający zarodek lub płód. Istnieją różne typy teratogenów. Alkohol i większość leków przedostają się z krwią przez łożysko i wpływają na płód. Badania potwierdzają, że spożywanie nawet niewielkiej ilości alkoholu podczas ciąży jest główną możliwą do uniknięcia przyczyną upośledzeń intelektualnych dzieci (Maieri West, 2001).
Alkohol spożywany przez matkę w czasie ciąży może powodować spektrum poalkoholowych wrodzonych zaburzeń rozwojowych (FASD) (ang. ) mających wpływ na życie dziecka (). Zmiany w rozwoju fizycznym u dzieci z FASD mogą obejmować m.in. zmniejszony obwód głowy i charakterystyczne rysy twarzy. Pod względem rozwoju poznawczego dzieci mają problemy z myśleniem przyczynowo-skutkowym, są impulsywne, częściej występuje u nich ADHD, mają trudności z uczeniem się i niższy iloraz inteligencji. Skutki tych problemów rozwojowych utrzymują się i widoczne są w okresie dorosłości (Streissguth et al., 2004). Co więcej, wyniki badań przeprowadzonych na zwierzętach wskazują, że spożywanie alkoholu przez matkę w czasie ciąży może mieć związek z nadużywaniem alkoholu w dorosłym życiu dziecka (Youngentob et al., 2007).
Palenie papierosów jest również uznawane za teratogen, ponieważ nikotyna przedostaje się przez łożysko do płodu. Palenie obniża też nasycenie tlenem krwi matki oraz płodu. Według Centrów Kontroli i Prewencji Chorób (ang. ) (2013) palenie papierosów w czasie ciąży może wywołać przedwczesny poród, niską masę urodzeniową dziecka, urodzenie martwego dziecka i nagłą śmierć łóżeczkową (ang. ).
Heroina, kokaina, metamfetamina, niemal wszystkie leki na receptę i większość leków bez recepty uznawane są za teratogeny. Niemowlęta urodzone z uzależnieniem od heroiny potrzebują jej tak samo jak uzależniony dorosły. Dziecko trzeba stopniowo odzwyczajać od narkotyku pod nadzorem medycznym, w innym przypadku grożą mu zaburzenia mogące spowodować śmierć. Innymi teratogenami są np. promieniowanie rentgenowskie, wirusy takie jak HIV, opryszczka czy różyczka. Współcześnie w wielu krajach, w tym w Polsce, kobiety mają dużo mniejsze ryzyko zachorowania na różyczkę, ponieważ większość z nich w dzieciństwie została zaszczepiona, co chroni je przed chorobą.
Każdy narząd płodu rozwija się na określonym etapie ciąży, zwanym okresem wrażliwym (krytycznym) (ang. ) (). W badaniu z udziałem naczelnych z FASD wykazano, że moment, w którym rozwijający się płód jest wystawiony na działanie alkoholu, może znacząco wpłynąć na pojawienie się charakterystycznych rysów twarzy związanych z alkoholowym zespołem płodowym. W szczególności badanie wskazuje, że ekspozycja na alkohol do 19. lub 20. dnia ciąży może prowadzić do znaczących zmian morfologicznych w twarzy dziecka (Ashley, Magnuson, Omnell, Clarren, 1999). Określono też okresy, podczas których poszczególne części mózgu są szczególnie narażone na teratogenne działanie alkoholu (Tran, Kelly, 2003).
### Od niemowlęctwa do dzieciństwa
Noworodek waży średnio ok. 3,5 kg. Wszystkie zdrowe dzieci rodzą się z odruchami wrodzonymi (ang. ) będącymi reakcjami na określony rodzaj bodźca. Odruchy wrodzone pomagają dziecku przeżyć do czasu, gdy rozwiną bardziej złożone zachowania; są kluczowe do przetrwania. U prawidłowo rozwijającego się noworodka większość z nich zanika ok. 4.–5. miesiąca. Przyjrzyjmy się niektórym z tych odruchów. Odruch toniczno-szyjny (ang. ) jest odpowiedzią noworodka na cokolwiek, co dotknie jego policzka: kiedy pogłaszczemy noworodka po policzku, odruchowo odwróci w tę stronę głowę i zacznie ssać. Odruch ssania (ang. ) to automatyczne ruchy ssące, które noworodki wykonują ustami. Gdy na przykład położymy palec na dłoni noworodka, zauważymy odruch chwytania (ang. ) – dziecko automatycznie łapie wszystko, co dotknie jego dłoni. Zaś odruch Moro (odruch obejmowania) (ang. ) jest odpowiedzią noworodka na gwałtowną zmianę położenia ciała. Dziecko prostuje kończyny i rozkłada ramiona, po czym przyciąga je do siebie w geście obejmowania.
Co widzą, słyszą i czują niemowlęta? Wiele z wrodzonych preferencji niemowlęcia ułatwia interakcję z opiekunami i innymi ludźmi. Choć wzrok jest najsłabiej rozwiniętym zmysłem, niemowlę wykazuje już preferencję do patrzenia na twarze. Zaledwie kilkudniowe noworodki wolą słuchać głosu człowieka niż innych dźwięków. Dłużej słuchają głosów ludzkich niż odgłosów, które nie są mową (Vouloumanosi Werker, 2004). Ponadto wolą słuchać głosu matki niż obcych głosów (Millsi Melhuish, 1974). Przeprowadzono eksperyment, w którym trzytygodniowe niemowlęta dostały smoczki z nagranym głosem matki lub obcym głosem. Kiedy niemowlęta usłyszały głos matki, ssały smoczek mocniej (Millsi Melhuish, 1974). Niemowlęta mają też dobrze rozwinięty zmysł węchu. Potrafią np. odróżnić zapach matki od zapachu innych osób. W badaniu przeprowadzonym przez MacFarlane (1978) jednotygodniowe noworodki karmione piersią zostały położone między dwoma gazikami. Jeden pochodził z biustonosza obcej matki karmiącej, a drugi z biustonosza matki dziecka. Ponad 2/3 jednotygodniowych noworodków obróciło się do gazika z zapachem matki.
### Rozwój fizyczny
W okresie noworodkowym, niemowlęcym i wczesnego dzieciństwa rozwój fizyczny jest bardzo szybki (). Noworodki ważą średnio od 2,3 kg do 4,5 kg, a ich masa ciała zazwyczaj wzrasta dwukrotnie po 6 miesiącach i trzykrotnie po roku. Po 2 latach dzieci ważą 4 razy więcej niż po urodzeniu, co oznacza, że dwulatek powinien ważyć między 9 kg a 18 kg. Średnia długość ciała noworodka to 50 cm, po 12 miesiącach wzrasta do 75 cm, a po 2 latach do 87 cm (Wieloośrodkowe Badania nad Rozwojem Fizycznym z inicjatywy Światowej Organizacji Zdrowia (ang. ), 2006).
W niemowlęctwie i dzieciństwie wzrastanie nie następuje w jednostajnym tempie (Carel, Lahlou, Roger, Chaussain, 2004). Ulega ono spowolnieniu między 4. a 6. rokiem życia. W tym czasie dziecko przybiera 2–3 kg i rośnie o 5–8 cm rocznie. Po ukończeniu 8.–9. roku życia dziewczynki rosną szybciej niż chłopcy w wyniku skoku pokwitaniowego. Okres ten trwa do około 12. roku życia, kiedy pojawia się pierwsza miesiączka. Czas wystąpienia pierwszej menstruacji jest uwarunkowany genetycznie. W wieku 10 lat dziewczynka waży średnio 40 kg, a chłopiec średnio 38 kg.
Mózg rozwija się przez całe życie. Neurogeneza – proces powstawania nowych komórek nerwowych – dzieli się na neurogenezę embrionalną (okres prenatalny) oraz postnatalną. Współcześnie coraz większą uwagę zwraca się na czynniki wspierające procesy neurogenezy mózgu, szczególnie te związane ze stylem życia (Cortright, 2018). Jednak proces neurogenezy jest najintensywniejszy w okresie prenatalnym i właśnie wtedy powstaje większość neuronów. Następnie w okresie noworodkowym i niemowlęcym każda droga nerwowa tworzy tysiące nowych połączeń. Ten okres szybkiego rozwoju układu nerwowego nazywany jest synaptogenezą. Szlaki nerwowe rozwijają się nadal w okresie dorastania. Po okresie szybkiego rozwoju układu nerwowego następuje okres przycinania synaptycznego, gdy zredukowana zostaje liczba połączeń neuronalnych.
Uważa się, że dzięki przycinaniu synaptycznemu mózg może funkcjonować bardziej efektywnie dzięki opanowywaniu bardziej złożonych operacji (Hutchinson, 2011). Synaptogeneza trwa przez całe życie, ale najintensywniejsza jest podczas pierwszych kilku lat życia. Stanowi ona podstawę neuroplastyczności mózgu. Rozwój mózgu zachodzi dzięki plastyczności rozwojowej. W sytuacji trudności rozwojowych lub uszkodzenia ośrodkowego układu nerwowego znaczenia nabiera plastyczność naprawcza (Borkowska i Domagalska, 2008). Mózg małego dziecka jest bardzo plastyczny i szybko się rozwija, m.in. dzięki odpowiednim oddziaływaniom ze strony środowiska. Z drugiej strony należy pamiętać, że w tym okresie jest szczególnie narażony na czynniki ryzyka.
Mózg szybko rośnie. Na przykład mózg 2-latka stanowi 55% mózgu dorosłego, a mózg 6-latka już 90% (Tanner, 1978). We wczesnym dzieciństwie (3–6 lat) szybko rosną płaty czołowe. Przypomnij sobie, jak omawialiśmy role czterech płatów mózgu. Płaty czołowe są odpowiedzialne za planowanie, rozumowanie, pamięć oraz kontrolę impulsów. Tym samym w chwili, gdy dziecko osiąga wiek szkolny, potrafi kontrolować swoją uwagę i zachowanie. W okresie wczesnoszkolnym płaty czołowe, skroniowe, potyliczne i ciemieniowe stają się większe. Okresy wzrostu mózgu w dzieciństwie pokrywają się z etapami rozwoju intelektualnego Piageta, zatem znaczące zmiany w funkcjonowaniu układu nerwowego są odpowiedzialne za rozwój poznawczy (Kolbi Whishaw, 2009; Overman et al., 1992). Warto jednak pamiętać, że pełną dojrzałość mózg – szczególnie płaty czołowe – osiąga dopiero w wieku 20–25 lat.
Rozwój motoryczny następuje w uporządkowanej kolejności wraz z przejściem od odruchów wrodzonych (np. ssania) do bardziej zaawansowanych funkcji motorycznych. Na przykład dzieci najpierw uczą się utrzymywać głowę, następnie siadać z pomocą, potem bez pomocy opiekuna, po czym zaczynają raczkować i chodzić.
Motoryka (ang. ) oznacza zdolność poruszania się i manipulowania przedmiotami. Mała motoryka (ang. ) odnosi się do sprawności ruchowej rąk w zakresie koordynowania czynności wymagających precyzji; ważny jest tu także proces koordynacji oko-ręka (np. chwytanie zabawki, pisanie ołówkiem, używanie łyżki). Motoryka duża (ang. ) odnosi się do sprawności fizycznej całego ciała wykorzystywanej podczas poruszania się (np. utrzymywanie równowagi, bieganie czy skakanie).
W miarę rozwoju motoryki dziecko powinno osiągać kolejne etapy rozwoju (). Dla każdego kamienia milowego określony został średni wiek oraz przedział wiekowy, w którym powinien on zostać osiągnięty. Przykładem kamienia milowego jest siadanie. Wymaga ono zarówno koordynacji, jak i siły mięśni. Średnio dzieci siadają same w wieku 7 miesięcy. 90% niemowląt osiąga ten kamień milowy między 5. a 9. miesiącem życia. Innym przykładem może być trzymanie główki. Średnio dzieci osiągają ten kamień milowy w wieku 6 tygodni, a 90% niemowląt między 3. tygodniem a 4. miesiącem życia. Jeśli rozwój dziecka wykazuje opóźnienia w zakresie wielu kamieni milowych, rodzic lub opiekun powinien przedyskutować taką sytuację z pediatrą. Niektóre opóźnienia rozwojowe można rozpoznać i zniwelować dzięki wczesnej interwencji.
### Rozwój poznawczy
Oprócz szybkiego rozwoju fizycznego u małego dziecka występuje również znaczący rozwój zdolności poznawczych. Piaget sądził, że zdolność dzieci do umysłowej reprezentacji przedmiotu (tzw. stałość przedmiotu), np. rozumienie, że grzechotka wydaje dźwięk, gdy się nią potrząśnie, jest umiejętnością poznawczą, którą dziecko rozwija powoli w miarę dorastania i współdziałania z otoczeniem. Dziś psychologowie rozwojowi uważają, że Piaget nie miał racji. Badacze udowodnili, że nawet bardzo małe dzieci rozwijają schematy poznawcze w odniesieniu do różnych przedmiotów na długo przed zetknięciem z nim (Baillargeon, 1987; Baillargeon, Li, Gertner, Wu, 2011). Na przykład dzieci w wieku zaledwie 3 miesięcy wykazywały oczekiwanie co do właściwości niektórych przedmiotów, które jedynie widziały i z którymi nie miały wcześniejszej styczności. Podczas jednego z badań trzymiesięcznym niemowlętom pokazano ciężarówkę zjeżdżającą z górki po torze. Obok toru ciężarówki ustawiono pudełko, które wydawało się bryłą, lecz w rzeczywistości było otwarte na wylot. Ciężarówka, jak można było się spodziewać, przejechała obok pudełka. Następnie pudełko zostało umieszczone na torze, na drodze przejazdu ciężarówki. Ciężarówka, oczywiście, bez problemu przejechała przez niewidoczny dla dziecka otwór w pudełku. Niemowlęta spędziły zdecydowanie więcej czasu na przyglądaniu się temu zaskakującemu dla nich zdarzeniu niż na oglądaniu pierwszej sytuacji (). Baillargeon (1987) uznał, że dzieci wiedzą, że obiekty stałe nie mogą przez siebie przenikać. Wyniki tych badań sugerują, że bardzo małe dzieci posiadają stałość reprezentacji przedmiotu, co według Piageta (1954) było poza ich zdolnościami poznawczymi ze względu na ograniczoną ilość własnych doświadczeń.
Tak jak dzieci osiągają kamienie milowe w rozwoju fizycznym, tak też istnieją kamienie milowe w rozwoju poznawczym. Ich znajomość jest bardzo pomocna, gdy mamy do czynienia z dzieckiem zdobywającym nowe umiejętności myślenia, rozwiązywania problemów i komunikowania. Na przykład niemowlęta kręcą głową, by powiedzieć „nie”, w wieku około 6–9 miesięcy i reagują na polecenia typu „zrób pa pa” lub „wyślij buziaka” około 9.–12. miesiąca. Pamiętacie definicję stałości reprezentacji obiektu Piageta? Możemy przyjąć, że dziecko w wieku ok. 8 miesięcy będzie rozumiało, że rzecz nadal istnieje, nawet jeśli znika z pola widzenia. Ponieważ dzieci między 12. a 24. miesiącem życia wykształciły już stałość reprezentacji obiektu, lubią bawić się np. w chowanego, bo rozumieją, że ktoś, kto wychodzi z pokoju, do niego wróci (Loop, 2013). Dzieci w tym wieku potrafią również pokazywać obrazki w książkach i szukać w odpowiednich miejscach, gdy poprosi się je o znalezienie czegoś.
Dzieci w wieku przedszkolnym (3–5 lat) wciąż rozwijają się pod względem poznawczym. Potrafią nie tylko liczyć, nazywać kolory, powiedzieć, jak mają na imię i ile mają lat, lecz także podejmować samodzielnie niektóre decyzje, np. w kwestii swojego ubrania. Dzieci w wieku przedszkolnym rozumieją podstawowe zasady czasu i chronologii (np. „przed” i „po”) oraz potrafią powiedzieć, co wydarzy się dalej w bajce. Zaczynają doceniać humor w opowiadanych historiach. Ponieważ umieją myśleć symbolicznie, lubią bawić się w udawanie i wymyślają złożone postaci i historie. Jednym z najbardziej znanych przykładów rozwoju poznawczego dzieci w wieku przedszkolnym jest ich ogromna ciekawość. Dzieci w tym wieku uwielbiają pytać „dlaczego”.
W tym wieku zachodzi ważna zmiana w rozwoju poznawczym. Pamiętacie, że Piaget opisywał dzieci między 2. a 3. rokiem życia jako egocentryczne w znaczeniu braku świadomości istnienia innych punktów widzenia? Między 3. a 5. rokiem życia dzieci zaczynają rozumieć, że inni ludzie mają myśli, uczucia i że są one inne niż ich własne. Nazywamy to teorią umysłu (ang. ). Wprowadzony pod koniec XX wieku termin „teoria umysłu” odnosi się do umiejętności rozumienia zachowania swojego i innych osób oraz przewidywania zachowania i jego konsekwencji. Na przykład dziecko, które ogląda książkę i chce pokazać drugiej osobie ilustrację w niej zawartą, rozumie, że musi skierować książkę w stronę tej osoby. Oznacza to, że najpierw musi przyjąć punkt widzenia drugiej osoby, żeby zrozumieć, iż jej perspektywa jest inna (Trempała, 2011).
W późnym dzieciństwie (6–11 lat) nadal rozwijają się umiejętności poznawcze. Procesy myślowe stają się bardziej logiczne i zorganizowane (). Dzieci w tym wieku rozumieją, czym jest przeszłość, teraźniejszość i przyszłość, dzięki temu potrafią planować i starać się zrealizować cel. Ponadto potrafią przeprowadzać złożone operacje myślowe, jak dodawanie i odejmowanie czy dostrzeganie relacji przyczynowo-skutkowych. Jednak czas skupienia uwagi dziecka w tym wieku jest zazwyczaj bardzo ograniczony. Zaczyna się znacznie wydłużać od ok. 11. roku życia aż do okresu dorosłości.
Jednym z bardzo dobrze zbadanych aspektów rozwoju poznawczego jest rozwój mowy. Jak wspomnieliśmy wcześniej, kolejność, w jakiej dzieci uczą się struktur językowych, jest jednakowa u wszystkich dzieci niezależnie od kultury (Hatch, 1983). Jak już także wcześniej wspomnieliśmy, niektórzy badacze sugerują, że dzieci posiadają biologiczne predyspozycje do przyswajania języka.
Rozwój umiejętności komunikacyjnych rozpoczyna się jeszcze przed narodzeniem. W chwili urodzenia dzieci rozpoznają głos matki i potrafią odróżnić język lub więcej języków, którymi mówi ich matka, od obcych języków. Wykazują też preferencje do twarzy, które poruszają się synchronicznie ze słyszanymi słowami (Blossomi Morgan, 2006; Pickens, 1994; Spelkei Cortelyou, 1981).
Dzieci komunikują się za pomocą gestów na długo przed tym, zanim zaczną mówić. Istnieją dowody, że używanie gestów zwiastuje rozwój języka (Iversoni Goldin-Meadow, 2005) – zaczynają głużyć niemal od razu. (Głużenie to wydawanie jednosylabowych dźwięków złożonych ze spółgłoski i samogłoski (np. „gu” lub „ba”)). Co interesujące, dzieci naśladują dźwięki z języków zasłyszanych w swoim otoczeniu. Dziecko, którego rodzice mówią po francusku, będzie głużyło inaczej niż dziecko rodziców mówiących po hiszpańsku lub w urdu. Po okresie głużenia dziecko zaczyna gaworzyć. Zaczyna się ono od powtarzania sylab, np. ma-ma, da-da lub ba-ba. Gdy dziecko ma około 12 miesięcy, oczekujemy pierwszego słowa ze znaczeniem, a ok. 18. miesiąca – łączenia słów w znaczące sekwencje.
Około 2. roku życia dziecko używa między 50 a 200 słów, w wieku 3 lat zna do 1000 słów i komunikuje się zdaniami. We wczesnym dzieciństwie zasób słów rośnie bardzo szybko, co bywa określane mianem „eksplozji”. Twierdzono, że w tym czasie dziecko powiększa słownictwo w tempie 10–20 nowych słów tygodniowo. Najnowsze badania wykazują, że choć u części dzieci następuje taka eksplozja, to jest to zjawisko dalekie od powszechności (jak opisano w pracy Gangeri Brent, 2004). Szacuje się, że pięciolatek rozumie ok. 6000 słów, w mowie posługuje się 2000, potrafi też definiować słowa i pytać o ich znaczenia. Dzieci w tym wieku potrafią rymować i nazywać dni tygodnia. Siedmiolatkowie mówią płynnie oraz używają języka potocznego i utartych fraz (Stork, Widdowson, 1974).
Co leży u źródła ogromnej zdolności przyswajania języka przez dzieci? Behawiorysta Burrhus Frederic Skinner (1904-1990) uważał, że uczymy się języka w odpowiedzi na wzmocnienia lub informację zwrotną, jak aprobata rodziców lub zostanie zrozumianym. Na przykład gdy dwulatek chce poprosić o sok, może powiedzieć „ja sok”. Mama może podać mu wówczas szklankę soku jabłkowego. Noam Chomsky (1957) skrytykował teorię Skinnera, wysuwając twierdzenie, że wszyscy rodzimy się z wrodzoną zdolnością nauki języka. Chomsky nazwał ją mechanizmem przyswajania języka (ang. ). Kto ma rację? Zarówno Chomsky, jak i Skinner. Pamiętaj, że jesteśmy efektem działań zarówno natury, jak i wychowania. Obecnie badacze uważają, że przyswajanie języka jest po części wrodzone, a po części wyuczone poprzez interakcje z naszym środowiskiem językowym (Gleitmani Newport, 1995; Storki Widdowson, 1974).
### Przywiązanie
Rozwój psychospołeczny następuje, gdy dzieci tworzą relacje, wchodzą w interakcje z innymi, rozumieją swoje uczucia i kierują nimi. W rozwoju społecznym i emocjonalnym tworzenie przywiązania jest bardzo ważne i stanowi najważniejszy kamień milowy w okresie niemowlęctwa. Przywiązanie (ang. ) to długotrwały związek (lub więź) z innymi osobami. Psychologowie rozwojowi próbują dowiedzieć się, w jaki sposób niemowlęta osiągają ten kamień milowy. Szukają odpowiedzi na pytania: Jak powstają więzi między opiekunami a niemowlęciem? Jak zaniedbanie wpływa na te więzi? Z czego wynikają różne wzorce przywiązania dzieci?
Harry Harlow (1905-1981), John Bowlby (1907-1990) i Mary Ainsworth (1913-1999) wykonali badania mające odpowiedzieć na te pytania. W latach 50. Harlow przeprowadził serię eksperymentów z udziałem małp. Odseparował nowo narodzone małpy od ich matek. Każdy noworodek dostał dwie „matki zastępcze”. Jedną zrobioną z drutu, z przymocowaną butelką mleka, i drugą bardziej miękką, wykonaną z materiału, która nie podawała mleka. Badanie wykazało, że małpy wolały miękką, przytulną matkę z materiału, nawet jeśli nie zapewniała jedzenia. Noworodki spędzały czas, wtulając się w materiałową małpę i udawały się do drucianej tylko wtedy, gdy były głodne. Przed tym badaniem przypuszczano, że dzieci przywiązują się do osób, które zapewniają im pożywienie. Jednak Harlow (1958) dowiódł, że więź matki i dziecka to nie tylko pożywienie. Poczucie komfortu i bezpieczeństwa to podstawowy budulec więzi między opiekunem a dzieckiem, pozwalający na zdrowy rozwój psychospołeczny.
Bazując na badaniach Harlowa i innych, John Bowlby sformułował teorię przywiązania (ang. ). Zdefiniował przywiązanie jako emocjonalną więź, którą niemowlę wykształca względem matki (Bowlby, 1969). Dziecko musi wykształcić taką więź z głównym opiekunem, by móc prawidłowo rozwijać się społecznie i emocjonalnie. Ponadto Bowlby uważał, że taka więź jest bardzo silna i trwa przez całe życie (1988). Bezpieczna baza (ang. ) to obecność rodzica, która daje dziecku poczucie bezpieczeństwa w czasie, gdy eksploruje ono otoczenie. Bowlby twierdził, że do wykształcenia bezpiecznego wzorca przywiązania konieczne jest spełnienie dwóch warunków: opiekun musi odpowiadać na fizyczne, społeczne i emocjonalne potrzeby dziecka oraz opiekun i dziecko muszą wchodzić w przyjemne dla obojga interakcje (Bowlby, 1969) ().
Podczas gdy Bowlby uważał, że przywiązanie jest procesem działającym na zasadzie „wszystko albo nic”, badanie Mary Ainsworth (1970) wykazało, że tak nie jest. Ainsworth chciała się dowiedzieć, czy dzieci przywiązują się w różny sposób, a jeśli tak, to dlaczego. Wykorzystywała w tym celu eksperyment nazwany „procedurą obcej sytuacji”, przez który badała przywiązanie między matkami i niemowlętami (1970). W procedurze obcej sytuacji matkę (lub głównego opiekuna) oraz dziecko (12–18 miesięcy) umieszczano razem w pokoju, w którym dostępne były zabawki; opiekun i dziecko spędzali w nim jakiś czas sami. Po czasie, w którym dziecko mogło zapoznać się z otoczeniem i eksplorować je, do pokoju wchodziła obca osoba. Następnie matka zostawiała dziecko z obcą osobą. Po kilku minutach wracała, by pocieszyć dziecko.
Na podstawie reakcji dzieci na rozłąkę z opiekunem i jego powrót Ainsworth wyróżniła trzy wzorce przywiązania między rodzicem i dzieckiem:
1.
bezpieczny
2.
lękowo-unikający
3.
lękowo-ambiwalentny (lękowo-oporny) (Ainsworth i Bell, 1970).
Czwarty wzorzec przywiązania, nazywany zdezorganizowanym, został opisany później (Maini Solomon, 1990). Najczęstszym wzorcem przywiązania – uznawanym również za najzdrowszy – jest pierwszy z wymienionych, czyli bezpieczny wzorzec przywiązania (ang. ) (). W tym wzorcu dziecko przedkłada rodzica nad obcą osobę. Osoba, do której przywiązane jest dziecko, stanowi dla niego bezpieczną bazę do eksplorowania otoczenia i jest tym, u kogo szuka pomocy w sytuacji stresowej. Dzieci wykazujące bezpieczny wzorzec przywiązania denerwowały się, gdy ich opiekunowie opuszczali pokój, lecz gdy wracali, były szczęśliwe na ich widok i opiekunowi łatwo było je uspokoić. Opiekunowie dzieci z przywiązaniem bezpiecznym są wrażliwi i reagują na potrzeby dziecka.
Dziecko z lękowo-unikającym wzorcem przywiązania (ang. ) w procedurze obcej sytuacji nie odpowiada na działania rodzica, rodzic nie stanowi dla niego bezpiecznej bazy. Gdy wychodził, dziecko nie było tym zaniepokojone i reagowało na rodzica tak samo jak na obcą osobę. Gdy rodzic wracał, dziecko bardzo wolno okazywało pozytywną reakcję. Ainsworth wnioskowała, że opiekunowie dzieci z lękowo-unikającym wzorcem przywiązania byli najprawdopodobniej nieczuli, odrzucający i ignorujący potrzeby swoich dzieci (Ainsworth et al. 1978).
W przypadkach lękowo-ambiwalentnego (lękowo-opornego) wzorca przywiązania (ang. ) w procedurze obcej sytuacji dzieci stale upewniały się o obecności rodzica, ale następnie odrzucały próby rodzica służące ich uspokojeniu (Ainsworthi Bell, 1970). Dzieci o tym wzorcu przywiązania nie próbowały zapoznać się z zabawkami w pokoju, bo za bardzo się bały. Podczas odseparowania w ramach procedury obcej sytuacji były bardzo wzburzone i złe na rodzica. Gdy rodzic wracał, trudno było mu uspokoić dziecko. Lękowo-ambiwalentny (lękowo-oporny) wzorzec przywiązania jest efektem niespójnych odpowiedzi opiekunów na potrzeby dziecka.
Dzieci o zdezorganizowanym wzorcu przywiązania (ang. ) podczas procedury obcej sytuacji zachowywały się niespójnie. Zastygały bez ruchu, biegały po pokoju w nieskoordynowany sposób lub uciekały, gdy opiekun wracał do pokoju (Main i Solomon, 1990). Ten wzorzec przywiązania obserwuje się najczęściej u dzieci, które były maltretowane. Badania wykazują, że takie dzieci tracą zdolność regulacji emocji.
Choć twierdzenia Ainsworth znalazły potwierdzenie w późniejszych badaniach, spotkały się również z krytyką. Niektórzy badacze wykazali, że temperament dziecka może mieć duży wpływ na jego wzorzec przywiązania (Gervai, 2009; Harris, 2009), inni zauważyli, że wzorce przywiązania różnią się w zależności od kultury – czynnika, który w badaniach Ainsworth nie został wzięty pod uwagę (Rothbaumet al., 2000; van Ijzendoorn, i Sagi-Schwartz, 2008).
### Samoświadomość
Tak jak przywiązanie jest najważniejszym kamieniem milowym w rozwoju psychospołecznym w okresie niemowlęctwa, tak najważniejszym psychospołecznym kamieniem milowym w dzieciństwie jest rozwój poczucia tożsamości. Niemowlęta nie posiadają samoświadomości – nie rozumieją, kim są. Jeśli posadzimy niemowlę przed lustrem, wyciągnie rączki do swojego odbicia, myśląc, że to inne dziecko. Dopiero w wieku ok. 18 miesięcy zrozumie, że odbicie w lustrze to ono. Skąd to wiemy? W eksperymencie powszechnie znanym jako „test lustra” badacz namalował czerwoną kropkę na nosach dzieci przed posadzeniem ich przed lustrem (Amsterdam, 1972). Dzieci w wieku 18 miesięcy dotykały swoich nosów, gdy zauważyły farbę, zdziwione, że mają kropkę na twarzy. Takie zachowanie obserwowane u ludzi i kilku gatunków zwierząt uważane jest za dowód, że badane osobniki rozpoznają siebie (Archer, 1992). Dzieci w wieku 24–36 miesięcy potrafią nazwać i/lub wskazać siebie na zdjęciach, wyraźnie wykazując, że się rozpoznają.
Rozwinąwszy samoświadomość, dzieci między 2. a 4. rokiem życia wykazują ogromny rozwój zachowań społecznych. Lubią się bawić z innymi dziećmi, ale z trudnością przychodzi im dzielenie się swoimi rzeczami, potrafią też powiedzieć, czy są dziewczynką, czy chłopcem (Chick, Heilman-Houser, Hunter, 2002). W wieku 4 lat dzieci potrafią współpracować z innymi dziećmi, dzielić się, gdy się je o to poprosi, i nie odczuwają większego niepokoju, gdy oddzieli się je od rodziców. Dzieci w tym wieku wykazują autonomię, inicjują działania i realizują plany. Osiągnięcie sukcesu w tych dziedzinach sprzyja rozwojowi poczucia tożsamości. Dzieci w wieku 6 lat potrafią identyfikować siebie jako członka grupy. Dzieci w wieku szkolnym porównują się z rówieśnikami i odkrywają, że są bardziej kompetentne w niektórych dziedzinach, a w innych mniej (przypomnij sobie konflikt rozwojowy „produktywność versus poczucie niższości” w koncepcji Eriksona). W tym wieku dzieci rozpoznają cechy swojej osobowości, jak również inne cechy, które chciałyby mieć. Na przykład 10-letnia Julka mówi: „Jestem nieśmiała. Chciałabym być bardziej rozmowna, jak moja koleżanka Ola”.
Rozwój samoświadomości jest ważny dla prawidłowego rozwoju osobowości. Dzieci o pozytywnej samoświadomości są zazwyczaj bardziej pewne siebie, lepiej radzą sobie w szkole, są bardziej niezależne i chętne do podejmowania nowych wyzwań (Maccoby, 1980; Ferrer, Fugate, 2003). Kształtowanie samoświadomości zaczyna się, wg Eriksona, w okresie wczesnego dzieciństwa, kiedy dzieci zaczynają wykształcać autonomię i zyskują pewność siebie w działaniach. Rozwój samoświadomości w szkole podstawowej odbywa się m.in. wówczas, gdy dzieci porównują się z innymi. Jeśli porównanie jest dla nich pomyślne, czują się kompetentne i są zmotywowane do dalszej pracy, by osiągnąć więcej. Samoświadomość podlega ponownej ocenie w eriksonowskim okresie dorastania, gdy wykształca się tożsamość. Przyswajają wówczas informacje dotyczące swoich silnych i słabych stron, uwewnętrzniając niektóre, a niektóre odrzucając. Osoby nastoletnie, które pomyślnie wykształciły tożsamość, potrafią wnieść pozytywny wkład w społeczeństwo (Erikson, 1968).
### Fenomenologiczny wariant teorii systemów ekologicznych
Pierwsze badanie psychologiczne wykorzystane przez Sąd Najwyższy USA zostało opublikowane w 1950 roku przez pionierski zespół Kenneth Clark (1903-1983) i Mamie Philips Clark (1917-1983). Naukowcy poddali obserwacji wybór lalek przez czarnoskóre dzieci. Badanie pokazało szkodliwy wpływ segregacji rasowej i stanowiło argument dowodowy w sprawie Browns i NAACP (Narodowego Stowarzyszenia na rzecz Wspierania Ludności Kolorowej) przeciwko systemowi edukacji. Spostrzeżenie, że badane dzieci częściej wybierały lalkę białą niż czarną, zarówno w stanach północnych, jak i południowych, doprowadziło badaczy do wniosku, że dzieci mają zaburzone postrzeganie siebie (Clark i Clark, 1950).
Nowsze badania wykazały jednak, że wybór lalek przez czarnoskóre dzieci nie był podyktowany ich wysokim bądź niskim poczuciem własnej wartości lub świadomością własnego wizerunku. Rogers i Meltzoff (2017) udowodnili, że w zróżnicowanej etnicznie populacji dziesięciolatków własna identyfikacja płciowa jest dla nich ważniejsza niż kolor skóry; jednocześnie tożsamość rasowa jest istotniejsza dla przedstawicieli mniejszości etnicznych niż dla dzieci o białym kolorze skóry. U dziesięcioletnich dzieci świadomość przynależności etnicznej dopiero się kształtuje. Natomiast wśród nastolatków należących do mniejszości etnicznych tożsamość rasowa, etniczna lub kulturowa jest już bardzo ważna i w dużym stopniu zależy od środowiska rodzinnego – to z domu wynosi się informacje o pozytywnych aspektach życia, w określonym kręgu kulturowym czy etnicznym.
Opracowano kilka teorii wyjaśniających zachowania młodzieży należących do mniejszości etnicznych. Jedną z takich teorii jest fenomenologiczny wariant teorii systemów ekologicznych (ang. ) zaproponowany przez Margaret Beale Spencer (ur. 1944). Jest to połączenie fenomenologii i modelu U. Bronfenbrennera. Istotą podejścia fenomenologicznego jest nadawanie znaczenia własnym doświadczeniom, np. czarnoskórzy chłopcy mają inne doświadczenia w środowisku edukacyjnym niż dziewczęta, więc przypisują tym doświadczeniom inne znaczenia. Model Urie Bronfenbrennera (1917-2005) sugeruje natomiast, że rozwój zachodzi w oparciu o interakcje między środowiskami, takimi jak szkoła, rodzina i społeczność (Bronfenbrenner, 1977).
Z badania z udziałem czarnoskórych nastolatków (Spencer, Dupree i Hartmann, 1997) wynika, że niechęć do nauki wiąże się z brakiem popularności wśród rówieśników, zarówno dziewcząt, jak i chłopców. Ponadto u chłopców silniejszy stres szkolny łączy się z mniej negatywnym nastawieniem do nauki – prawdopodobnie dlatego, że bardziej skupiają się oni na środowisku szkolnym niż na kwestiach osobistych. Dzieje się tak, gdy młodzież dostrzega, że nauczyciele mają wobec niej pozytywne oczekiwania. Naukowcy wyjaśniają tę obserwację modelem PVEST: zmiany postaw następują pod wpływem oczekiwań wyrażanych przez środowisko (tu m.in. nauczycieli), po czym obserwuje się sprzężenie zwrotne: nauczyciele, widząc pozytywny efekt swoich działań, wzmacniają pozytywny przekaz.
Co mogą zrobić rodzicie, by pomóc dziecku wykształcić prawidłowo samoświadomość? Diana Baumrind (1971, 1991) uważa, że wpływ na to może mieć styl wychowania. Sposób wychowania może być znaczącym czynnikiem w rozwoju społeczno-emocjonalnym dziecka. Badaczka opracowała teorię opisującą cztery style wychowania: autorytatywny, autorytarny, permisywny i niezaangażowany. W autorytatywnym stylu wychowania (ang. ) rodzice mają racjonalne wymagania i wyznaczają spójne ograniczenia, wykazują się ciepłem i zaangażowaniem uczuciowym, słuchają opinii dziecka. Rodzice ustalają reguły i wyjaśniają, dlaczego je określają. Są elastyczni i gotowi do zrobienia wyjątku od reguły w niektórych przypadkach – na przykład czasowe rozluźnienie godzin snu, pozwalające na nocne pływanie z rodziną podczas wakacji. Z czterech stylów wychowania styl autorytatywny jest stylem najbardziej propagowanym we współczesnych społeczeństwach kultury zachodniej. Dzieci wychowywane zgodnie z nim mają zazwyczaj wysoką samoocenę i rozwinięte umiejętności społeczne. Jednak skuteczny styl wychowania zależy od kultury i, jak zaznacza Small (1999), autorytatywny styl wychowania niekoniecznie jest preferowany i odpowiedni w innych kulturach.
W autorytarnym stylu wychowania (ang. ) rodzice kładą duży nacisk na podporządkowanie i posłuszeństwo. Rodzice są często stanowczy, ściśle kontrolują dzieci i okazują niewiele ciepła. W przeciwieństwie do autorytatywnego stylu w stylu autorytarnym rodzice zapewne nie poluzowaliby godzin kładzenia się spać i pobudki podczas wakacji, ponieważ uważają, że zasady zostały ustalone i oczekują, by były przestrzegane. Ten styl wychowania może wykształcić dziecko niespokojne, wycofane i nieszczęśliwe. Jednak należy zaznaczyć, że styl autorytarny w niektórych grupach etnicznych może być, w niektórych obszarach życia, równie korzystny co styl autorytatywny (Russell et al., 2010). Na przykład pierwsze pokolenie dzieci Amerykanów pochodzenia chińskiego wychowane przez autorytarnych rodziców radziło sobie w szkole równie dobrze jak ich rówieśnicy wychowani przez rodziców autorytatywnych (Russell et al., 2010).
Gdy rodzice stosują permisywny styl wychowania (ang. ), to dziecko dyktuje warunki i robi, co chce. Rodzice permisywni stawiają niewiele wymagań i rzadko są konsekwentni. Zazwyczaj okazują bardzo dużo troski i miłości i czasami są bardziej przyjaciółmi niż rodzicami. W naszym przykładzie z wakacyjnymi godzinami spania rodzice permisywni mogą nie ustalić godzin snu – pozwalają dziecku zdecydować, kiedy chce iść spać, bez względu na to, czy są wakacje czy nie. Nie zaskakuje zatem, że dzieci wychowane przez permisywnych rodziców są zazwyczaj niezdyscyplinowane. Ponadto permisywny styl wychowania ma negatywny wpływ na oceny w szkole (Dornbusch et al., 1987). Może on skutkować również innymi, niebezpiecznymi zachowaniami, na przykład nadużywaniem alkoholu (Bahr, Hoffman, 2010) lub niebezpiecznymi zachowaniami seksualnymi, zwłaszcza wśród dziewcząt (Donenberg et al., 2002), oraz zwiększoną liczbą zachowań destrukcyjnych wśród chłopców (Parent et al., 2011). Istnieją jednak pewne pozytywne efekty płynące z wychowania przez permisywnych rodziców. Ich dzieci mają zazwyczaj wyższą samoocenę, lepsze umiejętności społeczne oraz deklarują niższy poziom depresji (Darling, 1999).
W niezaangażowanym stylu wychowania (ang. ) rodzicie są obojętni i niezaangażowani, bywają określani jako zaniedbujący. Nie odpowiadają na potrzeby dziecka i stawiają im relatywnie niewiele wymagań. Może być to spowodowane silną depresją, nadużywaniem środków odurzających lub też innymi czynnikami, np. przesadnym skupieniem rodzica na pracy. Rodzice niezaangażowani mogą zaspokajać podstawowe potrzeby dzieci, lecz niewiele więcej. Dzieci wychowane w taki sposób są zazwyczaj emocjonalnie wycofane, bojaźliwe, niespokojne oraz źle radzą sobie w szkole. Wykazują również zwiększone ryzyko nadużywania substancji psychoaktywnych (Darling, 1999).
Jak widać, style wychowania mogą wpłynąć na przystosowanie dziecka, ale czy jego temperament może wpływać na sposób wychowania? Temperament (ang. ) to wrodzone cechy mające wpływ na to, jak myślimy, zachowujemy się i reagujemy na bodźce ze środowiska. Dzieci z łatwym temperamentem wykazują pozytywne emocje, dobrze adaptują się do zmian i potrafią kontrolować swoje emocje. Zaś dzieci z bardziej wymagającym temperamentem (tzw. temperament wolno rozgrzewający się) wykazują negatywne emocje, mają trudności z adaptowaniem się do zmian oraz z kontrolą emocji. Dzieci z trudnym temperamentem są zazwyczaj dużo większym wyzwaniem dla rodziców, nauczycieli i innych opiekunów (Thomas, 1984). Tym samym możliwe, że spokojne dzieci (tj. towarzyskie, łatwo adaptujące się i łatwe do uspokojenia) ułatwiają rodzicom wychowanie pełne troski i wrażliwości, podczas gdy wymagające, drażliwe dzieci mają negatywny wpływ na rodziców, powodując ich wycofanie (Sanson, Rothbart, 1995).
### Dorastanie
„Dorastanie” to pojęcie, które zawdzięczamy rozwojowi społecznemu. Przed rewolucją przemysłową dzieci uznawane były za dorosłych w momencie, gdy osiągały dojrzałość fizyczną. Współcześnie okres między dzieciństwem a dojrzałością został wydłużony i nazwany „dorastaniem”. Dorastanie (wiek młodzieńczy, adolescencja) (ang. ) to okres rozwoju rozpoczynający się pokwitaniem i kończący we wczesnej dorosłości (która zostanie omówiona później). Dorastanie jest uznawane za czas, w którym rozwija się niezależność od rodziców, choć nastolatki nadal pozostają pod ich opieką (). Typowy przedział wiekowy dorastania to 12–18/20 lat. W odniesieniu do okresu dorastania należy przyjąć, że granice jego zakończenia są umowne ze względu na duże różnice indywidualne w realizacji zadań rozwojowych. W tym okresie również wyróżnia się fizyczne, poznawcze i psychospołeczne kamienie milowe.
### Rozwój fizyczny
Dorastanie zaczyna się pokwitaniem. O ile kolejność zmian fizycznych związanych z pokwitaniem jest możliwa do przewidzenia, o tyle moment ich nadejścia i tempo postępowania mogą być bardzo różne. W tym okresie zachodzi wiele zmian fizycznych, jak adrenarche (ang. ) i gonadarche (ang. ), czyli dojrzewanie odpowiednio nadnerczy i gruczołów płciowych. W tym czasie rozwijają się również pierwszorzędowe i drugorzędowe cechy płciowe. Pierwszorzędowe cechy płciowe (ang. ) to gonady: jajniki u kobiet oraz jądra u mężczyzn. Drugorzędowe cechy płciowe (ang. ) to fizyczne objawy dojrzewania płciowego niezwiązane bezpośrednio z narządami płciowymi, jak powiększenie piersi i bioder u dziewcząt oraz pojawienie się owłosienia na twarzy i obniżenie głosu u chłopców. U dziewczynek pojawia się pierwsza miesiączka (menstruacja, menarche) (ang. ), zwykle ok. 12.–13. roku życia, a u chłopców spermarche (ang. ), pierwszy wytrysk (polucja) ok. 13.–14. roku życia.
W czasie pokwitania obie płcie doświadczają szybkiego wzrostu ciała (tzw. skoku pokwitaniowego). U dziewcząt zaczyna się on między 8. a 13. rokiem życia, a dorosły wzrost zostaje osiągnięty między 10. a 16. rokiem życia. Chłopcy zaczynają gwałtownie rosnąć trochę później, zazwyczaj między 10. a 16. rokiem życia, a dorosły wzrost osiągają między 13. a 17. rokiem życia. Na ostateczny wzrost mają wpływ zarówno geny, jak i środowisko (np. odżywianie, przyjmowane leki, przebyte choroby).
Ponieważ tempo rozwoju fizycznego jest kwestią indywidualną, pokwitanie może być powodem do dumy lub wstydu. Wcześnie dojrzewający chłopcy są zazwyczaj silniejsi, wyżsi i lepiej zbudowani niż dojrzewający później. Zazwyczaj są też bardziej popularni, pewni siebie i niezależni, ale też wykazują większe ryzyko nadużywania substancji psychoaktywnych oraz wczesnej inicjacji seksualnej (Flannery et al., 1993; Kaltiala-Heino et al., 2001). Wcześnie dojrzewające dziewczęta mogą być ofiarami docinków lub słyszeć komentarze wyrażające podziw, co czasami wywołuje u nich zażenowanie związane z brakiem akceptacji dla zmian w rozwijającym się ciele. Takie dziewczęta wykazują większe ryzyko depresji, nadużywania substancji psychoaktywnych i zaburzeń odżywiania (Ge et al., 2001; Graber et al., 1997; Striegel-Moore i Cachelin, 1999). Późno dojrzewający chłopcy i dziewczęta (tj. rozwijający się wolniej niż rówieśnicy) mogą być zaniepokojeni brakiem oczekiwanych zmian w rozwoju fizycznym. Negatywne emocje są szczególnym problemem w przypadku późno dojrzewających chłopców, u których występuje większe ryzyko depresji i konfliktu z rodzicami (Graber et al., 1997). Tacy chłopcy mogą też stać się ofiarami dręczenia (Pollacki Shuster, 2000). Warto w tym miejscu dodać, że zmiany zachodzące w ciele chłopców – wzrost masy mięśniowej, charakterystyczna męska, trójkątna sylwetka, najczęściej wpływają na podwyższenie samooceny. Jedynym elementem męskiego pokwitania mogącym powodować problemy jest mutacja. W przypadku dziewcząt ciało zmienia się w sposób, który jest często trudny do zaakceptowania, w związku z panującymi wzorcami kulturowymi – powiększenie bioder i przyrost tkanki tłuszczowej mogą być przyczyną obniżenia samooceny.
Do czasu pokwitania komórki mózgowe wciąż namnażają się w płatach czołowych. Możliwe, że osoby nastoletnie podejmują ryzykowne działania i doświadczają wybuchów emocjonalnych właśnie ze względu na to, że płaty czołowe ich mózgu wciąż się rozwijają i nie osiągnęły pełnej dojrzałości (). Pamiętamy, że ta część mózgu jest odpowiedzialna za ocenę sytuacji, kontrolę emocji i planowanie oraz że podlega rozwojowi aż do wczesnej dorosłości i (Casey et al., 2005).
Badania nad specyfiką mózgu nastolatków trwają. W 2007 roku Galvan, Hare, Voss, Glover i Casey opublikowali analizę wpływu aktywności mózgu na podejmowanie ryzykownych i impulsywnych zachowań oraz postrzegania ryzyka u nastolatków. Badacze, wykorzystując czynnościowy rezonans magnetyczny (fMRI), ustalili, że aktywność ośrodków nagrody w mózgu nie koreluje z zachowaniami impulsywnymi oraz postrzeganiem ryzyka. Korelacja z aktywnością tych struktur mózgowych pojawia się natomiast przy podejmowaniu ryzykownych zachowań. Badanie zakwestionowało również popularny pogląd, jakoby nastolatki były bardziej impulsywne niż dzieci czy dorośli.
### Rozwój poznawczy
W okresie dojrzewania rozwijamy złożone umiejętności myślenia. Niektórzy badacze uważają, że jest to związane ze zwiększoną szybkością i skutecznością przetwarzania, a nie ze wzrostem możliwości umysłowych – innymi słowy, wynika to z poprawy istniejących umiejętności, a nie z rozwoju nowych (Bjorkland, 1987; Case, 1985). W okresie dojrzewania nastolatkowie wychodzą poza myślenie na poziomie konkretnym i zaczynają myśleć abstrakcyjnie. Przypomnijmy, że Piaget nazwał ten etap „fazą operacji formalnych”. Myślenie nastolatków cechuje również zdolność do rozważania różnych punktów widzenia, wyobrażania sobie hipotetycznych sytuacji, dyskutowania na tematy filozoficzne (np. polityki, religii czy sprawiedliwości) oraz tworzenia nowych idei (). W związku z tym dość powszechne jest kwestionowanie przez nastolatków autorytetów lub podważanie ustalonych norm społecznych.
Empatia kognitywna (poznawcza) (ang. ), nazywana również teorią umysłu (którą omawialiśmy wcześniej w związku z egocentryzmem), to zdolność spojrzenia na problem z perspektywy innych ludzi i przejmowania się ich losem (Shamay-Tsoory et al., 2005). Empatia poznawcza zaczyna rozwijać się w okresie dorastania i odgrywa ważną rolę w rozwiązywaniu problemów w życiu społecznym i unikaniu konfliktów. Według jednego z badań podłużnych poziom empatii poznawczej zaczyna rosnąć ok. 13. roku życia u dziewcząt i 15. roku życia u chłopców (Van der Graaff et al., 2013). Nastolatkowie, którzy twierdzili, że ich ojcowie ich wspierają i mogą z nimi rozmawiać o swoich problemach, łatwiej przyjmowali punkt widzenia innych (Miklikowska et al., 2011).
### Rozwój psychospołeczny
Osoby nastoletnie kontynuują rozwój swojego poczucia tożsamości dzięki relacjom z innymi. Erikson określił konflikt dorastania jako „tożsamość versus dyfuzja ról”. Jego zdaniem najważniejsze pytania, jakie zadaje sobie nastolatek, to: „Kim jestem?” i „Kim chcę być?”. Niektórzy nastolatkowie przyjmują postawy i wartości, których oczekują od nich ich rodzice. Inni rozwijają tożsamość pozostającą w sprzeczności z wzorcami przekazywanymi przez rodziców, lecz zgodną z postawami rówieśników. To bardzo częsty przypadek, ponieważ relacje z rówieśnikami stają się centralnym punktem życia nastolatków. Nie musi to być jednak trwały układ, a jedynie próba odnalezienia się w grupie rówieśniczej, z którą nastolatek spędza większość czasu.
W trakcie kształtowania tożsamości nastolatkowie oddalają się od swoich rodziców, a zbliżają do rówieśników (Shanahan et al., 2007). Choć spędzają mniej czasu z rodzicami, to większość pozytywnie określa swoje uczucia do nich (Moore et al., 2004). Ciepła i zdrowa relacja rodzic–dziecko ma pozytywne efekty w postaci lepszych ocen i mniejszej liczby problemów z zachowaniem w szkole (Hair et al., 2005).
Okazuje się, że wbrew stereotypowym poglądom większość nastolatków nie przechodzi okresu „burzy i naporu” tak dramatycznie, jak opisywał go Granville Stanley Hall (1846-1924), pionier badań nad rozwojem nastolatków. Tylko niewielka część z nich wchodzi w poważniejsze konflikty z rodzicami (Steinberg i Morris, 2001), a większość sprzeczek ma małe znaczenie. Na przykład w badaniu z udziałem ponad 1800 rodziców i nastolatków z różnych grup etnicznych i kulturowych Barber (1994) wykazał, że konflikty dotyczyły codziennych spraw, takich jak praca domowa, pieniądze, godzina powrotu do domu, sposób ubierania się, pomoc w domu czy towarzystwo. Tego typu kłótnie stają się coraz rzadsze wraz z rozwojem nastolatka (Galambos i Almeida, 1992) i mogą mieć pozytywny wpływ, wspomagając rozwój asertywności.
### Wczesna dorosłość
Następnym stadium rozwoju jest wczesna dorosłość (ang. ), często nazywana okresem wchodzenia w dorosłość. To relatywnie niedawno zdefiniowany okres życia trwający od 18. do ok. 25. roku życia, opisywany jako czas przejściowy, w którym poszukiwanie tożsamości skupia się na realizacji zadań rozwojowych związanych z rozpoczynaniem pracy zawodowej oraz z nawiązywaniem satysfakcjonującej i długotrwałej relacji intymnej.
Kiedy człowiek staje się dorosły? Jest wiele odpowiedzi na to pytanie. W Polsce ludzie są prawnie uznawani za dorosłych w wieku 18 lat. Lecz istnieje wiele różnych definicji dorosłości. Na przykład w socjologii osoba uznawana jest za dorosłą, gdy zaczyna sama się utrzymywać, wybiera drogę kariery, bierze ślub lub zakłada rodzinę. Wiek, w jakim osiągamy te kamienie milowe, różni się w zależności od danej osoby i kultury. Na przykład w Malawi, w Afryce, Njemile wzięła ślub w wieku 14 lat i urodziła pierwsze dziecko w wieku 15 lat. W jej kulturze jest uznawana za osobę dorosłą. Dzieci w Malawi podejmują dorosłe zobowiązania, takie jak małżeństwo czy praca (np. noszenie wody, opieka nad dziećmi czy praca na roli), już w wieku 10 lat. To wyraźny kontrast w porównaniu z kulturami Zachodu, gdzie niezależność osiągana jest coraz później, co tym samym opóźnia wejście w dorosłe życie.
Dlaczego wchodzenie w dorosłość w kulturze zachodniej zabiera dwudziestolatkom tyle czasu? Wydaje się, że wczesna dorosłość to efekt zarówno kultury, jak i obecnych czasów (Arnett, 2000). Ludzie w krajach rozwiniętych żyją dłużej, więc mogą sobie pozwolić na dodatkowe kilka lat na rozpoczęcie kariery i założenie rodziny. Rolę grają również zmiany na rynku pracy. Pięćdziesiąt lat temu młody człowiek po maturze mógł od razu rozpocząć pracę i zacząć wspinać się po szczeblach kariery. Te czasy minęły. Obecnie nawet na niewykwalifikowane stanowiska często trzeba mieć maturę (Arnett, 2000). Ponadto wielu studentów studiuje i pracuje jednocześnie. Po uzyskaniu dyplomu wyższej uczelni duża część dorosłych wraca do domu rodzinnego, ponieważ ich zarobki nie pozwalają na pokrycie kosztów własnego mieszkania. Najważniejszym powodem późnego wchodzenia w dorosłość mogą być zmieniające się oczekiwania kulturowe. Młodzi ludzie więcej czasu poświęcają na odkrywanie różnych możliwości, wielokrotnie zmieniają kierunki studiów i pracę, co opóźnia karierę i wchodzenie w związki małżeńskie, a to sprawia, że zaczynają dorosłe życie później niż ich rodzice (Arnett, 2000). Zmieniły się też oczekiwania społeczne, przede wszystkim w kulturze zachodniej – rodzice większy nacisk kładą na uzyskanie niezależności ekonomicznej – pracy, własnego mieszkania – niż na znalezienie partnera i założenie rodziny. Przynosi to paradoksalny efekt – młodzi dorośli mieszkają z rodzicami nierzadko do 30.–35. roku życia (Rosochacka-Gmitrzak, 2017).
### Dorosłość
Dorosłość zaczyna się ok. 20. roku życia i dzieli się na trzy etapy: wczesną, średnią i późną. Każdy etap niesie ze sobą inne wyzwania.
### Rozwój fizyczny
Gdy wchodzimy w okres wczesnej dorosłości (od 20. roku życia do wczesnych lat 40.), jesteśmy w pełni dojrzali fizycznie, choć wzrost i masa ciała mogą jeszcze trochę wzrosnąć. We wczesnej dorosłości fizyczne możliwości, w tym siła mięśni, zdolności czuciowe i funkcjonowanie serca, są na najwyższym poziomie. Większość profesjonalnych sportowców ma w tym okresie najlepszą formę. Wiele kobiet we wczesnej dorosłości rodzi dzieci, więc mogą one przybrać na wadze, zmienia się też wygląd ich piersi.
Średnia dorosłość przypada między 40. a 65. rokiem życia (). Stopniowo tracimy sprawność fizyczną. Skóra traci elastyczność i pojawiają się zmarszczki, jedne z pierwszych oznak starzenia. W tym okresie pogarsza się ostrość wzroku. Kobiety doświadczają stopniowego spadku płodności, w miarę zbliżania się menopauzy (ustania menstruacji) ok. 50. roku życia. Zarówno mężczyźni, jak i kobiety zazwyczaj przybierają na wadze: mężczyźni w okolicach brzucha, a kobiety w okolicach bioder oraz ud. Włosy przerzedzają się i siwieją.
Uznaje się, że późna dorosłość rozpoczyna się ok. 65. roku życia. To ostatnie stadium fizycznych zmian. Skóra nadal traci elastyczność, pogarsza się czas reakcji i zmniejsza siła mięśni. Węch, smak, słuch i wzrok, tak wyostrzone u dwudziestolatka, znaczne się pogarszają. Również mózg może już nie funkcjonować na optymalnym poziomie. W tym wieku mogą pojawiać się zaburzenia związane z utratą pamięci, w późniejszym czasie mogą (ale nie muszą!) wystąpić demencja i inne choroby neurodegeneracyjne, np. choroba Alzheimera.
### Rozwój poznawczy
Ponieważ dorosłość trwa wiele lat (więcej niż którekolwiek inne stadium), doświadczamy w jej trakcie licznych zmian poznawczych. Badania wykazują, że rozwój poznawczy w dorosłości to bardzo złożony, wciąż zmieniający się proces, który może być nawet bardziej dynamiczny niż rozwój poznawczy w niemowlęctwie i wczesnym dzieciństwie (Fischer et al., 2003).
W przeciwieństwie do zdolności fizycznych, które osiągają szczyt około 25. roku życia, a następnie ulegają pogorszeniu, zdolności poznawcze pozostają na stałym poziomie przez wczesną i średnią dorosłość. Inteligencja skrystalizowana (informacje, umiejętności i strategie, które opanowaliśmy w trakcie życia pełnego doświadczeń) zazwyczaj utrzymuje się na tym samym poziomie w miarę upływu lat, a nawet może wzrosnąć. Dorośli osiągają relatywnie stabilne lub coraz lepsze wyniki w testach inteligencji do 35.–55. roku życia (Bayley i Oden, 1955). W późnej dorosłości zaczynamy jednak doświadczać spadku w innym obszarze naszych zdolności poznawczych – inteligencji płynnej (zdolność przetwarzania informacji, rozumowanie i pamięć). Procesy te ulegają spowolnieniu. Jak możemy opóźnić objawy spadku zdolności poznawczych? Ważną rolę odgrywa tu aktywność fizyczna i umysłowa (). Badania wykazują, że dorośli angażujący się w aktywności stymulujące ich umysłowo i fizycznie doświadczają mniejszego spadku zdolności poznawczych oraz rzadziej cierpią na łagodne zaburzenia poznawcze i demencję (Hertzog et al., 2009; Larson et al., 2006; Podewils et al., 2005).
Zespół Forstmanna opublikował w 2011 roku badanie porównujące sprawność mózgu osób starszych i młodych. W jego trakcie uczestnicy mieli wskazywać kierunek przemieszczania się kropek na ekranie; mierzono szybkość reakcji i poprawność odpowiedzi. Naukowcy odkryli, że starsi uczestnicy popełniali w zadaniu więcej błędów i wynik podawali wolniej niż młodzi. Przyczyną osiągania gorszych rezultatów było zwyrodnienie na szlaku kortykostriatalnym (jest to obwód neuronalny łączący korę mózgową i prążkowie), które obniża możliwości poznawcze. Zwykle przypisuje się je osobom starszym, mogą być od nich niezależne i wynikać z mniejszej sprawności mózgu.
Inni badacze odkryli natomiast podobieństwa w zdolności rozmieszczania elementów w przestrzeni u dzieci w wieku 6–7 lat oraz u osób w wieku powyżej 80 lat. Według Ruggiero, D'Errico i Iachini (2016) jest to spowodowane neurodegeneracją u osób starszych i niedojrzałością mózgu u małych dzieci. Zmiany w mózgu obniżające funkcje poznawcze, zwane demencją, dotykają wiele osób w podeszłym wieku. Jedną z form demencji jest choroba Alzheimera, początkowo badana przez Solomona Cartera Fullera (1872-1953). Jest to choroba o podłożu genetycznym; powoduje ona obumieranie komórek w mózgu, czego następstwem są poważne problemy z pamięcią. Chory może nawet zapomnieć, jak się chodzi, mówi oraz je. Ryzyko wystąpienia choroby nasila ekspozycja na ołów, żelazo i cynk, a zmniejsza stosowanie diety śródziemnomorskiej (Arora, Mittal i Kakkar, 2015). Chociaż nie opracowano jeszcze leku na chorobę Alzheimera, jest nadzieja na zastosowanie skutecznej rehabilitacji z wykorzystaniem wirtualnej rzeczywistości (Jimenez-Mixco, Arredondo i Cabrera-Umpierrez, 2015). Według badaczy technologia ta powinna zawierać ćwiczenia związane z wykonywaniem codziennych czynności, pamięci oraz mówienia.
### Rozwój psychospołeczny
Istnieje wiele teorii dotyczących społecznych i emocjonalnych aspektów starzenia się. Wśród czynników zdrowego starzenia można wymienić aktywność, więzi społeczne oraz kulturę osobistą. Według wielu teoretyków, między innymi George'a Vaillanta (2002), który przebadał i przeanalizował dane zbierane przez ponad 50 lat, warunkiem jest stałe poszukiwanie i znajdowanie sensu istnienia. We wczesnej i średniej dorosłości sens odnajdujemy w pracy (Sternsi Huyck, 2001) i w życiu rodzinnym (Markus et al., 2004). To obszary, do których Erikson odnosił się, mówiąc o twórczości i intymności. Jak już mówiliśmy, dorośli często definiują siebie przez to, co robią — pracę zawodową albo hobby. W tym okresie zdobywamy możliwość uzyskania najwyższych dochodów, lecz satysfakcja z pracy wynika bardziej z jej interesującego charakteru, kontaktu z ludźmi, możliwości rozwoju i pewnej dozy niezależności (Mohri Zoghi, 2006) niż zarobków (Iyengar et al., 2006) oraz budowania czegoś, „co po mnie zostanie”. Więcej o tym, w jaki sposób sytuacja w pracy lub jej brak wpływa na samopoczucie dorosłego, piszemy w podrozdziale Stres w pracy.
Badania dowodzą, że pozytywne relacje z bliskimi w dorosłym życiu zapewniają dobre samopoczucie (Ryffi Singer, 2009). Większość dorosłych w Stanach Zjednoczonych identyfikuje się przez swoje relacje z rodziną – szczególnie z małżonkami, dziećmi i rodzicami (Markus et al., 2004). Choć wychowywanie dzieci może być stresujące, szczególnie gdy są młode, to badania wykazują, że rodzice otrzymują w końcu nagrodę za swój trud, ponieważ dorosłe dzieci mają pozytywny wpływ na samopoczucie rodziców (Umberson et al., 2010). Dowiedziono, że stabilne małżeństwo również sprzyja dobremu samopoczuciu w całym okresie dorosłości (Vaillant, 2002).
Innymi czynnikami pozytywnego starzenia się są więzi społeczne i wsparcie otoczenia. Teoria selektywności socjoemocjonalnej (ang. ) sugeruje, że z wiekiem mamy coraz mniej przyjaciół (odchodzą z naturalnej przyczyny śmierci) i społecznego wsparcia, ale więzi, które pozostają, są równie silne, jeśli nie silniejsze niż w młodszych latach (Carstensen, 1992) ().
### Summary
Podczas zapłodnienia komórka jajowa i plemnik łączą się, tworząc zygotę, która zaczyna się dzielić. Podział zygoty stanowi początek pierwszego okresu rozwoju prenatalnego (okresu zygoty), który trwa ok. dwóch tygodni. Następnie zygota zagnieżdża się w śluzówce macicy, rozpoczynając drugi etap rozwoju prenatalnego (okres zarodkowy), który trwa około sześciu tygodni. W zarodku zaczynają rozwijać się części ciała i niektóre narządy oraz wykształca się cewa nerwowa, z której następnie rozwinie się mózg i rdzeń kręgowy. Trzeci etap rozwoju prenatalnego (okres płodowy) rozpoczyna się w 9. tygodniu i trwa do narodzin. W tym okresie organizm szybko się rozwija. Ważne, by na każdym etapie ciąży kobieta była otoczona opieką prenatalną, by zmniejszyć ryzyko powikłań zdrowotnych u matki i jej rozwijającego się dziecka.
Noworodek waży ok. 3,5 kg. Lekarze oceniają odruchy wrodzone, takie jak ssanie, odruch toniczno-szyjny czy odruch Moro. Nasze umiejętności fizyczne, poznawcze i psychospołeczne rozwijają i zmieniają w miarę osiągania kolejnych stadiów rozwoju, od niemowlęctwa po późną dorosłość. Możliwość rozwinięcia się przywiązania do opiekunów w okresie niemowlęcym jest podstawowym warunkiem prawidłowego rozwoju. Udowodniono, że styl wychowania ma wpływ na przyszłość dziecka. Przejście z okresu dorastania do dojrzałości może być wyzwaniem ze względu na moment, w którym następuje pokwitanie, oraz przedłużającą się wczesną dorosłość (okres wchodzenia w dorosłość). Choć spadek zdolności fizycznych rozpoczyna się już w średniej dorosłości, to spadek zdolności poznawczych zaczyna się znacznie później. Ćwiczenia aktywizujące ciało i umysł mogą pomóc utrzymać dobrą kondycję fizyczną i poznawczą w miarę upływu lat. Wsparcie społeczne zapewniane przez rodzinę i przyjaciół odgrywa ważną rolę w pozytywnym przeżywaniu lat późnej dorosłości.
### Review Questions
### Critical Thinking Questions
### Personal Application Questions
|
# Psychologia rozwojowa
## Kres życia
Każda historia ma swój koniec. Śmierć jest naturalnym zakończeniem ludzkiego życia (). Na to, jak postrzegamy śmierć, wpływają nasza kultura i indywidualne uwarunkowania. W niektórych kulturach jest ona akceptowana jako naturalna część życia. Natomiast jeszcze ok. 50 lat temu w kulturze zachodniej lekarze nie informowali pacjentów, że są umierający, i większość zgonów następowała w szpitalach. Pierwszym bodźcem do zmiany tego stanu rzeczy było założenie w 1967 roku w Wielkiej Brytanii pierwszego współczesnego hospicjum (ang. ) przez Cicely Saunders (1918-2005). Hospicjum jest miejscem opieki nad osobami nieuleczalnie chorymi. Pozwala na godną śmierć dzięki zapewnieniu leczenia bólu i komfortowego otoczenia, zwykle poza szpitalem. W 1974 roku Florence Wald (1917-2008) założyła pierwsze hospicjum w Stanach Zjednoczonych. Dziś hospicja zapewniają opiekę 1,65 mln Amerykanów i ich rodzinom. W Polsce, według danych Głównego Urzędu Statystycznego, opieką hospicyjną obejmowanych jest rocznie ok. 100 tys. osób (Zdrowie i Ochrona zdrowia w 2016 r., 2017). Dzięki opiece hospicyjnej wielu nieuleczalnie chorych ludzi może spędzić ostatnie dni życia w domu.
Badania wykazują, że opieka hospicyjna jest korzystna dla pacjentów (Brumley et al., 2003; Brumley et al., 2007; Godkin et al., 1984) oraz ich rodzin (Rhodes et al., 2008). Pacjenci hospicyjni deklarują większą satysfakcję z tego rodzaju opieki, ponieważ mogą pozostawać w domu i nie muszą w pełni polegać na opiece obcych osób (Brumley et al., 2007). Ponadto pacjenci hospicyjni żyją zazwyczaj dłużej niż osoby niebędące pod opieką hospicjum (Connor et al., 2007; Temel et al., 2010). Członkowie rodziny otrzymują wsparcie emocjonalne i są regularnie informowani o leczeniu i stanie zdrowia ukochanej osoby. Zredukowany zostaje również spoczywający na nich ciężar opieki (McMillan et al., 2006). Zarówno pacjenci, jak i członkowie ich rodzin odczuwają większe wsparcie ze strony pozostałej części rodziny, większe wsparcie społeczne i ogólnie lepiej sobie radzą, gdy znajdują się pod opieką hospicjum (Godkin et al., 1984).
Jak sądzisz, jaka byłaby twoja reakcja, gdyby zdiagnozowano u ciebie śmiertelną chorobę, na przykład nowotwór złośliwy? Elizabeth Kübler-Ross (1969), która pracowała z założycielami pierwszych hospicjów, opisała psychologiczny proces akceptowania własnej śmierci. Wyróżniła pięć etapów reakcji na wiadomość o bliskiej i nieuchronnej śmierci: zaprzeczenie, gniew, targowanie się, depresję i akceptację. Większość osób doświadcza tych etapów, lecz mogą one występować w różnej kolejności. Nie wszyscy ludzie doświadczają wszystkich etapów. Należy zaznaczyć, że niektórzy psychologowie uważają, że im bardziej osoba umierająca sprzeciwia się śmierci, tym bardziej prawdopodobne jest, że pozostanie na etapie zaprzeczenia. To może utrudnić jej spokojne odchodzenie. Inni psychologowie są zdania, że walka z chorobą do samego końca jest dla niektórych mechanizmem adaptacyjnym, pozwalającym lepiej radzić sobie z zaistniałą sytuacją. Warto przy tym pamiętać, że nieuleczalna choroba nie jest jedyną przyczyną odejścia ludzi w starszym wieku. Nie wszyscy cierpią i muszą być poddawani zabiegom medycznym. Dla większości ważne jest przede wszystkim, aby nie umierać w samotności, wśród obcych (Cicirelli, 2002).
Niezależnie, czy z powodu choroby, czy sędziwego wieku, osoby skonfrontowane ze śmiercią nie zawsze doświadczają negatywnych emocji przedstawionych w teorii Kübler-Ross (Nolen-Hoeksemai Larson, 1999). Badania wykazały, że osoby wierzące lepiej radzą sobie ze śmiercią dzięki nadziei, którą daje wiara w życie pozagrobowe, oraz dzięki wsparciu wspólnot religijnych (Hood et al., 1996; McIntosh et al., 1993; Paloutzian, 1996; Samarel, 1991; Wortmani Park, 2008).
Wyrazistym przykładem osoby, która nadała znaczenie swojemu umieraniu, był Randy Pausch (1960-2008), uwielbiany i szanowany profesor Carnegie Mellon University. W wieku 45 lat zdiagnozowano u niego terminalne stadium raka trzustki z prognozą 3–6 miesięcy życia. Pausch postanowił wykorzystać pozostały mu czas, żyjąc w sposób, który dawał mu satysfakcję. Zamiast popadać w gniew i depresję, wygłosił sławny dziś, ostatni wykład zatytułowany „Jak naprawdę zrealizować swoje dziecięce marzenia”. We wzruszającym, lecz niepozbawionym humoru przemówieniu podzielił się swoimi spostrzeżeniami na temat m.in. dostrzegania w innych dobra, pokonywania przeszkód i doświadczania braku grawitacji. Pomimo śmiertelnej choroby przeżył ostatni rok życia z radością i nadzieją, pokazując, że nasze plany na przyszłość wciąż mają znaczenie, nawet jeśli wiemy, że umieramy. W Polsce przykładem osoby, która dzieliła się doświadczeniem przeżywania śmiertelnej choroby w sposób świadomy i często niepozbawiony humoru, był ks. Jan Kaczkowski (1977-2016) (Kaczkowski i Jabłońska, 2017; Kaczkowski i Żyłka, 2015).
W związku z tym, że wiedza o procedurach i praktykach medycznych rośnie, niektórzy chcą być pewni, że ich życzenia w tych kwestiach będą znane wcześniej. Dzięki temu, jeśli taka osoba zostanie sparaliżowana lub z innego powodu nie będzie w stanie sama przedstawić swojej woli, ma pewność, że jej bliscy będą wiedzieli, czego sobie życzy. W tym celu można sporządzić testament życia (oświadczenie ) (ang. ) lub oświadczenie woli (ang. ), które są dokumentami prawnymi w formie pisemnej, szczegółowo określającymi działania medyczne, jakich życzy sobie sporządzająca je osoba. Na przykład osoba w terminalnym stadium choroby może nie chcieć być poddawana procedurom przedłużającym życie, może też dołączyć zalecenie „nie reanimować” (DNR) (ang. ) i poinformować o tym rodzinę oraz bliskich przyjaciół. Dokument „nie reanimować” poświadcza, że jeśli sporządzająca go osoba przestanie oddychać lub jej serce przestanie bić, personel medyczny (lekarze, pielęgniarki) mają NIE podejmować jej reanimacji. Testament życia może uwzględniać pełnomocnictwo ds. opieki zdrowotnej (ang. ), które wyznacza określoną osobę do podejmowania decyzji medycznych w imieniu pacjenta, jeśli ten nie będzie w stanie robić tego samodzielnie. Na chęć sporządzenia testamentu życia i zalecenia „nie reanimować” często wpływ mają religia, kultura i wychowanie. Nie zawsze jest on także respektowany przez system prawny obowiązujący w konkretnym państwie.
### Summary
Śmierć wyznacza koniec naszego życia. Stając w obliczu śmierci, możemy różnie reagować. Kübler-Ross opracowała teorię pięciu etapów reakcji na wiadomość o bliskiej i nieuchronnej śmierci jako sposób wyjaśnienia tego procesu. Wiele ludzi skonfrontowanych ze śmiercią wybiera opiekę hospicyjną, która pozwala im na spędzenie ostatnich dni życia w domu, w komfortowym otoczeniu.
### Review Questions
### Critical Thinking Questions Problemy do rozwiązania
### Personal Application Questions Zastosowania
|
# Emocje i motywacje
## Wprowadzenie
Czym są emocje i na ile są one uniwersalne? W niniejszym rozdziale omówimy, jak rozwijały się teorie emocji, jaka jest rola oceny poznawczej w doświadczaniu tego stanu. Zajmiemy się także wyjaśnieniem, jak przebiega uświadomiona i nieuświadomiona kontrola emocji u jednostki. Pokażemy różnicę między nastrojem a emocjami oraz przedstawimy teorię wyjaśniającą, jak z emocji prostych wynikają emocje złożone. Zajmiemy się również opisem badań, które miały odpowiedzieć na pytanie: czy uśmiechanie się daje poczucie szczęścia lub czy poczucie szczęścia wywołuje uśmiech na twarzy. Przedyskutujemy adekwatność stosowania trójstopniowej organizacji mózgu i podejmiemy się prezentacji, w których obszarach mózgu, zgodnie z najnowszą wiedzą, powstają emocje.
Drugim głównym tematem tego rozdziału są motywacje. Opowiemy, czym one są oraz kiedy działamy po to, żeby przywrócić homeostazę, a kiedy po to, żeby ją zaburzyć. Przedstawimy teorie wyjaśniające, skąd się biorą nasze motywacje, m.in. jakie motywuje nas poczucie własnej skuteczności i na czym polega motywacja wewnętrzna i zewnętrzna. Poruszymy także temat seksualności, ponieważ pociąg seksualny często jest źródłem motywacji do działania.
### Bibliografia
Ahima, R.S., i Antwi, D.A. (2008) Brain regulation of appetite and satiety. Endocrinology and Metabolism Clinics of North America, 37, 811–823.
Allen, L.S., i Gorski, R.A. (1992) Sexual orientation and the size of the anterior commissure in the human brain. Proceedings of the National Academy of Sciences, USA, 89, 7199–7202.
American Psychiatric Association. (2013). Feeding and eating disorders. Retrieved from : http://www.dsm5.org/documents/eating%20disorders%20fact%20sheet.pdf.
Arnold, H. J. (1976). Effects of performance feedback and extrinsic reward upon high intrinsic motivation. Organizational Behavior and Human Performance, 17, 275–288.
Bailey, M.J., i Pillard, R.C. (1991), A genetic study of male sexual orientation. Archives of General Psychiatry, 48, 1089–1096.
Baldwin, J.D. i Baldwin, J.I. (1989), The socialization of homosexuality and heterosexuality in a non-western society. Archives of Sexual Behavior, 18, 13–29.
Bancroft, J. (2004), Alfred C. Kinsey and the politics of sex research. Annual Review of Sex Research, 15, 1–39.
Bandura, A. (1994), Self-efficacy. w V. S. Ramachandran (red.), Encyclopedia of human behavior (tom 4, 71–81). New York, NY: Academic Press.
Bauminger, N. (2002), The facilitation of social-emotional understanding and social interaction in high-functioning children with autism: Intervention outcomes. Journal of Autism and Developmental Disorders, 32, 283–298.
Becker, J.B., Rudick, C.N., i Jenkins, W. J. (2001), The role of dopamine in the nucleus accumbens and striatum during sexual behavior in the female rat. Journal of Neuroscience, 21, 3236–3241.
Becker, J.M. (2012, 25 kwietnia), Dr. Robert Spitzer apologizes to gay community for infamous „ex-gay” study. Retrieved from: http://www.truthwinsout.org/news/2012/04/24542/.
Beedie, C.J., Terry, P.C., Lane, A.M., i Devonport, T. J. (2011), Differential assessment of emotions and moods: Development and validation of the emotion and mood components of anxiety questionnaire. Personality and Individual Differences, 50, 228–233.
Bell, A.P., Weinberg, M.S., i Hammersmith, S.K. (1981), Sexual preferences: Its development in men and women. Bloomington, IN: Indiana University Press.
Berlyne, D.E. (1960), Toward a theory of exploratory behavior: II. Arousal potential, perceptual curiosity, and learning, Conflict, arousal, and curiosity ( 193–227). New York, NY: McGraw-Hill Book Company.
B. Bermond, B. Nieuwenhuysedr, L. Fasotti i J. Schuerman, 1991, https://doi.org/10.1080/02699939108411035
Bhasin, S., Enzlin, P., Coviello, A., i Basson, R. (2007), Sexual dysfunction in men and women with endocrine disorders. The Lancet, 369, 597–611.
Blackford, J.U., i Pine, D.S. (2012), Neural substrates of childhood anxiety disorders: A review of neuroimaging findings. Child and Adolescent Psychiatric Clinics of North America, 21, 501–525.
Bremner, J.D., i Vermetten, E. (2004), Neuroanatomical changes associated with pharmacotherapy in posttraumatic stress disorder. Annals of the New York Academy of Sciences, 1032, 154–157.
Buck, R. (1980), Nonverbal behavior and the theory of emotion: The facial feedback hypothesis. Journal of Personality and Social Psychology, 38, 811–824.
Bullough, V.L. (1998), Alfred Kinsey and the Kinsey report: Historical overview and lasting contributions. The Journal of Sex Research, 35, 127–131.
Byne, W., Tobet, S., Mattiace, L.A., Lasco, M.S., Kemether, E., Edgar, M.A., Morgello, S., Buchsbaum, M.S., Jones, L.B. (2001), The interstitial nuclei of the human anterior hypothalamus: An investigation of variation with sex, sexual orientation, and HIV status. Hormones and Behavior, 40, 86–92.
Cameron, J., i Pierce, W.D. (1994), Reinforcement, reward, and intrinsic motivation: A meta-analysis. Review of Educational Research, 64, 363–423.
Carey, B. (2012, May 18), Psychiatry giant sorry for backing gay „cure”. The New York Times. Retrieved from: http://www.nytimes.com/2012/05/19/health/dr-robert-l-spitzer-noted-psychiatrist-apologizes-for-study-on-gay-cure.html?_r=0.
Carter, C.S. (1992). Hormonal influences on human sexual behavior. w: J. B. Becker, S.M. Breedlove, i D. Crews (red..), Behavioral Endocrinology (s. 131–142). Cambridge, MA: MIT Press.
Cassidy, S.B., i Driscoll, D.J. (2009), Prader-Willi syndrome. European Journal of Human Genetics, 17, 3–13.
Centers for Disease Control and Prevention. (2012). Overweight and obesity. Retrieved from: http://www.cdc.gov/obesity/index.html.
Chwalisz, K., Diener, E., i Gallagher, D. (1988), Autonomic arousal feedback and emotional experience: Evidence from the spinal cord injured. Journal of Personality and Social Psychology, 54, 820–828.
Colapinto, J. (2000). As nature made him: The boy who was raised as a girl. New York, NY: Harper Collins.
Collier, D.A., i Treasure, J.L. (2004), The aetiology of eating disorders. The British Journal of Psychiatry, 185, 363–365.
Conrad, P. (2005). The shifting engines of medicalization. Journal of Health and Social Behavior, 46, 3–14.
Cunha, C., Monfils, M.H., i LeDoux, J.E. (2010). GABA(C) receptors in the lateral amygdala: A possible novel target for the treatment of fear and anxiety disorders? Frontiers in Behavioral Neuroscience,4, 6.
Daniel, T.L., i Esser, J.K. (1980), Intrinsic motivation as influenced by rewards, task interest, and task structure. Journal of Applied Psychology, 65, s. 566–573.
Darwin, C. (1872). The expression of emotions in man and animals. New York, NY: Appleton.
Davis, J.I., Senghas, A., i Ochsner, K.N. (2009), How does facial feedback modulate emotional experience? Journal of Research in Personality, 43, s. 822–829.
Deci, E.L. (1972). Intrinsic motivation, extrinsic reinforcement, and inequity. Journal of Personality and Social Psychology, 22, 113–120.
Deci, E.L., Koestner, R., i Ryan, R.M. (1999), A meta-analytic review of experiments examining the effects of extrinsic rewards on intrinsic motivation. Psychological Bulletin, 125, s. 627–668.
de Gelder, B. (2006). Towards the neurobiology of emotional body language. Nature Reviews Neuroscience, 7, s. 242–249.
Drazen, D.L., i Woods, S. C. (2003), Peripheral signals in the control of satiety and hunger. Current Opinion in Clinical Nutrition and Metabolic Care, 5, s. 621–629.
Druce, M.R., Small, C.J., i Bloom, S.R. (2004), Minireview: Gut peptides regulating satiety. Endocrinology, 145, s. 2660–2665.
Ekman, P., i Keltner, D. (1997), Universal facial expressions of emotion: An old controversy and new findings. W: U. Segerstråle i P. Molnár (red.), Nonverbal communication: Where nature meets culture (s. 27–46). Mahwah, NJ: Lawrence Erlbaum.
Everett, B. J. (1990), Sexual motivation: A neural and behavioural analysis of the mechanisms underlying appetitive and copulatory responses of male rats. Neuroscience and Biobehavioral Reviews, 14, s. 217–232.
Faris, E. (1921), Are instincts data or hypotheses? American Journal of Sociology, 27, s. 184–196.
Femenía, T., Gómez-Galán, M., Lindskog, M., i Magara, S. (2012), Dysfunctional hippocampal activity affects emotion and cognition in mood disorders. Brain Research, 1476, 58–70.
Fossati, P. (2012), Neural correlates of emotion processing: From emotional to social brain. European Neuropsychopharmacology, 22, s. 487–491.
Fournier, J.C., Keener, M.T., Almeida, J., Kronhaus, D.M., i Phillips, M.L. (2013), Amygdala and whole-brain activity to emotional faces distinguishes major depressive disorder and bipolar disorder. Bipolar Disorders. Advance online publication. doi:10.1111/bdi.12106.
Francis, N.H., i Kritsonis, W.A. (2006), A brief analysis of Abraham Maslow’s original writing of Self-Actualizing People: A Study of Psychological Health. Doctoral Forum National Journal of Publishing and Mentoring Doctoral Student Research, 3, 1–7.
Gloy, V.L., Briel, M., Bhatt, D.L., Kashyap, S.R., Schauer, P.R., Mingrone, G., Bucher, H.C., Nordmann, A. J. (2013, październik 22), Bariatric surgery versus non-surgical treatment for obesity: A systematic review and meta-analysis of randomized controlled trials. BMJ, 347. doi:http://dx.doi.org/10.1136/bmj.f5934.
Golan, O., i Baron-Cohen, S. (2006), Systemizing empathy: Teaching adults with Asperger syndrome or high-functioning autism to recognize complex emotions using interactive multimedia. Development and Psychopathology, 18, 591–617.
Goosens, K.A., i Maren, S. (2002), Long-term potentiation as a substrate for memory: Evidence from studies of amygdaloid plasticity and Pavlovian fear conditioning. Hippocampus, 12, 592–599.
Graham, S., i Weiner, B. (1996), Theories and principles of motivation. W: D. C. Berliner i R. C. Calfee (red.), Handbook of educational psychology (s. 63–84). New York, NY: Routledge.
Geary, N. (1990), Pancreatic glucagon signals postprandial satiety. Neuroscience and Biobehavioral Reviews, 14, s. 323–328.
Guastella, A.J., Einfeld, S.L., Gray, K.M., Rinehart, N.J., Tonge, B.J., Lambert, T.J., i Hickie, I. B. (2010). Intranasal oxytocin improves emotion recognition for youth with autism spectrum disorders. Biological Psychiatry, 67, s. 692–694.
Hall, J.A., i Kimura, D. (1994), Dermatoglyphic asymmetry and sexual orientation in men. Behavioral Neuroscience, 108(6), 1203–1206.
Hamer, D.H., Hu. S., Magnuson, V. L., Hu, N., i Pattatucci, A.M. (1993), A linkage between DNA markers on the X chromosome and male sexual orientation. Science, 261, s. 321327.
Havas, D.A., Glenberg, A.M., Gutowski, K.A., Lucarelli, M.J., i Davidson, R.J. (2010). Cosmetic use of botulinum toxin-A affects processing of emotional language. Psychological Science, 21, s. 895–900.
Hobson, R.P. (1986). The autistic child’s appraisal of expressions of emotion. The Journal of Child Psychology and Psychiatry, 27, s. 321–342.
Hock, R. R. (2008). Emotion and Motivation. W: Forty studies that changed psychology: Explorations into the history of psychological research, 6. wyd, (s. 158–168). Upper Saddle River, NJ: Pearson.
Hu, S.H., Wei, N., Wang, Q.D., Yan, L.Q., Wei, E.Q., Zhang, M.M., Hu, J.B., Huang, M.L., Zhou, W.H., Xu Y. (2008), Patterns of brain activation during visually evoked sexual arousal differ between homosexual and heterosexual men. American Journal of Neuroradiology, 29, s. 1890–1896.
Human Rights Campaign. (b.d.). The lies and dangers of efforts to change sexual orientation or gender identity. Retrieved from: http://www.hrc.org/resources/entry/the-lies-and-dangers-of-reparative-therapy.
Jenkins, W.J. (2010), Can anyone tell me why I’m gay? What research suggests regarding the origins of sexual orientation. North American Journal of Psychology, 12, 279–296.
Jenkins, W.J., i Becker, J. B. (2001), Role of the striatum and nucleus accumbens in paced copulatory behavior in the female rat. Behavioural Brain Research, 121, s. 19–28.
Kaas, J.H.. (2011), Neocortex in early mammals and its subsequent variations. New Perspectives on Neurobehavioral Evolution, 28–36. https://doi.org/10.1111/j.1749-6632.2011.05981.x
Kinsey, A.C., Pomeroy, W.B., i Martin, C.E. (1948), Sexual behavior in the human male. Philadelphia, PA: W.B. Saunders Company.
Koltko-Rivera, M.E. (2006), Rediscovering the later version of Maslow’s hierarchy of needs: Self-transcendence and opportunities for theory, research, and unification. Review of General Psychology, 10, s. 302–317.
Konturek, S.J., Pepera, J., Zabielski, K., Konturek, P. C., Pawlick, T., Szlachcic, A., i Hahn, E.G. (2003), Brain-gut axis in pancreatic secretion and appetite control. Journal of Physiology and Pharmacology, 54, s. 293–317.
Lang, P.J. (1994), The varieties of emotional experience: A meditation on James-Lange theory. Psychological Review, 101, s. 211–221.
Lazarus, R.S. (1991), Emotion and adaptation. New York, NY: Oxford University Press.
LeDoux, J.E. (1996), The Emotional Brain: The Mysterious Underpinnings of Emotional Life. New York, NY: Simon & Schuster.
LeDoux, J.E. (2002), The synaptic self. London, UK: Macmillan.
Leonard, G. (1982), The failure of self-actualization theory: A critique of Carl Rogers and Abraham Maslow. Journal of Humanistic Psychology, 22, 56–73.
LeVay, S. (1991), A difference in the hypothalamic structure between heterosexual and homosexual men. Science, 253, s. 1034–1037.
LeVay, S. (1996), Queer science: The use and abuse of research into homosexuality. Cambridge, MA: The MIT Press.
Levy-Gigi, E., Szabó, C., Kelemen, O., i Kéri, S. (2013), Association among clinical response, hippocampal volume, and FKBP5 gene expression in individuals with posttraumatic stress disorder receiving cognitive behavioral therapy. Biological Psychiatry, 74, s. 793–800.
Lippa, R.A. (2003), Handedness, sexual orientation, and gender-related personality traits in men and women. Archives of Sexual Behavior, 32, s. 103–114.
Loehlin, J.C., i McFadden, D. (2003). Otoacoustic emissions, auditory evoked potentials, and traits related to sex and sexual orientation. Archives of Sexual Behavior, 32, s. 115–127.
Macdonald, H., Rutter, M., Howlin, P., Rios, P., Conteur, A. L., Evered, C., i Folstein, S. (1989), Recognition and expression of emotional cues by autistic and normal adults. Journal of Child Psychology and Psychiatry, 30, s. 865–877.
Malatesta, C.Z., i Haviland, J.M. (1982), Learning display rules: The socialization of emotion expression in infancy. Child Development, 53, 991–1003.
Maren, S., Phan, K.L., i Liberzon, I. (2013), The contextual brain: Implications for fear conditioning, extinction and psychopathology. Nature Reviews Neuroscience, 14, s. 417–428.
Martin-Gronert, M.S., i Ozanne, S.E. (2013), Early life programming of obesity. Developmental Period Medicine, 17, s. 7–12.
Maslow, A.H. (1943), A theory of human motivation. Psychological Review, 50, s. 370–396.
Matsumoto, D. (1990), Cultural similarities and differences in display rules. Motivation and Emotion, 14, s. 195–214.
Matsumoto, D., Yoo, S. H., i Nakagawa, S. (2008), Culture, emotion regulation, and adjustment. Journal of Personality and Social Psychology, 94, 925–937.
Mayo Clinic, (2012a), Anorexia nervosa. Retrieved from: http://www.mayoclinic.com/health/anorexia/DS00606.
Mayo Clinic, (2012b), Bulimia nervosa. Retrieved from: http://www.mayoclinic.com/health/bulimia/DS00607.
Mayo Clinic, (2013), Gastric bypass surgery. Retrieved from: http://www.mayoclinic.com/health/gastric-bypass/MY00825.
McAdams, D.P., i Constantian, C.A. (1983), Intimacy and affiliation motives in daily living: An experience sampling analysis. Journal of Personality and Social Psychology, 45, s. 851–861.
McClelland, D.C., i Liberman, A. M. (1949), The effect of need for achievement on recognition of need-related words. Journal of Personality, 18, s. 236–251.
McFadden, D., i Champlin, C.A. (2000), Comparisons of auditory evoked potentials in heterosexual, homosexual, and bisexual males and females. Journal of the Association for Research in Otolaryngology, 1, s. 89–99.
McFadden, D., i Pasanen, E.G. (1998), Comparisons of the auditory systems of heterosexuals and homosexuals: Clicked-evoked otoacoustic emissions. Proceedings of the National Academy of Sciences, USA, 95, s. 2709–2713.
McRae, K., Ochsner, K.N., Mauss, I.B., Gabrieli, J.J.D., i Gross, J. J. (2008). Gender differences in emotion regulation: An fMRI study of cognitive reappraisal. Group Processes and Intergroup Relations, 11, s. 143–162.
Miguel-Hidalgo, J.J. (2013), Brain structural and functional changes in adolescents with psychiatric disorders. International Journal of Adolescent Medicine and Health, 25, s. 245–256.
Money, J. (1962), Cytogenic and psychosexual incongruities with a note on space-form blindness. Paper presented at the 118th meeting of the American Psychiatric Association, Toronto, Canada.
Money, J. (1975). Ablatio penis: Normal male infant sex-reassigned as a girl. Archives of Sexual Behavior, 4, 65–71.
Moriceau, S., i Sullivan, R. M. (2006), Maternal presence serves as a switch between learning fear and attraction in infancy. Nature Neuroscience, 9, 1004–1006.
Murray, H.A., Barrett, W.G., Homburger, E., Langer, W.C., Mekeel, H.S., Morgan, C.D., White, R.W., Diven, K., Mackinnon, D.W., Frank, J.D., Rosenzweig, S., Jones, E.C., Sanford, R. N., Wheeler, D. R., Beck, S.J., Peterson, R.T., Christenson, J.A., Sears, R.N., Cobb, E.A., Shevach, B.J., Inglis, E., Smith, C.E., Kunze, K.R., Trowbridge, E.H., Moore, M., Whitman, E.M., Rickers-Ovsiankina, M., Wolf, R. E. (1938), Explorations in personality: A clinical and experimental study of fifty men of college age. New York, NY: Oxford University Press.
Niemiec, C. P., i Ryan, R. M. (2009), Autonomy, competence, and relatedness in the classroom: Applying self-determination theory to educational practice. Theory and Research in Education, 7, s. 133–144.
Novin, D., Robinson, K., Culbreth, L. A., i Tordoff, M. G. (1985), Is there a role for the liver in the control of food intake? The American Journal of Clinical Nutrition, 42, s. 1050–1062.
O’Connell, S. (Writer/Producer). (2004), Dr. Money and the boy with no penis. [Television documentary series episode]. In: Horizon. London, UK: BBC.
Paramaguru, K. (2013, listopad), Boy, girl, or intersex? Germany adjusts to a third option at birth. Time. Retrieved from: http://world.time.com/2013/11/12/boy-girl-or-intersex/.
Pessoa, L. (2010), Emotion and cognition and the amygdala: From „what is it?” to „what’s to be done?” Neuropsychologia, 48, s. 3416–3429.
Pillard, R.C., i Bailey, M. J. (1995), A biologic perspective on sexual orientation. The Psychiatric Clinics of North America, 18(1), s. 71–84.
Pillard, R.C., i Bailey, M. J. (1998), Sexual orientation has a heritable component. Human Biology, 70, s. 347–365.
Plutchik R. (2009). Approaches to Emotion, pod red. Klaus R. Scherer, Paul Ekman, Psychology press, s. 197.
Ponseti, J., Bosinski, H.A., Wolff, S., Peller, M., Jansen, O., Mehdorn, H.M., Büchel, C., Siebner, H. R. (2006), A functional endophenotype for sexual orientation in humans. Neuroimage, 33(3), 825–833.
Prader-Willi Syndrome Association. (2012). What is Prader-Willi Syndrome? Retrieved from: http://www.pwsausa.org/syndrome/index.htm.
Reiner A., (1990), An Explanation of Behavior, Science, vol. 250, s. 303. https://www.researchgate.net/publication/6043837_The_Triune_Brain_in_Evolution_Role_in_Paleocerebral_Functions_Paul_D_MacLean_Plenum_New_York_1990_xxiv_672_pp_illus_75
Qin, S., Young, C.B., Duan, X., Chen, T., Supekar, K., i Menon, V. (2013), Amygdala subregional structure and intrinsic functional connectivity predicts individual differences in anxiety during early childhood. Biological Psychiatry. Advance online publication. doi:10.1016/j.biopsych.2013.10.006.
Rahman, Q., i Wilson, G.D. (2003a), Large sexual-orientation-related differences in performance on mental rotation and judgment of line orientation tasks. Neuropsychology, 17, s. 25–31.
Rahman, Q., i Wilson, G.D. (2003b), Sexual orientation and the 2nd to 4th finger length ratio: Evidence for organising effects of sex hormones or developmental instability? Psychoneuroendocrinology, 28, s. 288–303.
Raineki, C., Cortés, M. R., Belnoue, L., i Sullivan, R. M. (2012). Effects of early-life abuse differ across development: Infant social behavior deficits are followed by adolescent depressive-like behaviors mediated by the amygdala. The Journal of Neuroscience, 32, s. 7758–7765.
Rodriguez-Larralde, A., i Paradisi, I. (2009), Influence of genetic factors on human sexual orientation. Investigacion Clinica, 50, s. 377–391.
Ross, M. W., i Arrindell, W. A. (1988), Perceived parental rearing patterns of homosexual and heterosexual men. The Journal of Sex Research, 24, s. 275–281.
Saxe, L., i Ben-Shakhar, G. (1999), Admissibility of polygraph tests: The application of scientific standards post-Daubert. Psychology, Public Policy, and Law, 5, s. 203–223.
Schachter, S., i Singer, J. E. (1962), Cognitive, social, and physiological determinants of emotional state. Psychological Review, 69, 379–399.
Sherwin, B.B. (1988), A comparative analysis of the role of androgen in human male and female sexual behavior: Behavioral specificity, critical thresholds, and sensitivity. Psychobiology, 16, 416–425.
Smink, F.R.E., van Hoeken, D., i Hoek, H. W. (2012), Epidemiology of eating disorders: Incidence, prevalence, and mortality rates. Current Psychiatry Reports, 14, 406–414.
Soussignan, R. (2001). Duchenne smile, emotional experience, and autonomic reactivity: A test of the facial feedback hypothesis. Emotion, 2, 52–74.
Speakman, J.R., Levitsky, D.A., Allison, D.B., Bray, M.S., de Castro, J.M., Clegg, D.J., Clapham, J.C., Dulloo, A.G., Gruer, L., Haw, S., Hebebrand, J., Hetherington, M.M., Higgs, S., Jebb, S.A., Loos, R.J., Luckman, S., Luke, A., Mohammed-Ali, V., O'Rahilly, S., Pereira, M., Perusse, L., Robinson, T.N., Rolls, B., Symonds, M.E., Westerterp-Plantenga, M.S. (2011), Set points, settling points and some alternative models: Theoretical options to understand how genes and environment combine to regulate body adiposity. Disease Models & Mechanisms, 4, 733–745.
Strack, F., Martin, L. i Stepper, S. (1988), Inhibiting and facilitating conditions of the human smile: A nonobtrusive test of the facial feedback hypothesis. Journal of Personality and Social Psychology, 54, 768–777.
Swaab, D.F., i Hofman, M. A. (1990), An enlarged suprachiasmatic nucleus in homosexual men. Brain Research, 537, 141–148.
Tamietto, M., Castelli, L., Vighetti, S., Perozzo, P., Geminiani, G., Weiskrantz, L., i de Gelder, B. (2009), Unseen facial and bodily expressions trigger fast emotional reactions. Proceedings of the National Academy of Sciences,USA, 106, 17661–17666.
Tangmunkongvorakul, A., Banwell, C., Carmichael, G., Utomo, I. D., i Sleigh, A. (2010), Sexual identities and lifestyles among non-heterosexual urban Chiang Mai youth: Implications for health. Culture, Health, and Sexuality, 12, 827–841.
Wang, Z., Neylan, T.C., Mueller, S.G., Lenoci, M., Truran, D., Marmar, C.R., Weiner, M.W., Schuff, N. (2010), Magnetic resonance imaging of hippocampal subfields in posttraumatic stress disorder. Arch Gen Psychiatry, 67(3), 296–303. doi:10.1001/archgenpsychiatry.2009.205.
Weinsier, R.L., Nagy, T.R., Hunter, G.R., Darnell, B.E., Hensrud, D.D., i Weiss, H. L. (2000), Do adaptive changes in metabolic rate favor weight regain in weight-reduced individuals? An examination of the set-point theory. The American Journal of Clinical Nutrition, 72, 1088–1094.
Woods, S.C. (2004), Gastrointestinal satiety signals I. An overview of gastrointestinal signals that influence food intake. American Journal of Physiology: Gastrointestinal and Liver Physiology, 286, G7–G13.
Woods, S.C., i D’Alessio, D.A. (2008), Central control of body weight and appetite. Journal of Clinical Endocrinology and Metabolism, 93, S37–S50.
Yerkes, R.M., i Dodson, J. D. (1908), The relation of strength of stimulus to rapidity of habit-formation. Journal of Comparative Neurology and Psychology, 18, 459–482. doi:10.1002/cne.920180503.
Zajonc, R. B. (1980), Feeling and thinking: Preferences need no inferences. American Psychologist, 35(2), 151–175.
Zajonc, R.B. (1998), Emotions. In: D. T. Gilbert i S. T. Fiske (eds.), Handbook of social psychology (4 wyd., tom 1, s. 591–632). New York, NY: McGraw-Hill. |
# Emocje i motywacje
## Emocje
Emocje odczuwamy wszyscy, choć każdy z nas trochę inaczej. Zapewne zgodzimy się z tym, że życie w świecie wyczyszczonym z emocji byłoby potwornie nudne. Silne emocje towarzyszą nam, gdy się zakochujemy oraz gdy przeżywamy zawód miłosny, gdy oglądamy scenę przemocy na filmie, spodziewamy się trudnej rozmowy z rodzicem albo przyjaciółką, gdy śpieszymy się na pociąg lub gdy oglądamy mecz. Wzbudzanie określonych emocji (zwykle przyjemnych jak radość czy poczucie szczęścia i spełnienia) jest powszechnie wykorzystywane w przekazach reklamowych nastawionych na sprzedaż produktów. Wzbudzanie emocji nieprzyjemnych (lęk, wzburzenie, niepokój) w odbiorcach należy natomiast do środków marketingu politycznego.
Czym zatem są tak dobrze nam znane emocje (ang. )? To subiektywny stan psychiczny. Jego pojawienie się natychmiastowo uruchamia realizację związanego z określoną emocją schematu działania zwanego programem emocjonalnym, jednocześnie hamując realizację prowadzonych w tym momencie innych programów. Na odczuwanie przez nas emocji składają się cztery czynniki: nasze subiektywne doświadczenia, ekspresja, ocena poznawcza i reakcje fizjologiczne (Levenson, Carstensen, Friesen i Ekman, 1991). Jednak, co będzie omówione w dalszej części tego rozdziału, dokładna kolejność występowania tych czynników nie jest ustalona. Subiektywne doświadczenie jest bodźcem zewnętrznym, który nie musi pochodzić ze świata zewnętrznego – wyobraźmy sobie, że kogoś na myśl o wojnie ogarnia smutek, mimo że sam wojny nigdy nie doświadczył. Ekspresja to werbalny bądź niewerbalny sposób wyrażania emocji (Gross, 1999). W ramach oceny poznawczej natomiast jednostka próbuje określić, w jaki sposób dana sytuacja na nią wpłynie (Roseman i Smith, 2001). Reakcje fizjologiczne (somatyczne), czyli czwarta składowa emocji, to: zmiany wyrazu twarzy, gesty, „ściskanie w żołądku”, „motyle w brzuchu”, „miękkie nogi”, przyśpieszenie tętna, pocenie się itp. (Soussignan, 2002).
W mowie potocznej określenia „emocja” i „nastrój” bywają używane zamiennie, nie daj się więc zmylić zwyczajowemu znaczeniu tych słów. Dla psychologa emocje i nastrój to różne stany afektywne, a podstawowe różnice między nimi są następujące:
1.
czas trwania,
2.
intensywność,
3.
obiekt,
4.
wpływ na działanie.
Omówmy te różnice po kolei.
Czas trwania. Ekspresja emocji, czyli subiektywne zmiany somatyczne (np. przyśpieszenie bicia serca, nagły skurcz brzucha) trwają krótko: od kilku sekund do kilkunastu minut. Myśli dotyczące emocji, które też „wlicza się” do stanu afektywnego zwanego emocją, i będące świadomym opisywaniem przeżyć, trwają od kilku minut do kilku godzin. Nie da się więc jednoznacznie powiedzieć, ile dokładnie trwa emocja, można jednak przyjąć, że odczuwamy ją od kilku sekund do kilku godzin. Nastrój natomiast jest stanem trwającym od kilku godzin, a czasem tygodni do nawet kilku miesięcy.
Intensywność. Emocje odczuwamy bardzo silnie i mają one swój „koloryt”, są bardzo różnorodne. Można odczuwać strach i złość, i choć obie te emocje będą należały do grupy emocji negatywnych, potrafimy je wyraźnie odróżnić. Gdy natomiast mówimy o nastroju, potrafimy tylko wskazać, czy jest on podwyższony (pozytywny) czy obniżony (negatywny) i natężenie tych odczuć jest dużo słabsze.
Obiekt. W przypadku emocji zazwyczaj wiemy, co jest ich powodem. Gdy rozzłościsz się, bo kolega po raz kolejny zapomniał podlać kwiaty podczas twojej nieobecności w mieszkaniu i wszystkie zwiędły, wiesz, na kogo się złościsz: na kolegę. W przypadku odczuwania radosnego nastroju nie wiesz, co jest jego powodem. Obiekt nie jest znany, zwykle nie wiemy, w odpowiedzi na jakie wydarzenia się pojawił.
Wpływ na działanie. Emocje aktywują specyficzny program, nadają mu priorytet i hamują inne programy, o czym wspomnieliśmy już wyżej. Nastrój nie wywołuje takich reakcji, co wcale nie znaczy, że nie ma na nas żadnego wpływu. Gdy jesteśmy w określonym nastroju, mamy tendencję do działań zgodnych z tym nastrojem. Podwyższony nastrój sprawia, że podejmujemy bardziej otwarte działania, gdyż jesteśmy nastawieni optymistycznie. Gdy mamy obniżony nastrój, stajemy się np. bardziej podejrzliwi. Nie znaczy to jednak, że będąc w nastroju pozytywnym, mamy tendencję do działań ryzykownych, a w nastroju negatywnym - działamy asekuracyjnie. Jest to dość złożona kwestia i liczne badania na ten temat nie przynoszą jednoznacznej odpowiedzi.
Nastrój (ang. ) w związku z powyższym opisem, to długotrwały, mniej intensywny od emocji stan afektywny, który nie pojawia się w odpowiedzi na konkretne zdarzenie. Nastrój nie musi być świadomie rozpoznany i nie nosi znamion intencjonalności charakterystycznych dla emocji (Beedie, Terry, Lane i Devonport, 2011). Więcej informacji na temat nastroju i jego zaburzeniach znajdziesz w części Zaburzenia nastroju.
### Teorie emocji
Emocje to odczuwanie szczytu radości lub głębi rozpaczy, złości, gdy zostaliśmy zdradzeni przez kogoś, strachu, gdy coś nam grozi, albo zaskoczenia, gdy zdarza się coś niespodziewanego. Skąd te różnorodne emocje się biorą, jaką pełnią funkcję? Psycholodzy stosują różne podejścia do opisu emocji. Poniżej przedstawimy w skrócie najbardziej historycznie znane teorie emocji, opierające się na poszczególnych aspektach emocji. Najpierw omówimy mechanizmy i przyczyny ich powstawania w ciele (aspekt biologiczny). Następnie zajmiemy się rolą emocji (aspekt poznawczy), po czym przedstawimy rodzaje emocji i ich funkcje (aspekt społeczny).
### Podejście fizjologiczne i jego krytyka
Nasze stany emocjonalne to połączenie fizjologicznego pobudzenia, oceny psychologicznej i subiektywnych doświadczeń. Łącznie nazywamy je komponentami emocji (ang. ). Na ich ocenę wpływają nasze doświadczenia, pochodzenie i kultura, dlatego różni ludzie mogą w podobnych okolicznościach odczuwać odmienne emocjonalne doświadczenia. W ostatnim stuleciu zaproponowano różne teorie (zob. ) mające wyjaśnić, gdzie leży źródło emocji. Warto tu jednocześnie zauważyć, że omawiany w poniższych przykładach proces emocjonalny reakcji na niebezpieczeństwo (którym jest jadowity wąż w ogrodzie) jest bardzo prosty. Trudno jest za ich pomocą opisać złożone stany emocjonalne, jakimi są uczucia. Z tego powodu psycholodzy poszukują wyjaśnień skomplikowanych procesów, rozwijając m.in. teorie omawiane poniżej.
Teoria Jamesa-Langego (ang. ) opracowana niezależnie przez Williama Jamesa (1842-1910) oraz Carla Langego (1834-1900) zakłada, że emocje powstają z pobudzenia fizjologicznego. Przypomnij sobie dyskusję na temat układu współczulnego i reakcji „walcz lub uciekaj” w sytuacji zagrożenia (por. rozdział Biopsychologia). Jeśli zetkniesz się z jakimś niebezpieczeństwem, np. z jadowitym wężem w ogrodzie, twój układ współczulny będący częścią autonomicznego układu nerwowego (wegetatywnego układu nerwowego) (ang. ) zainicjuje znaczne pobudzenie fizjologiczne, co spowoduje szybsze bicie serca i przyśpieszony oddech. Według teorii emocji Jamesa-Langego strach pojawiłby się dopiero po wystąpieniu tego fizjologicznego pobudzenia. Co więcej, różnym uczuciom towarzyszą odmienne wzorce pobudzenia.
Teoria ta nie została jednak potwierdzona przez badaczy. Chwalisz, Diener i Gallagher (1988), a przed nimi Hohmann (1966) przeprowadzili badanie doświadczeń emocjonalnych u osób z uszkodzonym rdzeniem kręgowym. Stwierdzili, że jednostki z mniejszą świadomością pobudzenia AUN spowodowane uszkodzeniem rdzenia kręgowego, odczuwały emocje mniej intensywnie. Wyniki te zostały podważone przez inne badanie (Bernard, 1991), w którym osoby z uszkodzonym rdzeniem kręgowym raportowały odczuwanie emocji po urazie rdzenia kręgowego silniej niż przed urazem.
Zaproponowana przez Jamesa i Langego teoria, jakoby fizjologiczne pobudzenie pojawiające się przy różnych rodzajach emocji było na tyle odrębne, by skutkowało tak szerokim spektrum doświadczanych przez nas emocji, zostało podważone również na gruncie teoretycznym. Walter Cannon (1871-1945) i jego uczeń Philip Bard (1898–1977) opracowali teorię Cannona-Barda (ang. ), według której emocje tworzą się w mózgu (wg Cannona we wzgórzu), a nie za pośrednictwem AUN i narządów wewnętrznych. Teoria ta również głosi, że różne stany emocjonalne są powiązane z tym samym pobudzeniem fizjologicznym oraz że pobudzenie fizjologiczne i doświadczenie emocjonalne pojawiają się równocześnie i niezależnie (Lang, 1994). Zatem podczas spotkania z jadowitym wężem strach poczujesz dokładnie w tym samym momencie, gdy ciało uruchomi reakcję „walcz lub uciekaj”. Ta reakcja emocjonalna będzie odrębna i niezależna od pobudzenia fizjologicznego, mimo że pojawiają się one razem.
Również ta teoria została zweryfikowana w późniejszych badaniach. Wynika z niej, że źródłem emocji jest nie tylko wzgórze (więcej o tym poniżej). Również, w przeciwieństwie do tego, co sugerował Cannon, poszczególnym stanom emocjonalnym odpowiadają specyficzne wzorce pobudzenia fizjologicznego, a pobudzenie fizjologiczne i doświadczenie emocjonalne nie występują jednocześnie.
### Rola oceny poznawczej w doświadczaniu emocji
G. Marañon Posadillo, hiszpański lekarz, wykorzystał swoje badania nad psychologicznymi skutkami działania adrenaliny do opracowania modelu doświadczania emocji. Warto wspomnieć, że zaproponowany przez niego model został opublikowany przed publikacją również opartej na badaniach działania adrenaliny dwuczynnikowej teorii Schachtera-Singera (Cornelius, 1991). Dwuczynnikowa teoria Schachtera-Singera (ang. ) to propozycja teorii emocji, uwzględniająca zarówno pobudzenie fizjologiczne, jak i doświadczenie emocjonalne. Zakłada ona, że na emocje składają się dwa czynniki – fizjologiczny i poznawczy. Innymi słowy pobudzenie fizjologiczne jest interpretowane, aby wywołać doświadczenie emocjonalne. Wracając do naszego przykładu z jadowitym wężem w ogrodzie, według teorii dwuczynnikowej wąż powoduje aktywację układu współczulnego, która w tym przypadku otrzymuje etykietę strachu, więc naszym doświadczeniem jest strach. Gdyby została do tego zdarzenia przypisana etykietka „radość”, doświadczysz takiego właśnie uczucia. Dwuczynnikowa teoria Schachtera-Singera polega na etykietowaniu doświadczeń fizjologicznych; nadawanie tych etykiet jest jednym z rodzajów oceny poznawczej.
Ocena poznawcza (ang. ) to rozpoznanie przez jednostkę, że określona sytuacja ma znaczenie z punktu widzenia jej celów i interesów. Schachter i Singer uważali, że ocena poznawcza sytuacji ma kluczowe znaczenie dla doświadczania emocji, ponieważ samo pobudzenie fizjologiczne daje doświadczenia niespecyficzne dla określonej emocji. Bez włączenia oceny poznawczej możliwe byłoby zatem błędne przypisanie pobudzenia do jakiegoś doświadczenia emocjonalnego (Schachter i Singer, 1962).
Zależność między naszym doświadczaniem emocji i ich poznawczym przetwarzaniem, a także kolejnością ich występowania nadal pozostaje przedmiotem badań i dyskusji. Richard S. Lazarus (1922-2002) (1991) opracował teorię poznawczo-relacyjną (ang. ) zwaną teorią Lazarusa (1991), która zakłada, że odczuwanie emocji ma związek ze złożoną oceną poznawczą bodźca. Wg Lazarusa ocena poznawcza składa się z dwuetapowej oceny pierwotnej oraz oceny wtórnej. Pierwszy etap oceny pierwotnej to odpowiedź na pytanie, czy zdarzenie ma związek z moimi celami i interesami. Jeśli nie ma związku, emocja się nie pojawia. Jeśli dostrzegamy taki związek, ustalamy, czy jego efekt będzie dla mnie dobry czy zły (to jest drugi etap oceny pierwotnej). Po czym następuje ocena wtórna z pytaniem: co mogę zrobić w obecnej sytuacji. Chociaż proces ten jest wyraźnie podzielony na etapy, wg twórcy teorii zachodzi on płynnie.
Robert Zajonc (1923-2008) zaproponował koncepcję, która stoi w opozycji do teorii Lazarusa. Zajonc (1980) twierdzi, że we wzbudzaniu emocji procesy poznawcze nie biorą udziału. Mamy bowiem możliwość blokowania procesów poznawczych, np. wyłączając telewizor. Nie potrafimy jednak zablokować odczuwania silnych emocji, a blokowanie zachowań uruchamianych przez procesy związane z określoną emocją niekiedy jest bardzo trudne. Zajonc twierdzi, że bardzo często emocja pojawia się zanim nastąpi poznanie. Teoria ta znajduje poparcie chociażby w badaniach wpływu reklam na konsumenta albo w znanym nam wszystkim odczuciu „pierwszego wrażenia”, które wywiera na nas nowo poznana osoba. Potrafimy polubić kogoś lub jakiś produkt, zanim uzyskamy więcej informacji na jego temat.
### Regulacja emocji
Wróćmy do opisanego w przykładu z wykładowcą, który prosi cię o przygotowanie prezentacji. Nawet jeśli nie lubisz występować publicznie, zapewne dasz sobie z tym radę. Dzięki regulacji emocji (ang. ), czyli procesowi, który rozpoczyna, kształtuje i podtrzymuje doświadczanie emocji, tu i teraz staniesz na katedrze i zaczniesz przemawiać. Regulacja emocji może mieć charakter uświadomiony (podmiotowy) oraz nieuświadomiony (automatyczny). Automatyczna regulacja emocji (ARE) (ang. ) zachodzi u nas w trybie ciągłym, w dużej części dokonuje się bez naszego aktywnego myślenia. Mauss z zespołem podczas badań tego rodzaju regulacji emocji ustaliła, że automatyczna regulacja emocji może wpłynąć na każdą ze składowych w procesie odczuwania emocji i może oddziaływać na: zadania, w których bierzesz udział, twoją ocenę sytuacji, wybór, którego dokonujesz, by zaangażować się emocjonalnie, oraz na twoje zachowania po tym, jak tych emocji już doświadczysz. (Mauss, Bunge i Gross, 2007, Mauss, Levenson, McCarter, Wilhelm i Gross, 2005). ARE jest podobna do innych automatycznych procesów poznawczych, w których uruchamiane są struktury wiedzy mające wpływ na nasze funkcjonowanie. Wspomniane struktury wiedzy to m.in. pojęcia, programy i wzorce.
Według koncepcji ARE proces automatycznej kontroli zachodzi u każdego z nas. Działa na zasadzie schematu, a regulacja emocji, która pojawia się w ramach tego procesu, nie wymaga celowego myślenia. ARE można porównać do jazdy na rowerze. Jeśli już raz tę czynność opanujesz, możesz z niej korzystać bez zastanowienia. Automatyczna regulacja emocji może przyjąć postać adaptacyjną lub nieadaptacyjną, co pozostaje nie bez znaczenia dla naszego stanu zdrowia (Hopp, Troy i Mauss, 2011). Mauss z zespołem badaczy ustaliła, że przyjmowanie określonych strategii działania może zmniejszyć odczuwanie negatywnych emocji, co z kolei może wpłynąć na poprawę zdrowia psychicznego (Mauss, Cook, Cheng i Gross, 2007; Mauss, Cook, i Gross, 2007; Shallcross, Troy, Boland i Mauss, 2010; Troy, Shallcross i Mauss, 2013; Troy, Wilhelm, Shallcross i Mauss, 2010). Mauss zasugerowała również, że chociaż problematyczne bywają sposoby pomiaru emocji, większość najczęściej mierzonych zagadnień związanych z emocjami, pozostaje według niej przydatna (Mauss et al., 2005; Mauss i Robinson, 2009). Zastosowanie całkiem odmiennego podejścia do badania emocji zmienia jednak nasze dotychczasowe rozumienie tego zagadnienia.
Po około 30 latach badań interdyscyplinarnych Lisa Feldman Barrett (ur. 1963) przyznała, że nadal nie rozumiemy, czym są emocje (więcej w notce powyżej). Według Barrett emocje nie zostały wbudowane w mózg w trakcie naszych narodzin i są tworzone na podstawie naszych doświadczeń. Emocje wg tej teorii są domysłami, które budują nasze doświadczanie świata. W rozdziale Czym jest poznanie? pisaliśmy, że pojęcia to kategorie lub zbiory informacji lingwistycznych, obrazów, idei lub wspomnień jak doświadczenia życiowe. Barret rozszerzyła tę definicję, by włączyć w nią emocje jako pojęcia - domysły (Barrett, 2017). W zależności od naszych domysłów, dwa identyczne stany fizjologiczne mogą przejawiać się innymi stanami emocjonalnymi. Na przykład twój mózg domyśla się nieprzyjemnego odczucia w żołądku, gdy znajdujesz się w piekarni, może wytworzyć uczucie głodu. Jednak ten sam domysł w sytuacji, gdy czekasz na wynik ważnego badania medycznego, może u ciebie wytworzyć obawę. To pokazuje, że z tego samego odczucia fizjologicznego mogą zostać wytworzone dwie emocje. W związku z tym zamiast traktować emocje jako coś niepodlegającego kontroli, możesz nad nimi panować i na nie wpływać.
### Złożoność emocji
Klasyczne teorie emocji zajmowały się wyjaśnianiem mechanizmów powstawania najprostszych emocji, wyzwolonych programami uciekaj (emocja strachu) albo walcz (emocja wściekłości). W ostatnim czasie psycholodzy, wykorzystując techniki obrazowania pracy mózgu, wskazali siedem emocji: panika, strach, wściekłość, żądza, poszukiwanie, opieka, zabawa.
Zestaw tych siedmiu emocji częściowo pokrywa się z siedmioma uniwersalnymi ekspresjami mimicznymi, z których każda emocja utożsamiana jest z odmiennym wyrazem twarzy. Są to: radość, zdziwienie, smutek, strach, wstręt, pogarda i złość () (Ekman i Keltner, 1997). Wydaje się, że nasza zdolność do rozpoznawania wyrazu twarzy i wyrażania emocji za pomocą mimiki jest uniwersalna we wszystkich kręgach kulturowych. Nawet osoby od urodzenia niewidome okazują emocje za pomocą takich samych ekspresji mimicznych, mimo że nigdy nie widziały ich u innych ludzi. To oznacza, że wzorzec aktywności mięśni twarzy zaangażowanych w wyrażanie emocji jest uniwersalny W zasadzie koncepcję tę zaproponowano już pod koniec XIX wieku w książce Karola Darwina O wyrazie uczuć u człowieka i zwierząt (1872). Rozbieżności w obu tych zestawach emocji pokazują, jak ważna jest metoda pozyskania tych informacji. Pierwszy zestaw został stworzony na podstawie badania obszarów mózgu odpowiedzialnych za uruchamianie programów związanych z określonymi emocjami, a drugi zestaw jest przejawem ekspresji emocjonalnej.
Na niedoskonałość sposobu, w jaki pozyskujemy informacje na temat emocji na podstawie opisu doświadczanych emocji zwrócił także uwagę Robert Plutchik (1927-2006). Według Plutchika emocje nie są jedynie etykietą jak „złość”, „wstręt” czy „strach"”, a pozyskiwanie informacji na podstawie wywiadu o emocjach przez nas doświadczanych jest podejściem zbyt niedokładnym. Opis stanu emocjonalnego przez badanych może się więc składać z takich elementów jak: zmiany fizjologiczne („uczucie braku apetytu”), postawy wobec siebie („uczucie, że jest się kimś nieistotnym”) oraz impuls do działania („czuję, że się rozpłaczę”). Innym przykładem trudności z pozyskiwaniem informacji na temat emocji jest celowe błędne podanie przez uczestnika badania opisu doświadczanej przez niego emocji. W przedstawionym wyżej eksperymencie () wykazano, że uczestnicy w grupie z osobą odgrywającą złość faktycznie czuli złość, ale badaczowi mówili, że czują euforię, ponieważ nie chcieli się przyznać publicznie do prawdziwej emocji w obawie przed gorszą oceną w badaniu końcowym. Plutchik twierdzi również m.in., że umiejętność celnego opisu emocji zależy również od zakresu słownictwa badanego. Ponadto emocje rzadko występują w czystej postaci, zwykle są mieszaniną innych emocji i trudno je opisać w sposób prosty i jednoznaczny (Plutchik, 2009).
Uprawniona wydaje się w związku z tym konkluzja, że emocje to hipotetyczny konstrukt albo wnioskowanie na podstawie przesłanek należących do różnych kategorii. Są nimi ustne opisy doświadczanych uczuć, ekspresja behawioralna, reakcje w grupie rówieśniczej itp. Emocje można opisywać, używając subiektywnych wyrażeń należących do języka potocznego (szczęście, smutek, wstręt). Można też odnieść się do emocji z perspektywy behawioralnej (uderzanie, bicie, krzyk, ucieczka, płacz, wymiotowanie). Perspektywa reakcji emocjonalnych na otoczenie, czyli język funkcjonalny, to trzeci sposób opisu emocji. W ujęciu funkcjonalnym efektem ucieczki jest ochrona jednostki, a efektem ataku złości jest zniszczenie obiektu, efektem smutku i płaczu jest próba uzyskania wsparcia od innych (Plutchik, 2009).
Plutchik z przedstawionego w tabeli zestawienia wyciąga trzy główne wnioski:
1.
Emocja może mieć różny stopień natężenia (strach, przerażenie).
2.
Emocje mogą być do siebie zbliżone (wstyd, poczucie winy) albo bardzo od siebie odległe (radość i obrzydzenie).
3.
Emocje mają charakter polarny – radość jest przeciwstawna do smutku, nienawiść do miłości.
Wskazał on następnie osiem podstawowych emocji ułożonych w pary (diady) przeciwieństw: gniew-strach, wstręt-akceptacja, smutek-radość, zaskoczenie-oczekiwanie. Zastosujemy teraz dość nietypowe, ale obrazowe porównanie, które ułatwi, mamy nadzieję, zrozumienie modelu emocji zaproponowanego przez Plutchika.
Wyobraźmy sobie pełną w środku bryłę w kształcie podobnym do stożka. Na płaskiej części bryły (na kolistej podstawie stożka) nanosimy nazwy par przeciwstawnych emocji podstawowych. Następnie przeciwstawnym emocjom przypisujemy przeciwstawne kolory, na wzór koła barw. Od razu można zauważyć, że te przeciwstawne emocje się znoszą, podobnie jak połączenie przeciwstawnych barw daje kolor czarny albo szary. Wyobraźmy sobie teraz, że na każdą emocję precyzyjnie kładziemy krople odpowiednio zabarwionej wody i patrzymy, jak barwniki rozchodzą się w głąb bryły. Jeśli pokroimy teraz bryłę na plastry, zobaczymy, że im dalej od miejsca, gdzie barwniki zostały zakroplone, tym kolory są mniej intensywne.
Jest to analogia do bryły emocji Plutchika, która przedstawia zależności między emocjami i ich nasileniem: emocje znajdujące się w kolejnych coraz mniejszych „plasterkach” są coraz słabsze i coraz trudniej je od siebie odróżnić. Według Plutchika emocje mogą być tak słabe, że stają się nierozróżnialne (analogia wierzchołka bryły, do którego nie dotarł żaden barwnik).
Plutchik, posiłkując się tą samą analogią koła barw, które było podstawą stożkowatej bryły, przedstawia nie tylko emocje podstawowe, lecz także emocje złożone. Gdy zmieszamy emocje sąsiadujące ze sobą, np. zaskoczenie i smutek, otrzymamy emocję drugiego rzędu – rozczarowanie, podobnie radość i oczekiwanie da optymizm.
### Summary
Emocje to subiektywne doświadczenia, na które składają się fizjologiczne pobudzenie i ocena poznawcza. Do wyjaśnienia naszych doświadczeń emocjonalnych zaproponowano różne teorie. Teoria Jamesa-Langego zakłada, że emocje pojawiają się jako funkcja pobudzenia fizjologicznego. Teoria Cannona-Barda utrzymuje, że doświadczenie emocjonalne pojawia się równocześnie z pobudzeniem fizjologicznym, ale jest od niego niezależne. Dwuczynnikowa teoria Schachtera-Singera sugeruje, że pobudzenie fizjologiczne otrzymuje etykietę poznawczą w zależności od kontekstu, a te dwa czynniki łącznie prowadzą do doświadczenia emocjonalnego.
Teoria poznawczo-relacyjna Lazarusa przyjmuje, że doświadczanie emocji ma związek z dwuetapową oceną poznawczą bodźca (ocena pierwotna i ocena wtórna). Ocena pierwotna jest dwuetapowa. Najpierw oceniany jest związek zdarzenia z moimi celami i interesami. Jeśli go nie ma, emocja się nie pojawia. Jeśli związek istnieje, dochodzi do oceny efektu zdarzenia (dobry efekt czy zły). Ocena wtórna poszukuje odpowiedzi: co mogę zrobić w obecnej sytuacji. Zajonc w opozycji do Lazarusa twierdzi, że procesy poznawcze nie biorą udziału we wzbudzaniu emocji, ponieważ procesy poznawcze możemy zablokować (np. wyłączając telewizor), ale nie mamy możliwości zablokować odczuwania silnych emocji.
Regulacja emocji to proces, który rozpoczyna, kształtuje i podtrzymuje doświadczanie emocji. Regulacja emocji może mieć charakter uświadomiony (podmiotowy) oraz nieuświadomiony (automatyczny). Plutchik zaproponował opis emocji z wykorzystaniem analogii do koła barw. Według Plutchika emocje można opisywać, używając subiektywnych wyrażeń należących do języka potocznego, perspektywy behawioralnej oraz języka funkcjonalnego.
### Review Questions
### Critical Thinking Questions
### Personal Application Question
|
# Emocje i motywacje
## Biologia emocji
W jaki sposób reagujemy na emocje? Jak złożone są te procesy? U człowieka w programie reakcji na emocję biorą udział złożone systemy samoregulacji, o których zaledwie wspomnieliśmy w poprzednim podrozdziale. Badacze jak Cannon w latach 20. i 30. XX wieku poszukiwali jednego miejsca w mózgu odpowiedzialnego za powstawanie emocji.
### Model trójstopniowej organizacji mózgu
MacLean (1913-2007) podjął próbę wyjaśnienia procesów powstawania emocji i motywacji na podstawie ewolucji i budowy mózgu. W latach 60. XX wieku zaproponował model trójstopniowej organizacji mózgu. Opierała się ona na obserwacji, że mózg ssaków, w tym i człowieka, składa się z trzech odrębnych obszarów. Według MacLeana obszar położony najgłębiej pochodzi od gadów. Obszar położony nad nim, nazwany przez MacLeana obszarem limbicznym (1952), mieliśmy odziedziczyć po wczesnych ssakach, a trzeci, położony najbardziej na zewnątrz, miał wyewoluować dopiero u ssaków współczesnych.
Zgodnie z teorią MacLeana mózg gadzi (ang. ) jest „samolubny”, odpowiada za zachowania niewerbalne i działanie automatyczne. Mózg paleossaków (ang. ) odgrywa kluczową rolę w zachowaniach rodzicielskich, karmieniu i zachowaniach ukierunkowanych na rozmnażanie się. Procesy wyższego rzędu jak posługiwanie się językiem, myślenie racjonalne i abstrakcyjne oraz poznanie zachodzą natomiast wyłącznie w mózgu ssaków współczesnych (ang. ).
### Krytyka modelu MacLeana
Dość prosta teoria zaproponowana przez MacLeana zyskała szerokie uznanie u przedstawicieli różnych dziedzin nauki, nie znalazła jednak poparcia wśród ekspertów nauk o mózgu. Wraz z postępem badań teoria o trójstopniowej organizacji mózgu poddana została zdecydowanej krytyce. Zgodnie z wiedzą o ewolucji organizmów, struktury nazywane przez MacLeana mózgiem gadzim były obecne już u ryb bezszczękowych. Wbrew temu, co twierdził, należące do tego obszaru jądra podstawne są zaangażowane w inicjację i kontrolę ruchów zależnych od woli (ang. ). Potwierdzają to obserwacje osób z zaburzeniami tego obszaru mózgu, u chorych na Parkinsona albo pląsawicę Huntingtona. U osób tych upośledzona jest kontrola ruchów zależnych od woli (Reiner, 1990).
Zgodnie z aktualną wiedzą układ limbiczny pojawił się ewolucyjnie wcześniej niż u pierwszych ssaków. Elementy układu limbicznego: przegroda, ciało migdałowate i hipokamp posiadają już ptaki, gady i płazy. Obecna jest też u nich kora zakrętu obręczy. Funkcje wiązane z tymi obszarami – np. zachowania rodzicielskie są obecne również u gadów (krokodyle opiekują się młodymi), większości ptaków (Reiner, 1990). Nawet niektóre płazy (drzewołazy) opiekują się potomstwem.
Podobnie kora nowa wcale nie występuje po raz pierwszy u współczesnych ssaków. Kora nowa (w postaci niedużej struktury w przodomózgowiu) była już obecna u wczesnych ssaków 65 mln lat temu (Kaas, 2011). Jej elementy mają również ptaki, gady, ryby kostno- i chrzęstnoszkieletowe. Struktury te biorą u nich udział w postrzeganiu, podejmowaniu decyzji, uczeniu się, używaniu narzędzi, tworzeniu konceptów (szczególnie u ptaków). U niessaków struktura ta ma inną budowę co kora nowa, co wyjaśnia, dlaczego wcześniej nie była ona u tych zwierząt zauważona (Reiner, 1990).
### Powstawanie emocji w mózgu
Według aktualnego stanu wiedzy obszarami, które są kluczowe dla procesów emocjonalnych, są: ciało migdałowate i hipokamp w układzie limbicznym. Więcej o budowie mózgu przeczytasz w podrozdziale Mózg i rdzeń kręgowy.
### Układ limbiczny
Wcześniej wspominaliśmy już o układzie limbicznym (ang. ), czyli obszarze mózgu zaangażowanym w emocje i pamięć (). Składa się on z podwzgórza, wzgórza, ciała migdałowatego i hipokampa. Podwzgórze bierze udział w aktywacji układu współczulnego, stanowiącej część reakcji emocjonalnej. Wzgórze to centrum przekaźnikowe, którego neurony dokonują projekcji zarówno do ciała migdałowatego, jak i wyższych obszarów korowych w celu dalszego przetwarzania. Ciało migdałowate odgrywa rolę w przetwarzaniu informacji emocjonalnych i wysyłaniu ich do struktur korowych (Fossati, 2012). W hipokampie następuje integracja doświadczenia emocjonalnego z poznaniem (Femenía, Gómez-Galán, Lindskog i Magara, 2012).
### Ciało migdałowate
Ciało migdałowate (ang. ) jest przedmiotem dużego zainteresowania badaczy próbujących zrozumieć biologiczne podłoże emocji, w szczególności strachu i lęku (Blackford i Pine, 2012; Goosens i Maren, 2002; Maren, Phan i Liberzon, 2013). Składa się ono z licznych podjąder, w tym kompleksu podstawno-bocznego i jądra środkowego (). Kompleks podstawno-boczny (ang. ) ma gęstą sieć połączeń z różnymi obszarami czuciowymi w mózgu. Odgrywa zasadniczą rolę przy klasycznym warunkowaniu i przypisywaniu wartości emocjonalnej pamięci i procesach uczenia się. Jądro środkowe (ang. ) odpowiada za skupienie uwagi i jest połączone z podwzgórzem i różnymi obszarami pnia mózgu, dzięki czemu reguluje funkcjonowanie autonomicznego układu nerwowego i układów hormonalnych (Pessoa, 2010).
Jak pokazują badania, młode szczury pod nieobecność matki wykazują zwiększoną aktywność ciała migdałowatego. Gdy podawano im bodźce zapachowe, którym towarzyszył wstrząs elektryczny, szczury przejawiały awersję do podawanego im zapachu, co sugeruje, że uczyły się go bać. Jednak gdy to samo badanie prowadzono w obecności matki młodych szczurów, badane osobniki wykazywały upodobanie do wykorzystanego w eksperymencie zapachu. Wiązało się to z brakiem podwyższonej aktywności ciała migdałowatego. Sugeruje to, że obecność lub nieobecność matki (a zatem stopień pobudzenia ciała migdałowatego) decydował o tym, czy młode szczury uczyły się bać zapachu, czy też uczyły się wykazywać nim zainteresowanie (Moriceau i Sullivan, 2006).
Raineki, Cortés, Belnoue i Sullivan (2012) dowiedli, że u szczurów negatywne doświadczenia z pierwszych lat życia mogą wpływać na zmianę funkcjonowania ciała migdałowatego i prowadzić w późniejszym wieku do wzorców zachowania imitujących zaburzenia nastroju u ludzi. W badaniu tym małe szczury w ciągu 8–12 dni po narodzinach były dobrze lub źle traktowane. Stosowano dwie formy złego traktowania. Pierwsza wiązała się z nieodpowiednim legowiskiem. Szczurza matka miała w klatce za mało materiału, by stworzyć legowisko, przez co spędzała dużo czasu z dala od potomstwa, poświęcając go raczej na budowanie gniazda niż opiekę nad małymi. Druga forma złego traktowania miała związek z opisanym powyżej eksperymentem uczenia asocjacyjnego, które obejmowało kojarzenie zapachów ze wstrząsem elektrycznym pod nieobecność matki. W tym samym czasie grupa kontrolna znajdowała się z matką w odpowiednio wyściełanej klatce i nic nie zakłócało im spokoju. Małe szczury, które były źle traktowane, w okresie dojrzewania częściej wykazywały objawy podobne do depresji w porównaniu z próbą kontrolną. Zachowania te utożsamiono ze zwiększoną aktywacją ciała migdałowatego.
Badania na ludziach również sugerują zależność między ciałem migdałowatym a zaburzeniami nastroju lub stanami lękowymi. Zmiany w strukturze i funkcjonowaniu ciała migdałowatego zaobserwowano u nastolatków, u których stwierdzono ryzyko wystąpienia różnych zaburzeń nastroju i stanów lękowych lub je zdiagnozowano (Miguel-Hidalgo, 2013; Qin et al., 2013). Zauważono również, że różnice czynnościowe w ciele migdałowatym mogą stanowić biomarker do odróżnienia osób cierpiących na chorobę dwubiegunową od pacjentów z epizodem dużej depresji (Fournier, Keener, Almeida, Kronhaus i Phillips, 2013).
### Hipokamp
Jak już wcześniej wspomnieliśmy, w przetwarzanie emocjonalne zaangażowany jest również hipokamp (ang. ). Podobnie jak w przypadku ciała migdałowatego badania wykazały, że budowa i funkcjonowanie hipokampa mają związek z różnymi zaburzeniami lękowymi lub zaburzeniami nastroju. U osób cierpiących na zespół stresu pourazowego (PTSD) obserwuje się istotne zmniejszenie objętości kilku części hipokampa, co może wynikać z obniżonego poziomu neurogenezy i rozgałęzień dendrytowych (czyli odpowiednio tworzenia nowych neuronów i tworzenia nowych dendrytów w istniejących neuronach) (Wang et al., 2010). Mimo że takie badania korelacyjne uniemożliwiają wyciągnięcie wniosków przyczynowych, analizy potwierdzają poprawę na poziomie behawioralnym i zwiększenie objętości hipokampa u osób cierpiących na PTSD po zastosowaniu terapii farmakologicznej lub terapii poznawczo-behawioralnej (Bremner i Vermetten, 2004; Levy-Gigi, Szabó, Kelemen i Kéri, 2013).
### Summary
Układ limbiczny to emocjonalny obwód mózgu złożony z ciała migdałowatego, podwzgórza, wzgórza i hipokampa. Struktury te odgrywają rolę w prawidłowym przetwarzaniu emocji, jak również mają związek z zaburzeniami nastroju i zaburzeniami lękowymi. Zwiększoną aktywność ciała migdałowatego wiąże się z warunkowaniem strachu. Zmiany w strukturze hipokampa stwierdza się u osób narażonych lub cierpiących na zaburzenia nastroju. Wykazano, że objętość hipokampa zmniejsza się u osób z zespołem stresu pourazowego. |
# Emocje i motywacje
## Motywacja
Dlaczego robimy to, co robimy? Jakie motywacje leżą u podstaw naszego zachowania? Motywacja (ang. ) opisuje pragnienia i potrzeby, które kierują naszym zachowaniem tak, abyśmy osiągnęli zamierzony cel. Motywacja kieruje dążeniem do zaspokojenia naszych potrzeb fizjologicznych, na przykład głodu czy pragnienia. Wówczas mówimy o motywacji, która ma przywrócić naszą homeostazę (równowagę). Gdy nasze warunki bytowe są zapewnione, a mimo to pragniemy poprawić swój dobrostan, również kieruje nami motywacja. Wówczas jednak motywacja nie będzie bazowała na przywróceniu homeostazy, a na zaburzeniu jej.
### Teorie motywacji
William James (1842–1910) w istotny sposób przyczynił się do wczesnych badań nad motywacją. James wysnuł teorię, że zachowaniem kierują instynkty, które pomagają nam przetrwać (). Z biologicznego punktu widzenia instynkt (ang. ) to charakterystyczny dla danego gatunku wzorzec zachowania, którego nie da się nauczyć. James i jemu współcześni toczyli spór dotyczący dokładnej definicji instynktu. James zaproponował spis kilkudziesięciu ludzkich instynktów, a wielu żyjących ówcześnie badaczy stworzyło własne, odmienne listy. Za prawdziwe instynkty w czasach Jamesa uznano takie ludzkie zachowania, jak opieka matki nad dzieckiem, potrzeba jedzenia, gdy jest się głodnym, czy polowanie na ofiarę. Pogląd, że ludzkim zachowaniem kierują instynkty, był dość mocno krytykowany ze względu na niezaprzeczalną rolę uczenia się w kształtowaniu różnego rodzaju ludzkich zachowań. W rzeczywistości już na początku XX wieku wykazano w drodze eksperymentu, że pewne instynktowne zachowania wynikają z uczenia asocjacyjnego (przypomnij sobie warunkowanie strachu w eksperymencie Johna Watsona z „Małym Albertem”) (Faris, 1921).
Inna wczesna teoria motywacji sugerowała, że w kierowaniu zachowaniem szczególnie istotne jest utrzymanie homeostazy. Homeostaza (ang. ) to tendencja do zachowania równowagi czy optymalnego poziomu w danym układzie biologicznym. Obszar mózgu będący ośrodkiem kontroli organizmu otrzymuje dane z receptorów (tj. kompleksów neuronów), po czym kieruje efektorami (którymi mogą być inne neurony) w celu skorygowania wykrytego braku równowagi.
Zgodnie z teorią popędu (ang. ) odchylenia od homeostazy są motorem powstawania potrzeb fizjologicznych. Potrzeby te skutkują stanami popędu psychologicznego, który kieruje zachowaniem tak, by zaspokoić potrzeby i – ostatecznie – przywrócić homeostazę. Znasz to uczucie. Jeśli minęło już kilka godzin od śniadania, czujesz, że kurczy ci się żołądek, organizm wykrywa zmianę poziomu glukozy, aminokwasów i wolnych kwasów tłuszczowych we krwi i zaczyna być wytwarzany hormon grelina. Hormon ten wywołuje fizjologiczną potrzebę i odpowiadający jej stan popędu - głód. Pcha on cię do poszukiwania jedzenia i jego konsumpcji. Tuż po spożyciu posiłku żołądek jest pełny, poziom greliny, glukozy i innych składników krwi wysyła organizmowi sygnał „jestem najedzony” (więcej w ).
Co ciekawe, teoria popędu podkreśla również rolę nawyków w podejmowanej odpowiedzi behawioralnej. Nawyk (ang. ) to wzorzec zachowania, w który regularnie się angażujemy. Gdy podejmujemy zachowania, które skutecznie redukują dany popęd, z większym prawdopodobieństwem postąpimy tak samo, gdy popęd ten pojawi się w przyszłości (Graham i Weiner, 1996).
Rozszerzenie teorii popędu uwzględnia fakt, że potencjalnym czynnikiem motywującym może być poziom pobudzenia. Jak zapewne przypominacie sobie z rozdziału o uczeniu się, według tych teorii istnieje optymalny poziom pobudzenia, który wszyscy staramy się utrzymać (). Jeśli jest on za niski, stajemy się znudzeni i szukamy jakiejś stymulacji. Z kolei gdy jest on za wysoki, podejmujemy zachowania mające na celu zmniejszenie tego pobudzenia (Berlyne, 1960). Większość studentów doświadczyła w swojej karierze akademickiej potrzeby utrzymania optymalnego poziomu pobudzenia. Pomyśl, ile stresu studenci odczuwają na koniec letniego semestru. Czują się przytłoczeni nadmierną liczbą egzaminów, prac i dużych projektów, które muszą ukończyć w terminie. Prawdopodobnie tęsknią za odpoczynkiem i relaksem, który ich czeka w czasie wakacyjnej przerwy. Jednak zaraz po zakończeniu sesji dość szybko zaczynają czuć znudzenie. Zazwyczaj do czasu rozpoczęcia nowego semestru jesienią wielu studentów wręcz cieszy się, że wraca na uczelnię. Właśnie tak w praktyce wygląda teoria pobudzenia.
Jaki zatem jest optymalny poziom pobudzenia? Jaki poziom przekłada się na najlepszą wydajność pracy? Badania wykazują, że najlepsze jest na ogół umiarkowane pobudzenie, natomiast w przypadku bardzo wysokiego lub niskiego pobudzenia wydajność słabnie (Yerkes i Dodson, 1908). Zastanów się nad poziomem pobudzenia, jaki towarzyszy ci podczas przygotowania do egzaminu z tych zajęć. Jeśli jest bardzo niski i wiąże się z nim znudzenie i apatia, najpewniej ucierpi na tym wydajność. Bardzo wysoki poziom, podobnie jak silny niepokój, może być paraliżujący i pogarszać wyniki. Podobnie zawodnicy drużyny piłkarskiej biorący udział w turnieju. Są faworytami do wygranej z dużą przewagą w pierwszym meczu, więc zaczynają grać z niskim poziomem pobudzenia, co sprawia, że mogą zostać łatwo pokonani przez mniej doświadczoną drużynę.
Niemniej optymalny poziom pobudzenia to bardziej złożona kwestia niż tylko stwierdzenie, że najlepszy jest zawsze średni poziom pobudzenia. Badacze Robert Yerkes (1876-1956) i John Dodson (1879-1955) odkryli, że optymalny poziom pobudzenia zależy od złożoności i trudności zadania, które ma zostać wykonane (). Zależność ta nosi nazwę prawa Yerkesa-Dodsona (ang. ), zgodnie z którym proste zadanie wykonuje się najlepiej, gdy poziom pobudzenia jest stosunkowo wysoki, natomiast zadania złożone są realizowane z największą wydajnością przy niższym poziomie pobudzenia.
### Poczucie własnej skuteczności i motywy społeczne
Poczucie własnej skuteczności (ang. ) to wiara jednostki w możliwość wykonania przez nią zadania, na którą może składać się wcześniejsza udana realizacja takiego samego lub podobnego zadania. Albert Bandura (1994) wysnuł teorię, że poczucie własnej skuteczności u danej osoby odgrywa zasadniczą rolę w motywowaniu zachowania. Bandura twierdzi, że motywacja wypływa z oczekiwań, które mamy w odniesieniu do konsekwencji naszych zachowań, co ostatecznie sprawia, że docenienie naszej możliwości zaangażowania się w dane zachowanie decyduje o tym, co robimy i jakie cele sobie postawimy. Na przykład jeśli szczerze wierzysz w swoje zdolności do osiągnięcia najwyższego poziomu wymagań, z większym prawdopodobieństwem podejmiesz się ambitnych zadań i nie pozwolisz, by przeciwności zniechęciły cię do doprowadzenia danego zadania do końca.
Wielu teoretyków skupiło się w swoich badaniach na zrozumieniu motywów społecznych (McAdams i Constantian, 1983; McClelland i Liberman, 1949; Murray et al., 1938). Wśród nich znajdują się potrzeba osiągnięć, przynależności i intymności. To właśnie potrzeba osiągnięć napędza wydajność i skuteczność. Potrzeba przynależności zachęca do pozytywnych interakcji z innymi, a potrzeba intymności sprawia, że dążymy do tworzenia głębokich, znaczących relacji. Henry Murray i jego współpracownicy (1938) przypisali te potrzeby do domen. Na przykład potrzeba osiągnięć i uznania zalicza się do domeny ambicji. Dominacja i agresja zostały uznane za potrzeby w domenie władzy, a zabawa – w domenie przywiązania do ludzi.
### Hierarchia potrzeb Maslowa
Podczas gdy wcześniej opisywane teorie motywacji odnoszą się do podstawowych popędów biologicznych, cech jednostki lub sytuacji społecznych, Abraham Maslow (1943) zaproponował hierarchię potrzeb (ang. ), która obejmuje cały zakres motywów, od biologicznych, przez indywidualne, po społeczne. Potrzeby te często przedstawia się w formie piramidy ().
U podstaw piramidy znajdują się wszystkie potrzeby fizjologiczne niezbędne do przeżycia. Po nich następują podstawowe potrzeby bezpieczeństwa, bycia kochanym i poczucia przynależności, a także poczucia własnej wartości i pewności siebie. Na szczycie piramidy mamy samorealizację, stanowiącą zasadniczo potrzebę osiągnięcia pełnego potencjału, którą można zrealizować tylko wtedy, gdy zaspokojone są potrzeby z niższych poziomów piramidy. Dla Maslowa i innych przedstawicieli psychologii humanistycznej samorealizacja odzwierciedla humanistyczny nacisk na pozytywne aspekty ludzkiej natury. Maslow zasugerował, że jest to ciągły, trwający całe życie proces i tylko niewielki odsetek ludzi osiąga stan samorealizacji (Francis i Kritsonis, 2006; Maslow, 1943).
Zdaniem Maslowa (1943) każdy musi zaspokoić potrzeby na niższych poziomach, zanim zajmie się tymi na szczycie piramidy. Przykładowo jeśli ktoś ma trudności ze znalezieniem wystarczającej ilości jedzenia, by zaspokoić swoje potrzeby żywieniowe, z niewielkim prawdopodobieństwem będzie poświęcał nadmiernie dużo czasu na rozmyślanie, czy inni postrzegają go jako dobrego człowieka. Zamiast tego całą energię skieruje na znalezienie czegoś do jedzenia. Niemniej należy podkreślić, że teoria Maslowa jest krytykowana za subiektywność i nieuwzględnienie fenomenów występujących w prawdziwym świecie (Leonard, 1982). Inne badania poświęcono kwestii zaproponowanej przez Maslowa u schyłku życia, zakładającej, że nad samorealizacją jest jeszcze poziom samotranscendencji, reprezentujący dążenie do sensu i celu poza sobą (Koltko-Rivera, 2006). Przykładowo ludzie czasem decydują się na samopoświęcenie, wyrażając w ten sposób swoje poglądy polityczne lub próbując wpłynąć na poprawę warunków życia innych. Mahatma Gandhi, znany na całym świecie orędownik niepodległości, biorący udział w pokojowych protestach, kilkakrotnie uczestniczył w strajkach głodowych w proteście przeciwko brytyjskiej dominacji nad Indiami. Ludzie są gotowi się głodzić lub w inny sposób narażać się na niebezpieczeństwo, wykazując przy tym motywację na wyższym poziomie, wykraczającą poza własne potrzeby.
### Motywacja wewnętrzna i zewnętrzna
Motywacja może być wywołana czynnikami wewnętrznymi motywacja wewnętrzna (ang. ) lub czynnikami zewnętrznymi motywacja zewnętrzna (ang. ) (wywołana czynnikami zewnętrznymi) (). Podłożem zachowań motywowanych wewnętrznie jest wywołane nimi poczucie osobistej satysfakcji. Natomiast podstawą zachowań motywowanych zewnętrznie jest chęć uzyskania korzyści pochodzącej z zewnątrz, od innych ludzi.
Zastanów się, dlaczego jesteś teraz na studiach. Czy dlatego, że lubisz się uczyć i chcesz uzyskać wyższe wykształcenie, by zyskać gruntowną edukację? Jeśli tak, to kieruje tobą motywacja wewnętrzna. Jednak jeśli studiujesz, bo chcesz zdobyć tytuł, żeby mieć większe szanse na dobrze płatną pracę lub spełnić oczekiwania rodziców, to twoja motywacja ma bardziej zewnętrzny charakter.
W rzeczywistości nasze motywacje są zazwyczaj mieszaniną czynników wewnętrznych i zewnętrznych, a z biegiem czasu ich dobór może się zmieniać (często w sposób, który wydaje się być sprzeczny z intuicją). Stare angielskie przysłowie mówi: „Wybierz zawód, który kochasz, a nigdy nie będziesz musiał pracować”, co oznacza, że jeśli lubisz swoje zajęcie, wcale nie odczuwasz, że... pracujesz. Niektóre badania sugerują jednak, że nie zawsze tak jest (Daniel Esser, 1980; Deci, 1972; Deci, Koestner i Ryan, 1999). Okazuje się, że uzyskanie pewnego rodzaju zewnętrznego wzmocnienia (tj. wynagrodzenia) za zaangażowanie w czynności, które lubimy, sprawia, że zaczynamy myśleć o nich jak o pracy i nie dostarczają nam już takiej samej przyjemności. W rezultacie nie jesteśmy skłonni poświęcać tyle czasu, angażując się w te „przeklasyfikowane” czynności przy braku jakiegokolwiek zewnętrznego wzmocnienia. Oto przykład: Odessa uwielbia piec, więc robi to w wolnym czasie. Często po wyłożeniu towarów na półki w sklepie spożywczym, w którym pracuje, wieczorami pichci ciasta, co sprawia jej dużą przyjemność. Gdy z działu piekarniczego w jej sklepie odchodzi pracownik, Odessa aplikuje na to stanowisko i zostaje przyjęta. Mimo że nowa praca bardzo jej się podoba, po kilku miesiącach nie ma już tak dużej ochoty na przygotowywanie wypieków w wolnym czasie. Pieczenie stało się pracą, która zmieniła motywację do tej czynności (). Odessa doświadczyła tzw. efektu nadmiernego uzasadnienia, który sprawia, że motywacja wewnętrzna maleje, gdy pojawia się motywacja zewnętrzna. Może to doprowadzić do wygaszenia motywacji wewnętrznej i bazowania w dalszym działaniu na nagrodach zewnętrznych (Deci et al., 1999).
Inne badania ujawniają, że motywacja wewnętrzna może być podatna na działanie wzmocnienia zewnętrznego i że odpowiednio dobrane wzmocnienia, np. w formie pochwał, mogą nawet wzmacniać motywację wewnętrzną (Arnold, 1976; Cameron i Pierce, 1994). W takim przypadku motywacja Odessy do pieczenia w wolnym czasie może pozostać wysoka, jeśli na przykład klienci regularnie komplementują jej wypieki lub talent do dekorowania ciast.
Te pozorne rozbieżności we wnioskach badaczy można wyjaśnić, uwzględniając kilka czynników. Na przykład wzmocnienie rzeczowe (tj. pieniądze) i wzmocnienie słowne (tj. pochwały) mogą w bardzo różny sposób wpływać na daną osobę. W istocie nagrody materialne (czyli pieniądze) mają zwykle bardziej negatywny wpływ na motywację wewnętrzną niż te niematerialne (pochwały). Co więcej, kluczowe są oczekiwania jednostki w stosunku do zewnętrznego czynnika motywującego. Jeśli ktoś oczekuje nagrody zewnętrznej, wtedy motywacja wewnętrzna do danego zadania zwykle maleje. Jeśli jednak nie ma takich oczekiwań, a motywacja zewnętrzna stanowi zaskoczenie, wtedy motywacja wewnętrzna do określonej czynności ma tendencję do utrzymania się (Deci et al., 1999).
### Kulturowy aspekt motywacji
Na motywację mogą wpływać również czynniki kulturowe. W kulturach kolektywistycznych, gdzie nacisk kładzie się na dobrostan grupy a nie na dobrostan jednostki, powszechne jest np. podejmowanie działań na rzecz członków rodziny (Nisbett, Peng, Choi i Norenzayan, 2001). Tego typu skupienie się na potrzebach innych osób w grupie zapewnia szerszą perspektywę, uwzględniającą zarówno sytuacyjne, jak i kulturowe wpływy na zachowanie. W związku z tym w kolektywistycznym kręgu kulturowym prawdopodobieństwo zniuansowanych przyczyn zachowań jest większe niż w kulturze indywidualistycznej (więcej informacji o kulturach kolektywistycznej i indywidualistycznej znajdziesz w rozdziale Psychologia społeczna).
W środowisku akademickim studenci z większym prawdopodobieństwem doświadczają motywacji wewnętrznej do nauki, gdy mają poczucie przynależności i czują szacunek w klasie. Tę internalizację można zwiększyć, gdy mniejszą wagę przyłoży się do kwestii oceniania podczas zajęć oraz gdy studenci czują, że mają pewną kontrolę nad swoim środowiskiem uczenia się. Ponadto stawianie przed nimi zadań wymagających, ale wykonalnych, wraz z uzasadnieniem zaangażowania w różne projekty edukacyjne może zwiększyć wewnętrzną motywację do ich realizacji (Niemiec i Ryan, 2009). Przyjrzyjmy się przykładowi Pawła, studenta pierwszego roku prawa, który zapisał się na dwa kursy: prawo rodzinne i prawo karne. Profesor od prawa rodzinnego prowadzi zajęcia w niezbyt przyjemny sposób: lubi na poczekaniu zadawać studentom trudne pytania, przez co często czują się poniżeni lub zakłopotani. Oceny przyznawane są wyłącznie na podstawie testów i egzaminów, a wykładowca wywiesza wyniki na drzwiach. Natomiast profesor od prawa karnego umożliwia dyskusje podczas zajęć i pełne szacunku debaty w małych grupach. Znaczna część końcowej oceny zależy nie od egzaminu, a od opracowanego przez studenta projektu badawczego poświęconego wybranemu przez niego problemowi z zakresu prawa karnego. Badanie sugeruje, że Paweł będzie mniej zmotywowany wewnętrznie na kursie prawa rodzinnego, gdzie studenci są onieśmieleni podczas zajęć, a nacisk kładziony jest na ocenę nauczyciela. Paweł prawdopodobnie doświadczy większej motywacji wewnętrznej na kursie prawa karnego, gdzie warunki zachęcają do współpracy i poszanowania pomysłów, a dodatkowo studenci mają większy wpływ na swoje kształcenie.
### Summary
Powstało wiele teorii dotyczących motywacji. Te zorientowane na uwarunkowania biologiczne odnoszą się do sposobów motywowania zachowania przez instynkty i potrzebę utrzymania homeostazy w organizmie. Bandura postulował natomiast, że nasze zachowanie motywuje poczucie własnej skuteczności. Istnieje też sporo teorii koncentrujących się na różnorodnych motywach społecznych. Hierarchia potrzeb Abrahama Maslowa pokazuje zależność między różnymi motywacjami, od potrzeb fizjologicznych na niskim poziomie po potrzeby samorealizacji na wysokim. Motywacja do zaangażowania w określone zachowanie może wynikać z czynników wewnętrznych i zewnętrznych.
### Review Questions
### Critical Thinking Questions
### Personal Application Question
|