id
stringlengths 1
7
| revid
stringlengths 1
9
| url
stringlengths 37
43
| title
stringlengths 1
247
| text
stringlengths 0
465k
|
---|---|---|---|---|
1192 | 128330 | https://de.wikipedia.org/wiki?curid=1192 | Doldenblütler | Die Doldenblütler oder Doldengewächse (Apiaceae oder Umbelliferae) sind eine Pflanzenfamilie in der Ordnung der Doldenblütlerartigen (Apiales). Die meisten Arten sind krautige Pflanzen mit mehrfach geteilten Blättern und Doppeldolden als Blütenstand, wodurch sie leicht der Familie zuzuordnen sind.
Die Familie enthält etwa 434 Gattungen mit etwa 3780 Arten und ist weltweit in den gemäßigten Zonen vertreten. Zu den Doldenblütlern zählen viele Gewürzpflanzen und Nahrungspflanzen, aber auch einige sehr giftige Pflanzenarten, beispielsweise der Wasserschierling und der Gefleckte Schierling.
Beschreibung und Ökologie.
Vegetative Merkmale.
Die Vertreter der Doldenblütler sind fast ausschließlich ausdauernde krautige Pflanzen. Einige wenige Taxa, wie etwa in der Unterfamilie Mackinlayoideae, sind verholzt. Die Sprossachse ist in der Regel hohl und knotig. Die Wuchshöhen reichen von mehreren Meter hohen Pflanzen in den Steppen Zentralasiens ("Ferula") bis zu wenigen Zentimeter hohen Polsterpflanzen der Antarktis ("Azorella").
Viele Arten bilden eine Pfahlwurzel aus. Die Seitenwurzeln entstehen an beiden Seiten der Xylempole, da an der Spitze des Xylempols ein Harzgang verläuft.
Die wechselständigen Laubblätter sind einfach oder mehrfach gefiedert. Nur in Ausnahmen besitzen sie einfache Blätter ("Bupleurum"). Die Blätter besitzen eine Blattscheide.
Blütenstände.
Der Blütenstand ist meist eine vielstrahlige Doppeldolde, eine Dolde aus meist vielen Döldchen. Dieser Bau der Blütenstände ist sehr charakteristisch für die Doldenblütler und hat ihnen auch ihren alten wissenschaftlichen Namen Umbelliferae (Schirm-Träger) eingebracht.
Die Tragblätter der Dolden sind dicht zusammengedrängt und bilden die Hülle (Involucrum), häufig sind sie auch nur schwach ausgeprägt oder fehlen. Hier entspringen die Döldchenstiele = Doldenstrahlen. Die Döldchen (Umbellulae) sind wiederum von einem (oft auch fehlenden) Hüllchen (Involucellum) umgeben. Die Blütenstiele werden nicht „Döldchenstrahlen“ genannt. Häufig bildet der Blütenstand eine Kuppel oder sogar eine Fläche, auf der häufig Insekten anzutreffen sind.
Seltener sind einfache Dolden. Es gibt auch Arten mit Einzelblüten ("Azorella"). Bei sehr großen Arten können auch mehrere Doppeldolden zu einem noch größeren Blütenstand zusammengefasst sein (Riesen-Bärenklau, "Heracleum mantegazzianum").
Blüten.
Die meist unscheinbaren Blüten sind mit Ausnahme des Gynoeceums fünfzählig und in der Regel radiärsymmetrisch. Bei einigen Arten sind insbesondere die Randblüten aber auch asymmetrisch und dadurch zygomorph. Kelchblätter sind ursprünglich fünf vorhanden, jedoch sind sie oft verkümmert oder fehlen ganz. Die fünf Kronblätter sind frei und sind meist weiß, seltener gelb, rosa bis violett. Die Kronblätter besitzen häufig an der Spitze ein eingeschlagenes Läppchen (Lobulum inflexum). Seine Gestalt sowie die Gestalt der Vorderkante des Kronblattes (Flexurkante) sind wichtige Bestimmungsmerkmale.
Es gibt nur einen Kreis mit fünf freien, fertilen Staubblättern, die in der Knospe gekrümmt sind. Zwei Fruchtblätter sind zu einem unterständigen Fruchtknoten verwachsen. Die zwei Griffel (auch als Schnabel bezeichnet) sitzen auf einem scheiben- bis kegelförmigen, glänzenden, Griffelpolster (Stylopodium). Dieses dient als Nektarium, d. h., es scheidet Nektar aus. In jedem der zwei Fruchtknotenfächer befindet sich eine hängende anatrope Samenanlage. Eine zweite verkümmert sehr früh.
Der Aufbau der Blüte kann in folgender Blütenformel zusammengefasst werden:
formula_1
Die Blüten sind meist protandrisch. Die Bestäubung erfolgt in der Regel über Fliegen, Käfer und andere kurzrüsselige Insekten (Entomophilie).
Früchte und Samen.
Die Frucht ist eine trockene, zweiteilige Spaltfrucht, auch Doppelachäne genannt. Die Gestalt ist häufig zylindrisch mit rundem bis elliptischem Querschnitt. Seltener sind kugelige ("Coriandrum") und doppelkugelige Gestalt ("Bifora"). Die zwei Teilfrüchte (Mericarpien oder Carpiden) bleiben zunächst noch mit der Oberseite an einem Fruchthalter (Karpophor) hängen, der sich in der Mitte befindet.
Jede Teilfrucht hat an ihrer freien Seite fünf Längsrippen oder Hauptrippen (juga primaria) mit je einem Gefäßbündel. Dazwischen liegen Tälchen (valleculae), in deren Wand sich je ein meist dunkler schizogener (durch das Auseinanderweichen von Zellen entstehender) Ölgang (hier als Ölstrieme bezeichnet) befindet. Bei manchen Arten besitzt jedes Tälchen noch eine Nebenrippe (jugum secundarium, etwa die Karotte mit stacheligen Nebenrippen). Die Ölgänge können auch vermehrt ("Pimpinella") oder reduziert ("Coriandrum") sein oder ganz fehlen ("Conium").
Der Samen besteht aus einem sehr kleinen Embryo in einem großen, fett- und proteinreichen Endosperm. Der Embryo liegt am oberen Ende des Samens mit nach oben gerichtetem Hypokotyl. Die Samenschale ist mit der Fruchtwand verklebt.
Die Ausbreitung erfolgt durch Tiere (Epizoochorie), den Wind (Anemochorie), Wasser (Hydrochorie), durch Selbstausbreitung (Autochorie) und teilweise durch den Menschen (Hemerochorie).
Chemische Merkmale.
Die Hauptbestandteile der ätherischen Öle können je nach Art überwiegend aus Terpenen oder aus Phenylpropanoiden gebildet werden. Beim Koriander ist es überwiegend (+)-Linalool (Terpen), beim Kümmel (+)-Carvon (Terpen), bei Fenchel und Anis Anethol (Phenylpropanoid).
Die Doldenblütler sind die Familie mit dem größten Spektrum an Cumarinverbindungen. Neben einfachen Cumarinen und Hydroxycumarinen (z. B. Umbelliferon) treten auch eine Vielzahl an prenylierten, geranylierten und farnesylierten Cumarinderivaten auf. Dazu zählen auch die Furano- und Pyranocumarine. Erstere können linear oder angulär sein. Hydroxy- und Furanocumarine wirken abschreckend auf Herbivoren (deterrent), als Phytoalexine und als Keimungsinhibitoren. Dabei steigt die Toxizität von Hydroxy- über lineare zu angulären Furanocumarinen an. Die Furanocumarine sind phototoxisch: Bei Einwirkung von UV-Licht wird die DNA inaktiviert (Photosensibilisierung). Anguläre Furanocumarine sind stärker toxisch als lineare, obwohl ihre Phototoxizität geringer ist. Die meisten der holarktisch verbreiteten, artenreichen Gattungen der Familie enthalten Furanocumarine (etwa "Bupleurum" und "Pimpinella" mit je 150 Arten), während viele monotypische Gattungen mit eingeschränkter geographischer Verbreitung keine Furanocumarine enthalten.
Sesquiterpenlactone sind mit über 100 Verbindungen in der Familie vertreten. Es treten die gleichen Grundstrukturen (z. B. Germacranolide, Eudesmanolide, Eremophilanolide und Elemanolide) auf wie bei den Korbblütlern, jedoch stereochemisch unterschiedlich. Außerdem sind sie häufiger hydroxyliert und verestert, insbesondere am C11.
In den Doldenblütlern wurden über 150 Polyacetylen-Verbindungen nachgewiesen. Am häufigsten sind die C17-Diin-diene der Falcarinol-Gruppe. Die Giftigkeit des Wasserschierlings ("Cicuta virosa") und der Safranrebendolde ("Oenanthe crocata") beruht auf Polyacetylenen.
Alkaloide sind selten. Coniin und ähnliche Piperidin-Derivate kommen im Gefleckten Schierling ("Conium maculatum") vor. In der Unterfamilie Saniculoideae treten häufig Triterpensaponine auf. Typische Kohlenhydrate sind das Trisaccharid Umbelliferose und der Zuckeralkohol Mannitol.
Das Vorkommen von Petroselinsäure als Hauptfettsäure bezeugt die enge Verbindung zwischen den Apiaceae und den Araliaceae.
Verwendung.
Aufgrund der ätherischen Öle werden viele Arten als Gewürz-, Gemüse- und Heilpflanzen verwendet. Verwendung finden dabei die Früchte, Blätter und Wurzeln. Beispiele sind Kümmel ("Carum carvi"), Anis ("Pimpinella anisum"), Koriander ("Coriandrum sativum"), Dill ("Anethum graveolens"), Liebstöckel ("Levisticum officinale"), Fenchel ("Foeniculum vulgare"), Petersilie ("Petroselinum crispum"), und Sellerie ("Apium graveolens").
Eine gewisse Ausnahme bilden die Karotte ("Daucus carota") und der Pastinak ("Pastinaca sativa"), die vor allem aufgrund ihres Kohlenhydrat-Gehaltes angebaut werden.
Einige Arten sind sehr giftig. Der Gefleckte Schierling ("Conium maculatum") lieferte das Gift für den zum Tod verurteilten Sokrates. Ebenfalls sehr giftig ist der Wasserschierling ("Cicuta virosa"). Weniger giftig ist die Hundspetersilie ("Aethusa cynapium"), die jedoch oft mit der Petersilie verwechselt wird, wodurch es häufig zu Vergiftungen kommt.
Viele Arten sind aufgrund ihrer Furanocumarine photosensibilisierend und phototoxisch. Zu erwähnen ist hier besonders der Riesen-Bärenklau ("Heracleum mantegazzianum"). Das in den phototoxischen Arten enthaltene Psoralen wird jedoch in der Medizin im Rahmen der PUVA-Therapie zur Behandlung von Hauterkrankungen eingesetzt.
Vorkommen.
Die Familie ist weltweit verbreitet, jedoch liegt der Schwerpunkt in den nördlichen gemäßigten Zonen. In den Tropen sind die Doldenblütler besonders in den montanen Höhenstufen verbreitet. Die Doldenblütler wachsen vorwiegend in Steppen, Sümpfen, Wiesen und Wäldern.
Systematik.
Synonyme für Apiaceae nom. cons. sind: Umbelliferae nom. cons., Actinotaceae , Ammiaceae , Angelicaceae , Daucaceae , Ferulaceae , Saniculaceae .
Das Schwestertaxon der Doldenblütler innerhalb der Ordnung Apiales ist die Gruppe aus Pittosporaceae, Araliaceae und Myodocarpaceae. Die Familie enthält etwa 434 Gattungen mit etwa 3780 Arten. Sie wird seit 2010 nur noch in drei Unterfamilien gegliedert. |
1193 | 1716 | https://de.wikipedia.org/wiki?curid=1193 | Dipsacaceae | |
1198 | 568 | https://de.wikipedia.org/wiki?curid=1198 | Digitale Signalverarbeitung | Die digitale Signalverarbeitung ist ein Teilgebiet der Nachrichtentechnik und beschäftigt sich mit der Erzeugung und Verarbeitung digitaler Signale mit Hilfe digitaler Systeme. Im engeren Sinn liegt ihr Schwerpunkt in der Speicherung, Übermittlung und Transformation von Information im Sinne der Informationstheorie in Form von digitalen, zeitdiskreten Signalen. Sie hat vielfältige und weitreichende Anwendungen in der heutigen Welt und einen starken Einfluss auf fast alle Lebensbereiche, da sie eine der technischen Grundlagen der "Digitalisierung" der gesamten modernen Kommunikationstechnik und Unterhaltungselektronik ist. Dies wird auch als "Digitale Revolution" bezeichnet.
In der praktischen Anwendung beruhen heutzutage fast sämtliche Übertragungs-, Aufzeichnungs- und Speicherungsverfahren für Bild und Film (Foto, Fernsehen, Video) und Ton (Musik, Telefonie etc.) auf digitaler Verarbeitung der entsprechenden Signale. Die digitale Signalverarbeitung ermöglicht eine Vielzahl von Umwandlungs- und Bearbeitungsarten für digitale Daten, z. B. die Kompression von Audio- und Videodaten, nicht-linearen Videoschnitt oder die Bildbearbeitung bei Fotos. Darüber hinaus wird digitale Signalverarbeitung auch – neben vielen anderen industriellen Anwendungsgebieten – in der Mess-, Steuerungs- und Regelungstechnik und in der Medizintechnik eingesetzt, etwa bei der Kernspintomographie. Diese Entwicklungen sind eine Folge des rasanten Fortschritts der Digital- und Computertechnologie ("Informationstechnik") in den letzten Jahrzehnten. Etwa mit Einführung der Musik-CD Anfang der 1980er Jahre begann damit die oben genannte „Digitalisierung“ den Alltag von Menschen zu beeinflussen, was sich heute am deutlichsten in der universellen Verbreitung der vielseitig einsetzbaren, multimedia-fähigen Smartphones zeigt.
Die digitale Signalverarbeitung beruht auf elektronischen Bauelementen, wie beispielsweise digitalen Signalprozessoren ("DSP") oder leistungsfähigen Mikroprozessoren, entsprechenden Speicherelementen und Schnittstellen zur Signaleingabe und -ausgabe. Die Algorithmen zur Signalverarbeitung können bei einer programmierbaren Hardware durch zusätzliche Software ergänzt werden, welche den Signalfluss steuert. Die digitale Signalverarbeitung bietet Möglichkeiten und Verarbeitungsmöglichkeiten, welche in der früher üblichen analogen Schaltungstechnik gar nicht oder nur mit hohem Aufwand realisierbar sind.
Die Methoden der digitalen Signalverarbeitung stehen der Mathematik, wie beispielsweise den Teilgebieten der Zahlentheorie oder der Codierungstheorie, viel näher als der klassischen Elektrotechnik. Ausgangspunkt war die allgemeine Bekanntheit der schnellen Fourier-Transformation (FFT) ab dem Jahr 1965 durch eine Veröffentlichung von J. W. Cooley und John Tukey. Zusätzlich verbesserten sich in demselben Zeitraum die praktischen Möglichkeiten der digitalen Schaltungstechnik, so dass die neuentwickelten Verfahren Anwendung finden konnten.
Technisches Grundprinzip.
Die digitale Verarbeitung eines Signals folgt immer dem Schema Analog → Digital → Verarbeitung → Analog. Die Veränderungen am Signal werden ausschließlich im digitalen Bereich vorgenommen. Am Beispiel einer Audio-CD soll die Vorgehensweise erklärt werden:
Aufbau eines digitalen Signalverarbeitungs-Systems.
Das Schaubild zeigt den typischen Aufbau eines Signalverarbeitungs-Systems, das immer auch analoge Komponenten an der Schnittstelle zur „Außenwelt“ besitzt. Zum digitalen Signalverarbeitungs-System im engeren Sinne gehören nur die rot gefärbten Komponenten im unteren Bildteil.
Verfolgen wir den Weg der Signale in der Grafik: Mittels eines Sensors werden physikalische Größen in ein, häufig schwaches, elektrisches Signal konvertiert. Dieses Signal wird für die weitere Verarbeitung z. B. mit Hilfe eines Operationsverstärkers auf den für die nachfolgenden Schritte nötigen Pegel angehoben. Aus dem verstärkten Analogsignal tastet die Sample-and-Hold-Stufe in bestimmten Zeitintervallen Werte ab und hält sie während eines Intervalls konstant. Aus einer analogen zeitkontinuierlichen Kurve wird so ein zeitdiskretes analoges Signal. Ein für eine gewisse Zeit konstantes Signal wird vom Analog-Digital-Wandler benötigt, um die diskreten digitalen Werte zu ermitteln. Diese können dann vom digitalen Signalprozessor verarbeitet werden. Das Signal nimmt dann den umgekehrten Weg und kann über einen Aktor gegebenenfalls wieder in den technischen Prozess einfließen.
Objekt: Was ist ein Signal?
Ein digitales Signal ist, im Gegensatz zu den kontinuierlichen Funktionen der analogen Signalverarbeitung, diskret in Zeit- und Wertebereich, also eine Folge von Elementarsignalen (z. B. Rechteckimpulsen). Diese Folge entsteht meist in einem zeit- oder ortsperiodischen Messprozess. So wird zum Beispiel Schall über die Auslenkung einer Membran oder Verbiegung eines Piezokristalls in eine elektrische Spannung umgewandelt und diese Spannung mittels eines AD-Wandlers zeitperiodisch wiederholt in digitale Daten konvertiert. Solch ein realistischer Messprozess ist endlich, die entstehende Folge besitzt einen Anfangsindex formula_1 und einen Endindex formula_2.
Wir können das Signal also als Datenstruktur formula_3 definieren, mit dem Abstand formula_4 zwischen zwei Datenpunkten, den Indizes formula_5 und der endlichen Folge (Array) formula_6 der Daten.
Die Daten sind Instanzen einer Datenstruktur. Die einfachste Datenstruktur ist das Bit, am gebräuchlichsten sind (1, 2, 4 Byte-)Integer- und Gleitkommazahl-Daten. Es ist aber auch möglich, dass das einzelne Datum selbst ein Vektor oder eine Folge ist, wie zum Beispiel bei der Kodierung von Farbinformation als RGB-Tripel oder RGBA-Quadrupel, oder dass das Signal formula_7 die Spalten formula_8 eines Rasterbildes enthält. Dabei ist die einzelne Spalte wieder ein Signal, das zum Beispiel Grau- oder Farbwerte als Daten enthält.
Abstraktion eines Signals.
Um in der Theorie Signale nicht nach Anfang und Ende gesondert betrachten zu müssen, werden die endlichen Folgen in den abstrakten Signalraum formula_9, einen Hilbertraum, eingebettet. Bedingung: Die Basisfunktionen sind orthogonal zueinander, ihre Kreuzkorrelation ergibt demzufolge Null. Ein abstraktes Signal ist also durch ein Paar formula_10, gegeben.
Dabei modelliert der euklidische Vektorraum formula_11 den Datentyp des Signals, zum Beispiel formula_12 für einfache Daten, formula_13 für RGB-Farbtripel. Ein Element in formula_9 ist eine doppelt unendliche Folge formula_15. Die definierende Eigenschaft für den Folgenraum ist, dass die sogenannte Energie des Signals endlich ist ("siehe auch Energiesignal"), das heißt
Methoden: Transformation von Signalen.
Die Bearbeitung digitaler Signale erfolgt durch Signalprozessoren.
Das theoretische Modell der elektronischen Schaltung ist der Algorithmus. In der digitalen Signalverarbeitung werden Algorithmen wie Mischer, Filter, Diskrete Fourier-Transformation, Diskrete Wavelet-Transformation, PID-Regelung eingesetzt.
Der Algorithmus ist aus elementaren Operationen zusammengesetzt; solche sind zum Beispiel die gliedweise Addition von Signalwerten, die gliedweise Multiplikation von Signalwerten mit einer Konstanten, die Verzögerung, das heißt Zeitverschiebung, eines Signals, sowie weitere mathematische Operationen, die periodisch aus einem Ausschnitt eines Signals (oder mehrerer Signale) einen neuen Wert generieren und aus diesen Werten ein neues Signal.
Abstrakte Transformationen: Filter.
Eine Abbildung formula_17 zwischen zwei Signalräumen wird allgemein "System" genannt. Eine erste Einschränkung ist die Forderung der Zeitinvarianz (TI für engl. ) der Abbildung formula_17. Diese entsteht grob betrachtet dadurch, dass ein zeitdiskretes signalverarbeitendes System aus einem Schieberegister, das eine beschränkte Vergangenheit speichert, und einer Funktion formula_19, die aus den gespeicherten Werten einen neuen erzeugt, besteht. Betrachtet man auch ortsabhängige Signale, wie z. B. in der Bildverarbeitung, so stehen neben den vorhergehenden Werten auch nachfolgende zur Verfügung. Um die Allgemeinheit zu wahren, ist also eine zweiseitige Umgebung des jeweils aktuellen Datenpunktes zu betrachten.
Die Umgebung habe einen Radius formula_20, zum Zeitpunkt formula_21 befinden sich die Werte formula_22 eines zeitdiskreten Eingangssignals formula_23 im Umgebungsspeicher. Aus diesen wird mittels der die Schaltung verkörpernden Funktion formula_19 der Wert formula_25 zum Zeitpunkt formula_26 des Ausgangssignals formula_27 bestimmt,
formula_28.
Die Funktion formula_19 kann auch von einigen der Argumente unabhängig sein. Bei zeitabhängigen Signalen wäre es wenig sinnvoll, wenn formula_19 von Werten des Signals zu Zeitpunkten formula_31 in der Zukunft abhinge.
Beispiele für solche Funktionen sind
Man kann zeitinvariante Systeme beliebig kombinieren und hintereinanderschalten und erhält wieder zeitinvariante Systeme.
TI-Systeme formula_17, die von einer linearen Abbildung formula_19 erzeugt werden, etwa
nennt man Faltungsfilter. Sie sind ein Spezialfall der linearen zeitinvarianten Filter (LTI) und können auch als formula_37 geschrieben werden. Dabei bezeichnet formula_38 den Faltungsoperator.
LTI-Systeme können im Orts- bzw. Zeitbereich oder im Frequenzbereich definiert und analysiert werden. Nichtlineare oder gar nicht zeitinvariante Filter wie Regelungen können als Echtzeitsysteme nur im Zeitbereich betrachtet werden.
Ein LTI-System formula_17 kann im Zeitbereich mittels seiner Impulsantwortfunktion formula_40 oder im Frequenzbereich mittels seiner Übertragungsfunktion (engl. , RAO)
analysiert und realisiert werden. Die Impulsantwort eines Faltungsfilters formula_37 ist gerade formula_43. Man kann LTI-Systeme konstruieren, die bestimmte Frequenzbereiche unterdrücken und andere invariant lassen. Möchte man die frequenzselektive Wirkung eines solchen Systems hervorheben, so nennt man es "Filter".
Eine zentrale Rolle in der praktischen Implementierung von LTI-Systemen spielt der FFT-Algorithmus, der zwischen der Darstellung eines Signals im Zeitbereich und im Frequenzbereich vermittelt. Insbesondere kann eine Faltung im Zeitbereich durch eine Multiplikation im Frequenzbereich realisiert werden.
Filter allgemein:
spezielle Filter:
Zur Realisierung der Filterarten gibt es mehrere Möglichkeiten.
Anwendungen.
Beispielhafte Anwendungsbereiche der digitalen Signalverarbeitung sind:
Vorteile der digitalen Signalverarbeitung gegenüber konventionellen Techniken.
Im Gegensatz zu konventionellen Filtersystemen in der Nachrichtentechnik, die einzeln in Hardware realisiert werden müssen, können mit der digitalen Signalverarbeitung beliebige Filter einfach bei Bedarf in „Echtzeit“ (z. B. zur Decodierung) mit Hilfe von Software ein- oder ausgeschaltet werden.
Dabei können je nach Leistungsfähigkeit des Systems beliebig viele Filter und aufwendige Filterkurven und sogar Phasenverschiebungen in Abhängigkeit von weiteren Parametern in „Echtzeit“ erzeugt und so das Ursprungsignal bearbeitet werden.
Deshalb ist mit der digitalen Signalverarbeitung durch DSPs eine wesentlich wirkungsvollere Signalbearbeitung als mit konventionellen Filtersystemen (z. B. bei der Rauschunterdrückung analoger Signale) möglich, siehe Rauschfilter.
Vorteile am Beispiel einer Audio-CD.
Am Beispiel der CD lassen sich einige Vorteile der digitalen gegenüber der analogen Signalverarbeitung erkennen: Die auf einer CD digital gespeicherten Informationen ändern sich auch nach Jahren nicht, sofern sie richtig wiedergewonnen werden können und es keine altersbedingten Defekte gibt. Es gibt kein „Übersprechen“ von einer Spur zur anderen, es gehen keine hohen Frequenzen verloren. Auch bei beliebig häufigem Abspielen der CD werden die Daten nicht verändert, wie bei einer Schallplatte: Dort „schleift“ die Nadel des Tonabnehmers bei jeder Wiedergabe ein wenig Material weg und glättet die Kanten – mit der Folge, dass vor allem hohe Frequenzanteile abgeschwächt werden. |
1202 | 568 | https://de.wikipedia.org/wiki?curid=1202 | Droseraceae | |
1205 | 231898046 | https://de.wikipedia.org/wiki?curid=1205 | Danaergeschenk | Ein Danaergeschenk (gesprochen Da-na-er-ge-schenk) ist eine Gabe, die sich für den Empfänger als unheilvoll und schädlich erweist.
Der Begriff entstammt der griechischen Sage um den Trojanischen Krieg: Die Danaer, wie Homer die Griechen nannte, brachen die Belagerung Trojas zum Schein ab und hinterließen am Strand das hölzerne Trojanische Pferd. In dessen Inneren verbargen sich jedoch griechische Krieger, die nachts, nachdem die Trojaner das vermeintliche Göttergeschenk in ihre Stadt gebracht hatten, aus ihrem Versteck kamen, ihren zurückgekehrten Mitkämpfern die Stadttore öffneten und damit den Untergang Trojas herbeiführten. Ins Deutsche gelangt ist der Ausdruck über die lateinische Sentenz aus Vergils "Aeneis": quidquid id est, timeo Danaos et dona ferentes ("Was immer es sei, ich fürchte die Danaer, auch wenn sie Geschenke bringen").
Die Darstellung in der Aeneis.
Der Dichter der "Aeneis" (Buch II, Vers 42–49) legt diese Worte dem Priester Laokoon in den Mund. Dieser durchschaut als Einziger die Kriegslist, die Odysseus ersonnen hat, und empfiehlt seinen Landsleuten, das Pferd zu zerstören.
Doch die Warnung verhallt ungehört, da die Göttin Athene, die den Griechen wohlgesinnt ist, zwei riesige Seeschlangen schickt, die Laokoon mit seinen beiden Söhnen töten. Die Trojaner sehen darin ein Zeichen, dass die Götter Laokoons Vorschlag missbilligen. Sie ziehen das hölzerne Pferd in ihre Stadt, und das Unheil nimmt seinen Lauf.
Weitere Varianten.
Das englische Sprichwort "Beware of Greeks bearing gifts" (deutsch: "Hüte dich vor Griechen mit Geschenken") geht auf denselben Vers in Vergils Aeneis zurück.
Im Griechischen lautet die Wendung „Fürchte die Danaer, auch Geschenke bringende!“ „“ "phobou tous Danaous kai dōra pherontas".
Zur stehenden Redewendung wurde auch die lateinische Phrase „Danaum fatale munus“ („der Danaer unheilvolle Gabe“) aus Senecas Tragödie "Agamemnon" (Vers 624), die sich dort ebenfalls auf die List im Trojanischen Krieg bezieht. |
1206 | 525965 | https://de.wikipedia.org/wiki?curid=1206 | Danunäer | Die Danunäer, auch Danuna (phönizisch "dnnym", gewöhnlich als "Danunīm" vokalisiert), waren ein antikes Volk in Kilikien. Sie werden in mehreren Inschriften aus dem 9. bis 7. Jahrhundert v. Chr. erwähnt. Eine Gleichsetzung mit anderen Völkern mit ähnlichen Namen wird in der Wissenschaft kontrovers diskutiert.
Name.
Der Name „Danunäer“ bedeutet nach gängiger Meinung „Leute von Adana“. Die in Kilikien gelegene Stadt Adana hat ihren Namen seit der Bronzezeit beibehalten: hethitisch: "Adaniya", hieroglyphenluwisch: "Adana" ("á-DANA-"(URBS)), phönizisch: "’dn", altgriechisch: Adana (Ἄδανα). Im Luwischen wurde davon das Ethnikon "adanawann(i)"- „adanäisch, Adanäer“ geformt, das im Phönizischen zu "Danunīm" umgebildet wurde. Nach Laroche ist der Abfall eines anlautenden Vokals (Prokope) in Wörtern mit mehr als drei Silben auch sonst im Phönizischen bezeugt. Auch im späten Luwischen zeigt sich die Tendenz, dass ein anlautendes "a"- wegfallen kann, wie z. B. der Name "Suriya" für Assyrien in der Çineköy-Inschrift. Für die Bronzezeit ist er nicht bezeugt und auch nicht zu erwarten.
Überlieferung.
Die Danunäer werden in Inschriften von Çineköy, Hassan Beyli, İncirli, Karatepe und Zincirli erwähnt.
Die älteste und auch zuerst gefundene Inschrift ist die von König Kulamuwa von Zincirli (Samʼal) (um 825 v. Chr.), der vom danunäischen König ("mlk dn"["n"]"ym") bedrängt wurde:
Der assyrische König war wohl Salmanassar III. (858-824), welcher in den Jahren 839 und 833 v. Chr. Feldzüge ins Land Que unternahm.
Die phönizische Inschrift von Hassan-Beyli berichtet, dass König Aššur-dan III. ("‘šrdn"; 772–755 v. Chr.) ins Gebiet von Awariku ("‘wrk") einfiel.
Etwas jünger ist die Trilingue von İncirli, nordöstlich von Zincirli bei Sakçagözü, welche einen phönizischen, luwischen und assyrischen Text hat. Die phönizische Inschrift nennt den König Warayka von Que ("w’ryks" von "qw"), aus dem „Haus des Mopsos“ ("bt mpš"), der aufgrund seiner Loyalität vom assyrischen König Tiglat-Pilesar III. (745–726 v. Chr.) ("tklt’plsr mlk ’šr") Land erhielt. Somit kann er mit dem in assyrischen Texten genannten König Urikki identifiziert werden, der für die Jahre 739 und 732 v. Chr. bezeugt ist.
Vermutlich demselben König ist die Inschrift von Çineköy zuzuschreiben. Im phönizischen Text ist der Name des Königs nur teilweise, im luwischen ganz erhalten (phön. "w"[…, luw. "wa"/"i"+"ra"/"i-i-ka"). Der König berichtet:
In der luwischen Version steht der Landesname Hiyawa ("hi-ia-wa"/"i") anstelle der Danunäer. Rotislav Oreshko schlug deshalb vor, das hieroglyphenluwische Zeichen *429 neu als "HIYA" zu lesen, statt "TANA" oder "DANA", was von der Forschung stark kritisiert wurde.
Der längste Text ist die Bilingue von Karatepe (frühes 8. Jahrhundert v. Chr.), die von Azzatiwada verfasst wurde, der von sich sagt:
Azzatiwada, der sich in seinen Inschriften nicht König nennt, war ein treuer Gefolgsmann von König Awariku, den die phönizische Inschrift als „König der Danunäer“ ("’wrk mlk dnnym") bezeichnet, der luwische Text als „König von Adana“ ("á-wa"/"i"+"ra"/"i-ku-s á-DANA-wa-ní"(URBS) REX-"ti").
Aus diesen Texten kann erschlossen werden, dass die Danunäer in Kilikien lebten und von Königen beherrscht wurden, die sich als Nachkommen von Muksa (luw.: "mu-ka-sa") betrachteten, welcher in phönizischen Inschriften "Mpš" genannt wurde, und deshalb nicht unumstritten von einigen Forschern aufgrund der Namensähnlichkeit mit dem Seher Mopsos der griechischen Sage in Verbindung gebracht wird, zumal dieser der Sage nach in Kilikien Städte gründete. Die in den Texten genannten Könige tragen ähnliche Namen, wobei es umstritten ist, ob damit ein oder zwei Könige gemeint sind. Unter der Annahme, es handele sich um zwei Könige, hieß einer Awariku und der andere Waraika oder Warika, welcher dann mit dem Urikki der assyrischen Texte identisch wäre. Drei Inschriften wurden auf ehemaligem Gebiet des aramäischen Staates Sam’al (Zincirli) gefunden, was bedeuten könnte, dass die Könige von Sam’al zeitweise unter den danunäischen Königen standen. Eine weitere phönizische Inschrift, welche ins 7. Jahrhundert v. Chr. datiert wird, die auf dem Cebel İres Daği 15 Kilometer östlich von Alanya im Rauhen Kilikien gefunden wurde, nennt einen König Waraika ("wryk"), so dass sich die Herrschaft dieses Königs weit nach Westen hin erstreckte.
Andere mögliche Nennungen.
Von diesen Inschriften wurde zuerst die Kulamuwa-Inschrift von Zincirli gefunden und 1912, ein Jahr nach ihrer Entdeckung, publiziert. Der Name des Feindes ("DN"[ ]"YM") wurde bereits mit den in einem Amarnabrief genannten Danuna in Verbindung gebracht. Die Diskussion um die Danunäer kam aber erst ins Laufen, nachdem die 1946 entdeckten phönizischen Texte von Karatepe veröffentlicht wurden und die Danunäer in Kilikien lokalisiert werden konnten. Im Vorwort der Erstpublikation listet Barnett viele bezeugte Namen auf, die möglicherweise mit den Danunäern in Verbindung gebracht werden können, und zwar die in einem Amarna-Brief genannten "Danuna", „einem Volk in Kinaḫna (Canaan)“, die "Dnn" zur Zeit von Ramses III., die in einer Obeliskinschrift Assurnasirbals genannten "Dannuna", die "DN(N)YM" der Kilamuwa-Inschrift, zudem Luckenbills Vorschlag, den Inselnamen "Iatnana" (Zypern) hinzuzuziehen, und schließlich, aber ablehnend, die griechischen "Danaoi". Außer diesen Völkern, werden von anderen auch noch die in der Ortsnamenliste des Pharaos Amenophis III. genannten "Tanaju" ("tj-n3-jj-w") und der biblische Stamm Dan diskutiert, wobei diese beiden Identifizierungen wenig Anerkennung finden.
Land Danuna.
In den Amarna-Briefen aus dem 14. Jahrhundert v. Chr. findet sich ein auf akkadisch geschriebener Brief des Königs Abimilki von Tyros (Brief EA 151) an den Pharao. Im Brief berichtet Abimilki, dass der König des Landes Danuna (KUR "da-nu-na") gestorben und nun dessen Bruder König sei, das Land aber in Ruhe lebe (Zeile 52). Unmittelbar danach wird berichtet, dass die halbe Stadt Ugarit abgebrannt sei, dass sich aber keine hethitischen Heere im Land befänden. Daraus wird ersichtlich, dass Danuna an der nördlichen Peripherie der ägyptischen Hegemonie in Syrien lag. Somit ist es denkbar, dass das Land Danuna in Kilikien zu lokalisieren ist.
„Seevolk“ Denyen.
Ungefähr 1177 v. Chr. kämpfte Ramses III., gemäß der Schilderungen in seinem Totentempel, gegen die Seevölker, ein Begriff der modernen Wissenschaft, unter denen sich auch die Denyen ("dnỉn" / "d3jnjw") befanden, welche nach dem Papyrus Harris I auf Inseln lebten. Diese Angabe wird teilweise auf die Ägäischen Inseln bezogen, was eine Verortung des Volkes in Kilikien ausschlösse, außer man bezieht die Aussage mit Emmanuel Laroche auf einige kleine Inseln, die dem Rauhen Kilikien vorgelagert sind. Dennoch schließen einige Forscher eine Identität der Denyen mit den Danunäern nicht aus und rechnen mit der Möglichkeit, dass sich ein Teil der in Kilikien ansässigen Danunäer den Seevölkern anschloss. |
1207 | 0 | https://de.wikipedia.org/wiki?curid=1207 | Drei-Türen-Problem | |
1208 | 233997212 | https://de.wikipedia.org/wiki?curid=1208 | Donald E. Knuth | Donald Ervin „Don“ Knuth [] (* 10. Januar 1938 in Milwaukee, Wisconsin) ist ein US-amerikanischer Informatiker. Er ist emeritierter Professor an der Stanford University, Autor des Standardwerks "The Art of Computer Programming" und Urheber des Textsatzsystems TeX. Er erhielt 1974 den Turing Award.
Leben.
Knuth ist der Sohn eines Lehrers für Buchhaltung, der daneben noch eine kleine Druckerei unterhielt. Er besuchte die Milwaukee Lutheran High School und begann sein Physikstudium am Case Institute of Technology (heute bekannt als Case Western Reserve University) im September 1956. Aus zweierlei Gründen schlug er ab seinem zweiten Studienjahr jedoch den Weg zur Mathematik ein: Zum einen löste er ein Problem eines seiner Mathematikprofessoren, was ihm eine 1,0 als Note einbrachte, zum anderen fand er wenig Gefallen an den physikalischen Praktika.
Er ist seit 1961 mit Nancy Jill Carter verheiratet und hat einen Sohn und eine Tochter.
1960 bis 1968 war er Berater der Burroughs Corporation, wo er unter anderem frühe Compiler schrieb. 1968/69 war er Staff Mathematician in der Communication Research Division des Institute for Defense Analyses.
Er erhielt einen Bachelor- und gleichzeitig einen Master-Abschluss 1960 an der Case Western Reserve University. 1963 erhielt er seinen Ph.D. vom California Institute of Technology bei Marshall Hall, wo er dann auch nach der Promotion Assistant Professor und 1966 Associate Professor und schließlich Professor wurde. 1968 wurde er Professor für Informatik an der Stanford University. Ab 1977 war er dort "Fletcher Jones Professor of Computer Science" und ab 1990 "Professor of the Art of Computer Programming". Seit 1993 ist er Professor Emeritus.
2006 erfuhr Knuth, dass er an Prostatakrebs im Frühstadium erkrankt war. Er unterzog sich im Dezember des Jahres einer Operation, gefolgt von einer leichten Strahlentherapie als Vorsorgemaßnahme. In seiner Video-Autobiographie nannte er die Prognose "ziemlich gut".
Zu seinen Doktoranden gehören Robert Sedgewick, Michael Fredman, Leonidas Guibas und Vaughan Pratt.
Werk.
Bereits 1964 erlangte er durch seinen Designvorschlag eines Input/Output-Systems für die Programmiersprache Algol 60 internationale Bekanntheit. Dieses System wurde in den meisten Algol-60-Systemen als Komponente implementiert.
Eigens für sein mehrbändiges Werk "The Art of Computer Programming", an dem er weiterhin arbeitet, schuf er mit TeX und METAFONT Computerprogramme, die druckreifen Textsatz ermöglichen und die besonders im mathematisch-akademischen Bereich eingesetzt werden.
Er prägte den Begriff "literate programming" – die Auffassung, Computerprogramme mit derselben Sorgfalt wie einen literarischen Text zu verfassen und Quelltext und Softwaredokumentation zu vereinen.
In diesem Sinne veröffentlichte er Bücher, in denen der vollständige Quelltext von TeX und METAFONT in Abschnitten zusammen mit Erläuterungen zum Design und zur Wirkungsweise der Algorithmen abgedruckt ist (unter Verwendung dieser Programme). Die außerdem erschienenen Benutzerhandbücher enthalten nicht nur Bedienungshinweise für die Anwender dieser Programme („wie weise ich TeX auf mögliche Worttrennungen hin?“), sondern auch – in technischerer Sprache und kleinerer Schrift – detaillierte Angaben zur Funktionsweise („wie funktioniert der Worttrennalgorithmus?“). Sie umfassen damit zugleich auch die Spezifikation dieser Programme.
Neben Knuths Bemühen um ein ansprechendes ästhetisches Erscheinungsbild beim Textsatz ist ihm Korrektheit ein erstrangiges Anliegen. Deshalb vergibt er für jeden neu gefundenen Fehler in seinen Büchern eine Belohnung von einem „hexadezimalen Dollar“ im Wert von $2,56 (100 hexadezimal entspricht 256 dezimal). Gefundene Fehler in seinen Programmen belohnt er sogar mit 80 hexadezimalen Dollar (0x$80,00) was dezimal $327,68 entspricht. Sehr wenige dieser Schecks sind bisher eingelöst worden. Da Knuth Schecks nicht mehr für sicher hält, werden die begehrten Anerkennungsschecks seit 2008 als persönliche Einlagen bei der fiktiven "Bank von San Serriffe" ausgestellt.
1974 beschrieb und popularisierte er in seinem Buch "Surreal Numbers: How Two Ex-Students Turned on to Pure Mathematics and Found Total Happiness" die von John Horton Conway vorgestellten surrealen Zahlen.
Seine Vorliebe für schön gedruckte Texte verband er mit seinem theologischen Interesse (er ist evangelisch-lutherisch) im "3:16-Projekt", als er 1985, aufbauend auf einer Schlüsselstelle der Bibel (Johannes 3,16), aus jedem Buch der Bibel Kapitel 3, Vers 16 studierte und eine eigene englische Übersetzung davon von jeweils unterschiedlichen Künstlern schreiben ließ und diese Kalligrafien mit seinen Überlegungen zu den Versen veröffentlichte.
Am 1. Januar 1990 teilte Knuth mit, ab jetzt keine E-Mail-Adresse mehr zu verwenden, um sich auf seine Arbeit zu konzentrieren.
Seit 1993 befindet sich Knuth im Ruhestand, um sich ausschließlich der Fertigstellung von "The Art of Computer Programming" zu widmen. Seit Februar 2011 liegt Band 4A vor, der sich mit Kombinatorik beschäftigt. Band 4B und 4C sollen folgen, Band 5 (von sieben geplanten) hofft er bis 2025 fertigzustellen.
Im Herbst 1999 hielt er am MIT im Rahmen einer mehrjährigen Vortragsreihe prominenter Wissenschaftler zum Thema „Gott und Computer“ sechs Vorlesungen über Querverbindungen zwischen Informatik und Religion aus seiner persönlichen Sicht und nahm an einer abschließenden Podiumsdiskussion teil. Deren Mitschriften wurden in seinem Buch "Things a computer scientist rarely talks about" veröffentlicht.
Mehrfach kritisierte er öffentlich die Vergabe von Softwarepatenten in den USA und engagierte sich in der Diskussion über freieren Zugang zu Veröffentlichungen in wissenschaftlichen Zeitschriften.
Knuth hat im Zuge seiner weiteren Forschungen für "The Art of Computer Programming" eine neue Prozessorarchitektur mit zugehörigem Assembler entwickelt und wird diese in einer zukünftigen Ausgabe des ersten Bandes veröffentlichen (die entsprechende Beschreibung liegt bereits als Vorabversion vor). Diese 64-Bit-Architektur (MMIX) unterstützt ein Unix-ähnliches Betriebssystem (genannt NNIX), auf dem dann wiederum der TeX-Interpreter ausführbar wäre. Somit wären "The Art of Computer Programming" und "Computers and Typesetting" in Kombination mit freier Software ein vollständig selbstdokumentierendes System, bestehend aus Hard- und Software.
"The Art of Computer Programming" enthält auch zahlreiche detaillierte mathematikhistorische Anmerkungen; daneben verfasste er auch einige Aufsätze zur Mathematikgeschichte.
Zudem ist Knuth auch bekannt für seine wissenschaftlichen Witze, so schrieb er einen Artikel "The Complexity of Songs" (‚Über die Komplexität von Liedern‘) und entwarf das "Potrzebie-Einheitensystem", in dem die Dicke des 26. "MAD-Magazines" als elementare Längeneinheit dient. Das war auch seine erste Veröffentlichung im "MAD-Magazin" (Heft 33) von 1957.
Auszeichnungen.
Er ist vielfacher Ehrendoktor; von 1980 bis 2005 wurden ihm 25 Ehrendoktortitel verliehen, unter anderem von der ETH Zürich (2005) und der Eberhard Karls Universität Tübingen (2001).
Zudem ist Knuth der Namenspate für den seit 1997 jährlich vergebenen Knuth-Preis. Der Asteroid (21656) Knuth ist nach ihm benannt.
1992 wurde er auswärtiges Mitglied der Académie des sciences und 2008 der Russischen Akademie der Wissenschaften, 1973 der American Academy of Arts and Sciences, 1975 der National Academy of Sciences, 2003 auswärtiges Mitglied der Royal Society, 1982 Ehrenmitglied der IEEE, Fellow der Association for Computing Machinery (ACM) und 1981 der National Academy of Engineering. Er ist assoziiertes Mitglied der Norwegischen Akademie der Wissenschaften, seit 1998 korrespondierendes Mitglied der Bayerischen Akademie der Wissenschaften und seit 2012 Mitglied der American Philosophical Society. Er ist Fellow der American Mathematical Society und seit 2015 Ehrenmitglied der London Mathematical Society. |
1210 | 1557527 | https://de.wikipedia.org/wiki?curid=1210 | Diskrete Mathematik | Die Diskrete Mathematik als Teilgebiet der Mathematik befasst sich mit mathematischen Operationen auf endlichen oder höchstens abzählbar unendlichen Mengen, also mit diskreten mathematischen Fragestellungen. Im Gegensatz zu Gebieten wie der Analysis, die sich mit kontinuierlichen Funktionen oder Kurven auf nicht abzählbaren, unendlichen Mengen beschäftigt, spielt die Stetigkeit in der Diskreten Mathematik keine Rolle.
Die in der Diskreten Mathematik vertretenen Gebiete (wie etwa die Zahlentheorie oder die Graphentheorie) sind zum Teil schon recht alt, aber die Diskrete Mathematik stand lange im Schatten der „kontinuierlichen“ Mathematik, die seit der Entwicklung der Infinitesimalrechnung durch ihre vielfältigen Anwendungen in den Naturwissenschaften (insbesondere der Physik) in den Mittelpunkt des Interesses getreten ist. Erst im 20. Jahrhundert entstand durch die Möglichkeit der raschen digitalen Datenverarbeitung durch Computer (die naturbedingt mit diskreten Zuständen arbeiten) eine Vielzahl von neuen Anwendungen der Diskreten Mathematik. Gleichzeitig gab es eine rasante Entwicklung der Diskreten Mathematik, die in großem Maße durch Fragestellungen im Zusammenhang mit dem Computer (Algorithmen, theoretische Informatik usw.) vorangetrieben wurde.
Ein Beispiel für ein Gebiet, das am Schnittpunkt von Analysis und Diskreter Mathematik liegt, ist die numerische Mathematik, die sich mit der Approximation von kontinuierlichen durch diskrete Größen beschäftigt sowie mit der Abschätzung (und Minimierung) dabei auftretender Fehler.
Kerngebiete.
Zu den Kerngebieten der Diskreten Mathematik zählen:
Darüber hinaus hat die Diskrete Mathematik in folgenden Gebieten zusätzliche Beiträge geliefert:
Wissenschaftspreis.
Die Fachgruppe Diskrete Mathematik der Deutschen Mathematiker-Vereinigung vergibt im Zwei-Jahres-Rhythmus den nach dem deutschen Mathematiker Richard Rado benannten Richard-Rado-Preis für die beste Dissertation in Diskreter Mathematik. |
1211 | 1069192 | https://de.wikipedia.org/wiki?curid=1211 | Dickdarm | Der Dickdarm ( Intestinum crassum) ist der letzte Teil des Verdauungstraktes der Wirbeltiere und damit auch des Menschen. Er ist der Teil des Darms, der nach dem Dünndarm beginnt und an der Kloake oder am Anus endet. Seine wesentliche Funktion liegt im Transport und in der Speicherung des Stuhls. Der Dickdarm entzieht dem Stuhl Wasser und dickt ihn dadurch ein. Durch seine Fähigkeit, Natrium-, Kalium- und Chlorid-Ionen aufzunehmen oder auszuscheiden, ist er an der Feinregulation des Elektrolyt-Haushaltes beteiligt. Die Darmflora ist vor allem im Dickdarm zu finden. Erkrankungen des Dickdarms sind beim Menschen häufig: Die akute Appendizitis ist ein gängiges Krankheitsbild der Chirurgie, und Darmkrebs gehört zu den häufigsten Krebsdiagnosen.
Vergleichende Anatomie des Dickdarms.
Der Dickdarm ist der bei den Wirbeltieren vom Dünndarm differenzierte Teil des Mitteldarms (Intestinum), also des mittleren Abschnitts des Darmes zwischen dem Magen und den Anhangsorganen sowie der Kloake bzw. dem Anus. Im einfachsten Fall bilden beide Mitteldarmabschnitte ein einfaches und gestrecktes Rohr, in dem sowohl die enzymatische Zersetzung wie auch die Resorption der Nährstoffe stattfindet. Diese einfache Form findet sich bei den Schleimaalen, den Neunaugen sowie den Knochenfischen. Bei den Knorpelfischen ist der Mitteldarm durch eine spezifische Faltenbildung zur Vergrößerung der Oberfläche gekennzeichnet, die je nach Taxon mehr oder weniger schraubenförmig verläuft und als Spiraldarm bezeichnet wird.
Amphibien und Reptilien besitzen meist nur einen kurzen, in wenige Schlingen gelegten Dickdarm. Der Blinddarm ist klein oder fehlt ganz. Bei beiden Gruppen endet der Dickdarm in einen kurzen Enddarm und danach in der Kloake. Bei Vögeln unterscheidet man zwei Dickdarmabschnitte: den Blinddarm und den Enddarm. Die Bauunterschiede betreffen vor allem den Blinddarm, der bei Vögeln paarig angelegt ist. So besitzen Hühner- oder Straußenvögel große Blinddärme, während sie bei Tauben sehr klein sind und keine Verdauungsfunktion haben und bei Papageien, vielen Greif- und Sperlingsvögeln ganz fehlen.
Mit Ausnahme der Kloakentiere sind die Säugetiere die einzige Tiergruppe, bei der es zu einer Trennung von Geschlechtsöffnung und Darmaustritt in Form eines Anus gekommen ist. Innerhalb der Säugetiere zeigt der Dickdarm erhebliche Unterschiede im Aufbau. So besitzen Raubtiere einen kleinen Blinddarm, ein einfaches U-förmiges Colon und einen kurzen Mastdarm (Rektum), die allesamt keine Bandstreifen (Tänien) besitzen. Der Darm der Primaten entspricht dem in diesem Artikel ausführlich dargestellten Aufbau beim Menschen. Einige Pflanzenfresser wie Pferde oder herbivore Nagetiere haben dagegen einen sehr großen Blinddarm, der bei ihnen als Gärkammer dient. Am Colon zeigt vor allem der aufsteigende Teil ("Colon ascendens") erhebliche Gestaltvariationen, bei Pflanzenfressern ist er stark vergrößert. Die Schlingen des "Colon ascendens" sind beispielsweise bei Pferden in Form zweier übereinandergelegter, nach hinten offener Hufeisen angeordnet, bei Schweinen bienenkorbartig und bei Wiederkäuern scheibenförmig aufgerollt (Einzelheiten siehe den Artikel zum jeweiligen Dickdarmabschnitt). Die Anzahl der Bandstreifen ist ebenfalls tierartlich verschieden. Elefanten besitzen einen sehr langen Darm von insgesamt etwa 25 Metern Länge, von denen 6 Meter auf den Dickdarm und 4 Meter auf das Rektum entfallen. Bei den Walen sind der Dünndarm und der Dickdarm nur anhand der Epithelzellen zu unterscheiden.
Anatomie des Dickdarms beim Menschen.
Lage und Struktur.
Der Dickdarm liegt größtenteils in der Bauchhöhle, wo er die Dünndarmschlingen umrahmt. Er beginnt bei den meisten Menschen im rechten Unterbauch, wo der Dünndarm seitlich einmündet und die Krummdarm-Blinddarm-Klappe (Ileozäkalklappe, Bauhin-Klappe) bildet. Unterhalb der Einmündung endet der Dickdarm blind, entsprechend wird dieser Abschnitt Blinddarm "(Caecum)" genannt. An seinem Ende verengt sich der Blinddarm zum Wurmfortsatz "(Appendix vermiformis)", dessen Lage sehr variabel ist. Oberhalb der Bauhin-Klappe beginnt der Grimmdarm "(Colon)", der bis unter die Leber aufsteigt "(Colon ascendens)", unterhalb der Leber nach links umbiegt "(Flexura coli dextra)" und quer durch die Bauchhöhle in den linken Oberbauch zieht ("Colon transversum", auch Quercolon genannt). Hier biegt er erneut um "(Flexura coli sinistra)" und steigt in das Becken ab "(Colon descendens)", wo er anschließend S-förmig nach hinten "(dorsal)" zum Kreuzbein zieht "(Colon sigmoideum)". Dort biegt er nach unten "(kaudal)" um, verlässt die Bauchhöhle und bildet den Enddarm. Dieser wird in den Mastdarm und den Analkanal unterteilt. Die Gesamtlänge des Dickdarms beträgt beim Menschen etwa 1,5 Meter.
Die einzelnen Abschnitte können intraperitoneal, retroperitoneal und extraperitoneal liegen. Damit ist die Lage zum Bauchfell "(Peritoneum)" gemeint. Ein Organ liegt intraperitoneal, wenn es vollständig von Bauchfell überzogen ist und mit einem breiten Band (Gekröse, "Meso") an der Rumpfwand aufgehängt ist, wodurch es relativ frei beweglich ist. Beim Dickdarm gilt das für Blinddarm, Wurmfortsatz, Quercolon und Colon sigmoideum. Retroperitoneal bedeutet, dass das Organ nicht von allen Seiten von Bauchfell überzogen ist, sondern an einer Seite direkt mit der Rumpfwand verwachsen ist. Das gilt für den auf- und absteigenden Grimmdarm ("Colon ascendens" und "Colon descendens") und das obere Rektum. Ein Organ liegt extraperitoneal, wenn es außerhalb der Bauchhöhle liegt und deswegen nicht vom Peritoneum überzogen ist. Im Falle des Dickdarms trifft das auf das Endstück des Rektums und den Analkanal zu.
Charakteristisch für den Dickdarm ist die Wand des Colons. Sie ist gekennzeichnet durch drei sichtbare Längsmuskelzüge, die Bandstreifen genannt werden, halbmondförmige Einziehungen "(Plicae semilunares)" und Aussackungen (Poschen oder Haustren) zwischen den Einziehungen "(siehe Abschnitt Feinbau)".
Blutversorgung und Lymphabfluss.
Die Abschnitte des Dickdarmes werden von den Ästen dreier großer Arterien versorgt. Blinddarm, Wurmfortsatz, aufsteigendes Colon und der größte Teil des Quercolon erhalten Äste der "Arteria mesenterica superior", der restliche Teil des Quercolon, das absteigende Colon, das Colon sigmoideum und das obere Rektum solche von der "Arteria mesenterica inferior". Das untere Rektum und der Analkanal erhalten Blut aus der "Arteria pudenda interna". Der Blutabfluss erfolgt über Venen, die mit den Arterien verlaufen und gleichlautend benannt sind, also über die "Vena mesenterica superior", "Vena mesenterica inferior" und "Vena pudenda interna". Die beiden Erstgenannten münden in die Pfortader der Leber, nur die "Vena pudenda interna" mündet in die "Vena iliaca interna", deren Blut in die untere Hohlvene gelangt, ohne die Leber zu passieren.
Da Lymphgefäße in der Regel mit Arterien verlaufen, entsprechen die Lymphabflussgebiete des Dickdarms in etwa den arteriellen Versorgungsgebieten. Die Lymphe aus dem Stromgebiet der "Arteria mesenterica superior" fließt über die Mesenteriallymphknoten an der Austrittsstelle der Arterie aus der Bauchaorta "(Noduli mesenterici superiores)" in den "Truncus intestinalis", der in die "Cisterna chyli" mündet. Die Lymphe aus dem Stromgebiet der "Arteria mesenterica inferior" gelangt entsprechend über die Lymphknoten neben dem Arterienaustritt "(Noduli mesenterici inferiores)" und über den linken "Truncus lumbalis" in die "Cisterna chyli".
Innervation.
In der Wand des Darms befindet sich ein Netzwerk aus Nervenzellen, das die Bewegungen des Darms koordiniert. Dieses sogenannte enterische Nervensystem arbeitet weitgehend autonom, seine Aktivität wird aber von den beiden Anteilen des vegetativen Nervensystems beeinflusst: der Parasympathikus steigert die Darmaktivität, der Sympathikus setzt sie herab. Ähnlich der arteriellen Versorgung wird der Dickdarm bis kurz vor der linken Colonflexur anders innerviert als der Darm dahinter. Die parasympathischen Fasern für den ersten Abschnitt stammen aus dem Vagusnerv, die für den zweiten Abschnitt entspringen aus dem untersten Teil des Rückenmarks und verlaufen als "Nervi splanchnici pelvici". Als Cannon-Böhm-Punkt wird das Gebiet bezeichnet, in dem sich die Innervationsgebiete überlappen.
Feinbau.
Der Dickdarm zeigt den typischen Wandaufbau des Magen-Darm-Traktes mit vier Schichten. Die innerste Schicht ist eine Schleimhaut ("Tunica mucosa", kurz "Mukosa"), die ihrerseits aus drei Schichten aufgebaut ist: die Oberfläche ist mit Epithel "(Lamina epithelialis)" bedeckt, das durch lockeres Bindegewebe "(Lamina propria mucosae)" von einer Schicht aus glatten Muskelzellen "(Lamina muscularis mucosae)" getrennt ist. Die Schleimhaut liegt einer lockeren Bindegewebsschicht ("Tunica submucosa", kurz "Submukosa") auf. Diese führt die Blut- und Lymphgefäße für die Mukosa und beinhaltet ein Nervengeflecht, den "Plexus submucosus". Sie dient zudem als Verschiebeschicht zur dritten Wandschicht, der "Tunica muscularis", die dem Organ mit einer inneren Ringmuskelschicht "(Stratum circulare)" und einer äußeren Längsmuskelschicht "(Stratum longitudinale)" peristaltische Bewegungen ermöglicht. Zwischen den Muskelschichten liegt ein weiteres Nervengeflecht, der "Plexus myentericus", der ebenso wie der "Plexus submucosus" zum enterischen Nervensystem gehört. Die vierte Schicht ist je nach Abschnitt des Dickdarms entweder lockeres Bindegewebe "(Adventitia)" oder das Bauchfell.
Ein wichtiger feinbaulicher Unterschied zum Dünndarm besteht in dem Fehlen von Darmzotten, die Dickdarmschleimhaut hat nur tiefe Krypten, die von zylinderförmigen Zellen "(hochprismatisches Epithel)" ausgekleidet sind. Viele dieser Zellen produzieren Gleitschleim, andere nehmen Wasser auf und dicken so den Stuhl ein. Auch die Dickdarmwand ist wie die Wand des Dünndarms in Falten geworfen. Diese entstehen aber durch örtliche Einziehungen der inneren Ringmuskelschicht, die im Querschnitt halbmondförmig erscheinen (daher der lateinische Name "Plicae semilunares"). Zwischen den Einziehungen bildet die Darmwand Aussackungen, die als "Haustren" (deutsch: Poschen) bezeichnet werden. Bei einigen Säugetieren, auch beim Menschen, ist die äußere Längsmuskelschicht zu drei kräftigen Strängen ("Tänien") verdickt. An diesen Tänien hängen außen Ansammlungen von Fettgewebe "(Appendices epiploicae)". Von diesem Muster weicht die "Appendix vermiformis" ab. Sie hat keine Tänien, sondern wie die anderen Abschnitte des Verdauungstraktes eine durchgehende Längsmuskelschicht. In der "Lamina propria" der Schleimhaut sind große Lymphfollikel zu finden. Das Rektum hat statt der Tänien eine durchgehende Längsmuskelschicht, keine Haustren und keine Fettanhängsel. Am Analkanal geht das Epithel des Rektums in mehrschichtig unverhorntes Plattenepithel über.
Entwicklung und Fehlbildungen.
Aus dem "Entoderm", dem inneren Keimblatt des Embryos, bildet sich zunächst das primitive Darmrohr aus, an dem Vorder-, Mittel- und Hinterdarm zu unterscheiden sind. Aus der weiteren Entwicklung des Mitteldarms geht der größte Teil des Dünndarms und der Dickdarm einschließlich der ersten zwei Drittel des Quercolons hervor. Der Rest des Dickdarms bildet sich aus dem Hinterdarm, während das letzte Stück des Analkanals durch die Einstülpung von "Ektoderm" entsteht. Die Entwicklung des Darmes erklärt auch die Innervation und die Blutversorgung: die Mitteldarmarterie wird zur "Arteria mesenterica superior", die Enddarmarterie zur "Arteria mesenterica inferior".
Im Laufe der Entwicklung verwachsen "Colon ascendens" und "Colon descendens" mit der rückwärtigen Rumpfwand. Beim "Colon ascendens" kann diese Verwachsung unvollständig sein und im Extremfall gar nicht stattfinden, sodass es wie das Quercolon über ein eigenes Mesenterium verfügt. Das "Colon ascendens" ist dann abnorm beweglich, es kann zum Volvulus kommen oder zur Einklemmung von Dünndarmschlingen. Während der Embryonalentwicklung dreht sich der Darm und „verpackt“ sich in der Bauchhöhle. Auch bei diesem Prozess können Fehler auftreten, die dazu führen, dass sich etwa der gesamte Dickdarm auf der linken Seite befindet oder das Quercolon hinter dem Zwölffingerdarm zu liegen kommt. Als Atresie bezeichnet man den Verschluss von Hohlorganen: Am Dickdarm sind am häufigsten Rektum und Analkanal betroffen, bei der "Rektoanalatresie" fehlt die Verbindung zwischen den beiden Abschnitten und der Dickdarm endet blind. Häufig ist der Mastdarm dann durch Fisteln mit angrenzenden Organen verbunden. Bei Jungen ist das häufig die Harnröhre, bei Mädchen die Vagina. Beim angeborenen Megacolon "(Morbus Hirschsprung)" fehlen meistens im Endabschnitt des Dickdarms Nervenzellen, wodurch sich die Muskulatur im betroffenen Bereich zusammenzieht und den Darm verschließt. Der Darminhalt staut sich an der Engstelle und dehnt den Dickdarm auf („Megacolon“).
Funktion.
Der Dickdarm nimmt den Speisebrei aus dem Dünndarm auf, transportiert ihn weiter, speichert ihn im Mastdarm und scheidet ihn letztlich aus. Dabei entzieht er ihm weiteres Wasser, indem er Natrium-Ionen resorbiert. Daneben ist er auch an der Regulation des Chlorid- und Kalium-Ionen-Haushaltes beteiligt, wobei er im Gegensatz zum Dünndarm auch zur aktiven Sekretion von Kalium-Ionen in der Lage ist. Abgesehen von kurzkettigen Fettsäuren werden im Dickdarm keine Nährstoffe aufgenommen. Eine bedeutende Rolle bei der Bildung dieser Fettsäuren spielen die Bakterien des Dickdarms, die Darmflora.
Stuhltransport.
Die Ileozäkalklappe trennt den letzten Abschnitt des Dünndarms, das Ileum, vom Blinddarm. In Ruhe ist diese Klappe teilweise geschlossen, sodass ein langsamer Durchtritt des Speisebreis möglich ist. Der Übertritt des Speisebreis vom Ileum in den Blinddarm findet bei Nahrungsaufnahme verstärkt statt: Die Magendehnung führt über einen Reflex zu verstärkter Peristaltik des Ileums und über die Ausschüttung des Hormons Gastrin zur Entspannung des zur Klappe gehörenden Schließmuskels. Der Transport des Speisebreis findet im Dünndarm mit einer recht konstanten Geschwindigkeit statt. So staut sich Speisebrei vor der Ileozäkalklappe und dehnt das Ileum. Ohne die entspannende Wirkung des Gastrins bewirkt die Dehnung des Ileums eine Kontraktion des Schließmuskels, ohne Nahrungsaufnahme wird also der Übertritt des Speisebreis blockiert.
Nach der Passage des Ileozäkalsphinkters sammelt sich der Speisebrei im Blinddarm und im aufsteigenden Colon. Typisch für alle Abschnitte des Dickdarms ist die Haustralbewegung. Dabei füllt sich eine Haustre bis zu einem bestimmten Grad und zieht sich dann zusammen, wobei sie ihren Inhalt in die benachbarte Haustre drückt. Daneben ist eine sehr langsame propulsive Peristaltik zu beobachten, bei der sich die Einschnürungen zwischen den Haustren sozusagen Richtung Anus bewegen. Im aufsteigenden Colon und im Quercolon sind Segmentationsbewegungen zu beobachten, die den Stuhl durchmischen. Im Quercolon tritt gelegentlich eine Antiperistaltik auf, die den Stuhl zurück in den Blinddarm treibt. In Verbindung mit der Nahrungsaufnahme tritt eine sogenannte Massenperistaltik auf: Ausgelöst durch die Dehnung des Magens entsteht im mittleren Quercolon eine peristaltische Welle, die den Stuhl in kurzer Zeit über das absteigende Colon und das "Colon sigmoideum" in den Mastdarm befördert (Gastrocolischer Reflex).
Die Darmentleerung ist ein Reflex, der durch die Dehnung der Rektumwand ausgelöst wird. Dabei kontrahieren sich die Längsmuskeln des Mastdarms, verkürzen ihn und erhöhen so den Druck. Der innere Schließmuskel des Anus wird unwillkürlich entspannt. Durch die willentliche Entspannung des äußeren Schließmuskels kann sich der Mastdarm entleeren.
Die gesamte Passagezeit des Dickdarms ist individuell sehr verschieden und reicht von 12 bis 48 Stunden.
Wasser, Elektrolyte und Nährstoffaufnahme.
Der Dickdarm nimmt mit unter 2 Litern am Tag weniger Wasser auf als der Dünndarm, kann die Resorption jedoch auf 4 bis 5 Liter steigern. Der Wassertransport erfolgt grundsätzlich über die Resorption von Natrium-Ionen: Diese werden aktiv aufgenommen, das Wasser folgt passiv nach "(Osmose)". Die Zellen des Dickdarms sind wie die Zellen des Dünndarms in der Lage, Natrium-, Kalium- und Chlorid-Ionen aufzunehmen und im Fall von Chlorid auch auszuscheiden, wenn auch die zellulären Mechanismen dahinter unterschiedlich sind. Zwei wesentliche Unterschiede liegen darin, dass die Dickdarmzellen Natrium-Ionen auch gegen einen Konzentrationsgradienten aufnehmen und Kalium-Ionen nicht nur aufnehmen, sondern auch ausscheiden. Damit spielt der Dickdarm eine wichtige Rolle in der Feinregulation des Kalium-Haushaltes. Kohlenhydrate und Proteine, die in den Dickdarm gelangen, werden dort von Bakterien abgebaut. Der Dickdarm kann nur die dabei entstehenden kurzkettigen Fettsäuren resorbieren.
Bakterielle Besiedlung.
Bei allen Tieren ist der Darm von Bakterien besiedelt, die in ihrer Gesamtheit die Darmflora bilden. Die Zusammensetzung der Darmflora und die Verteilung der Bakterien unterscheiden sich zwischen Pflanzen-, Fleisch- und Allesfressern. Die Bakterien leben dabei in Symbiose mit ihrem Wirt, indem sie ihm nicht verdaubare Nahrungsbestandteile verdauen und zugänglich machen. Da die Bakterien unter Ausschluss von Sauerstoff, also anaerob arbeiten müssen, handelt es sich um Vergärungsprozesse.
Bei Fleischfressern und beim Menschen ist ein Großteil der Darmflora im Dickdarm beheimatet. Hier produzieren sie bei der Vergärung des Speisebreis in erster Linie kurze Fettsäuren, die vom Dickdarm aufgenommen werden. Hinzu kommt Vitamin K, das ebenfalls resorbiert wird.
Während Wiederkäuer die unverdaulichen Bestandteile der pflanzlichen Nahrung, nämlich Cellulose, Xylan, Pectin und andere Polysaccharide, in ihrem Pansen vergären lassen, finden diese Prozesse bei Pferden, Eseln, den meisten anderen Unpaarhufern und Kaninchen im Blinddarm und Colon statt.
Die Art und Menge, sozusagen das Ökosystem der verschiedenen Bakterien im Dickdarm ist Gegenstand aktueller Forschung. Ernährung, aber auch Übertragung von Mensch zu Mensch spielen hier eine Rolle. Das Immunsystem und Erkrankungen werden davon beeinflusst, eine Interventionsmöglichkeit stellt die Stuhltransplantation dar.
Erkrankungen des Dickdarms.
Entzündungen.
Eine Entzündung des Dickdarms wird allgemein Kolitis genannt. Die Entzündung des Wurmfortsatzes (Appendizitis) ist die häufigste Entzündung im Bauchraum. Ursachen für Dickdarmentzündungen sind Infektionen mit Krankheitserregern, Allergien, bestimmte Medikamente, Strahlung, Minderdurchblutung oder unbekannte Faktoren, die zum Beispiel bei der Entstehung der chronisch-entzündlichen Darmerkrankungen eine Rolle spielen.
Infektiöse Kolitis.
Bei einer Gastroenteritis, also der Magen-Darm-Entzündung, ist der Dickdarm in der Regel mitbetroffen. Eine solche Entzündung entsteht durch die Infektion mit Bakterien, Viren und seltener Parasiten. Häufige bakterielle Erreger sind besondere Typen von "Escherichia coli" (EHEC, ETEC, EIEC und EPEC), einige Yersinien- und Campylobacter-Spezies, des Weiteren enteritische Salmonellen und Cholera-Erreger. In manchen Fällen manifestiert sich auch eine Tuberkulose im Dickdarm. Kleinräumige Ausbrüche einer infektiösen Gastroenteritis werden häufig durch Viren hervorgerufen, überwiegend Noroviren, bei Kleinkindern häufiger Rotaviren. Seltenere virale Erreger sind Astroviren, Sapoviren und das Humane Adenovirus F. In Sommermonaten überwiegen in Mitteleuropa die bakteriellen Gastroenteritiden, im Herbst und Winter hingegen virale.
Eine Erkrankung, die nur den Dickdarm betrifft, ist die Dysenterie (Ruhr). Sie wird in Mitteleuropa vor allem durch Shigellen (Bakterienruhr) verursacht. In tropischen und subtropischen Regionen ist die Amöbenruhr weiter verbreitet, deren Erreger "Entamoeba histolytica" sich vor allem in Colon und Leber festsetzt. Bei schlechter Abwehrlage, etwa bei AIDS-Erkrankten, können weitere Erreger krankheitsauslösend sein, darunter einige atypische Mykobakterien (MOTT), Kryptosporidien und Candida-Pilze. Selten kommt es bei Immundefizienten zu einer Kolitis aufgrund einer Reaktivierung des Cytomegalievirus. In tropischen Regionen spielt auch die Infektion mit Schistosomen eine Rolle. Die durch diese Würmer ausgelöste Erkrankung wird Bilharziose genannt.
Chronisch-entzündliche Darmerkrankungen.
Zu den chronisch-entzündlichen Darmerkrankungen werden üblicherweise "Morbus Crohn" und "Colitis ulcerosa" gezählt, die in Deutschland mit jeweils 5–6 Neuerkrankungen pro 100.000 Einwohner pro Jahr etwa gleich häufig auftreten. Kennzeichnend ist eine dauerhafte (chronische) Immunreaktion in der Darmwand, die in Schüben auftritt. Bei beiden Erkrankungen sind die Auslöser und Mechanismen der Krankheitsentstehung noch unklar. Franz Alexander zählte sie 1950 zu den sieben psychosomatischen Krankheiten, den „Holy Seven“, diese These gilt inzwischen als überholt. Mittlerweile wurden auch genetische Faktoren identifiziert, die bei der Entstehung der Krankheiten eine Rolle spielen könnten. "Morbus Crohn" und "Colitis ulcerosa" unterscheiden sich hinsichtlich des Krankheitsverlaufs und ihres Erscheinungsbildes (Morphologie).
Der Morbus Crohn ist die Entzündung der ganzen Darmwand mit allen Schichten, weshalb es häufig zu Fisteln (beispielsweise Analfisteln) kommt. Grundsätzlich kann der gesamte Verdauungstrakt befallen sein, typischerweise betrifft die Entzündung aber den Endabschnitt des Dünndarms (Ileum) und den Dickdarm. Die Entzündung breitet sich nicht kontinuierlich vom Entstehungsort aus, sondern „springt“ von Abschnitt zu Abschnitt. Der Morbus Crohn heilt häufig nur unvollständig ab und ist durch eine hohe Rezidiv-Rate, also wiederkehrende Entzündungen, gekennzeichnet.
Bei der Colitis ulcerosa beschränkt sich die Entzündung dagegen auf die Schleimhaut. In der Regel beginnt die Entzündung akut im Rektum und breitet sich von dort kontinuierlich auf die restlichen Dickdarmabschnitte aus. Ist der ganze Dickdarm befallen, ist von einer "Pancolitis" die Rede. Bei etwa 10 bis 20 % der Pancolitiden kommt es zur sogenannten „Backwash-Ileitis“, bei der die Entzündung auf das Ileum des Dünndarms übergreift. Auch die Colitis ulcerosa verläuft rezidivierend, also mit wiederkehrenden Schüben. Zwischen den Schüben heilt der Darm in der Regel aber vollständig ab. Beim akut fulminanten Verlauf ist das toxische Megacolon eine seltene, aber lebensbedrohliche Komplikation mit der Gefahr einer eitrigen Bauchfellentzündung. Colitis ulcerosa erhöht das Risiko, an Darmkrebs zu erkranken. Durch eine Kolektomie, Entfernung des Dickdarms, ist Colitis Ulcerosa theoretisch heilbar, es wird dann hierfür ein Stoma bzw. ein Pouch erstellt.
Eine weitere, schlecht erforschte Erkrankung ist die mikroskopische Colitis, die ebenfalls zu den chronisch entzündlichen Darmerkrankungen gezählt werden kann. Sie verursacht wässrige Durchfälle, aber keine mit dem bloßen Auge oder dem Endoskop sichtbaren Schleimhautveränderungen. Die Diagnose kann nur durch die mikroskopische Untersuchung der Schleimhaut nach der Biopsie gestellt werden. Unterschieden werden zwei Formen: die Lymphozytäre Colitis ist durch eine Vermehrung von bestimmten Immunzellen, den Lymphozyten, im Epithel charakterisiert. Die Kollagene Colitis entspricht der Lymphozytären Colitis, zusätzlich hat sich unter der Basalmembran des Schleimhautepithels eine Schicht aus Kollagenfasern gebildet.
Ischämische Kolitis.
Eine ischämische Kolitis entsteht, wenn die Dickdarmschleimhaut aufgrund von Gefäßverengungen oder Verschlüssen (häufig durch Arteriosklerose) überhaupt nicht mehr oder nicht mehr ausreichend durchblutet und dadurch geschädigt wird "(Mesenteriale Ischämie)". Die Reaktion auf den Gewebeschaden ist die Entzündung im betroffenen Gebiet. Beim Dickdarm ist die Durchblutungsstörung häufig auf kleinere Areale begrenzt und tritt etwas häufiger im Bereich der linken Colonflexur auf, da dieses Gebiet an der Grenze der Versorgungsgebiete von "Arteria mesenterica superior" und "Arteria mesenterica inferior" liegt und die Anastomosen zwischen den Versorgungsgebieten aufgrund von Arteriosklerose nicht mehr in der Lage sind, Durchblutungsstörungen auszugleichen. Das Rektum ist in der Regel nicht betroffen, da es aus den Beckenarterien ausreichend versorgt ist.
Medikamentenassoziierte Kolitis.
Auch die Wirkung vieler Medikamente kann Dünn- und Dickdarm schädigen und eine Entzündung "(Enterocolitis)" verursachen, etwa nichtsteroidale Antirheumatika (NSAR) wie Acetylsalicylsäure oder Ibuprofen, Antibiotika, Zytostatika und blutdrucksenkende Mittel wie Diuretika. Schätzungsweise ist jede zehnte Entzündung des (Dick-)Darms auf den Gebrauch von NSAR zurückzuführen. Die Entzündung heilt ab, wenn das Medikament abgesetzt wird. Antibiotika hemmen die Darmflora und begünstigen dadurch die Vermehrung krankheitserregender Bakterien, vor allem "Clostridium difficile", dessen Enterotoxine die Dickdarmschleimhaut angreifen und zur Entzündung führen. Wegen typischer Schleimhautveränderungen werden diese Entzündungen als pseudomembranöse Kolitiden bezeichnet. Bei einer starken Verminderung der Anzahl der neutrophilen Granulozyten im Blut (Neutropenie), häufig als Nebenwirkung einer Chemotherapie mit Zytostatika, kann es zu einer schweren, nekrotisierenden Entzündung des Blinddarms und des aufsteigenden Colons kommen, der sogenannten neutropenischen Colitis "(Typhlitis)".
Reizdarmsyndrom.
Das Reizdarmsyndrom ist ein Komplex mehrerer gastrointestinaler Symptome, das mit psychischen Belastungsfaktoren in Verbindung gebracht wird und auch nach einer Darminfektion auftreten kann. Das Reizdarmsyndrom ist eine Ausschlussdiagnose, die gestellt wird, wenn die lang anhaltenden Beschwerden wie Bauchschmerzen, Blähungen und Stuhlveränderungen mit keiner anderen Diagnose in Einklang gebracht werden können. Rund die Hälfte der Patienten mit gastrointestinalen Beschwerden soll an einem Reizdarmsyndrom leiden.
Divertikel.
Divertikel sind allgemein Ausstülpungen der Wand eines Hohlorgans, die am Dickdarm am häufigsten auftreten. Unterschieden werden echte Divertikel und unechte Divertikel "(Pseudodivertikel)". Bei Ersteren sind alle Wandschichten an der Bildung des Divertikels beteiligt, bei den Pseudodivertikeln wird in der Regel nur die Schleimhaut durch die Muskelschichten gedrückt. Pseudodivertikel können entweder noch in der Darmwand "(intramural)" liegen oder sich komplett daraus herausstülpen ("extramurale" Divertikel). Etwa zwei Drittel der Dickdarmdivertikel treten am "Colon sigmoideum" auf und sind typischerweise Pseudodivertikel. Das gehäufte, keine Beschwerden verursachende Auftreten von Divertikeln wird als Divertikulose bezeichnet, die in eine Divertikulitis, also eine eitrige Entzündung der Divertikel, übergehen kann und therapiert werden muss. Im schlimmsten Fall können entzündete Divertikel aufbrechen (perforieren), was zu Abszessen in der Bauchhöhle und Entzündungen des Bauchfells führen kann.
Tumoren.
Der Dickdarm ist mit über 60000 jährlichen Neuerkrankungen in Deutschland nach der Prostata und der Brustdrüse der dritthäufigste Entstehungsort von Krebs, dem kolorektalen Karzinom. Die Ursachen sind nicht genau bekannt, als Risikofaktoren gelten Rauchen, Bewegungsmangel, Übergewicht, Alkohol und rotes Fleisch. Darüber hinaus gibt es seltene erbliche Formen wie die familiäre adenomatöse Polyposis oder das hereditäre nicht-polypöse kolorektale Krebssyndrom. Das gängige Modell der Entstehung von Dickdarmkrebs geht von einer Adenom-Karzinom-Sequenz aus. Das bedeutet, dass in einem mehrstufigen Prozess durch genetische Veränderungen das Drüsenepithel des Dickdarms entartet: Dafür reicht eine Zelle, die sich wegen dieser genetischen Veränderungen unkontrolliert teilt. Zunächst entsteht so ein gutartiger Tumor, ein Adenom, der bei der Koloskopie als Dickdarmpolyp auffällt. Die Zellen des Adenoms sind aber anfällig für weitere Genmutationen, sodass irgendwann Krebszellen entstehen, die bösartig in das umliegende Gewebe einwachsen und sich schnell teilen. Über 90 % der kolorektalen Karzinome gehen aus Adenomen hervor, weswegen die Entfernung eines Adenoms immer angezeigt ist.
Tumoren des Bindegewebes sind selten, gerade im Vergleich zu den oben beschriebenen epithelialen Tumoren. Die häufigsten Bindegewebstumoren sind Tumoren des Fettgewebes, der glatten Muskelzellen, der Lymphgefäße und Gastrointestinale Stromatumoren. Maligne Lymphome, insbesondere das Mantelzelllymphom, können sich als "lymphomatöse Polypose" manifestieren, wobei sich zahlreiche Polypen im Colon finden.
Neuroendokrine Tumoren gehen im Magen-Darm-Trakt von den Zellen des Diffusen neuroendokrinen Systems aus. Sie sind am Colon sehr selten, am Rektum finden sich dagegen 13 % aller gastrointestinalen Neuroendokrinen Tumoren, während am Wurmfortsatz fast jeder fünfte dieser Tumoren lokalisiert ist.
Untersuchungsmöglichkeiten.
Der Dickdarm kann mit den Händen und Fingern, endoskopischen und anderen bildgebenden Verfahren untersucht werden.
Beim Abtasten des Bauches im Rahmen der körperlichen Untersuchung können Tumoren des Dickdarms festgestellt werden. Eine häufige Untersuchung ist die digitale Palpation, das Abtasten mit den Fingern (von lat. "digitus", Finger). Dabei führt der Untersuchende einen (in der Regel behandschuhten) Finger in den Anus ein, tastet den Analkanal ab, prüft den Ruhetonus und den Druck des Analsphinkters bei der aktiven Anspannung, schiebt den Finger bis in die Rektumampulle vor und tastet auch diese aus. Bei Männern kann auf diesem Wege auch die Prostata beurteilt werden. Auf diese Art können Tumoren oder schmerzhafte Stellen ausgemacht werden. Nicht zuletzt können Stuhl, Blut oder Eiter am Finger Hinweise auf Erkrankungen geben.
Zur endoskopischen Untersuchung stehen verschiedene Verfahren zur Verfügung. Das Rektoskop ist ein starres Endoskop, das nur zur Beurteilung von Analkanal und Rektum geeignet ist. Eine Sigmoidoskopie zur Beurteilung des Darms bis zum "Colon sigmoideum" kann mit einem bis zu 60 cm langen, flexiblen Endoskop erfolgen. Die Koloskopie (Darmspiegelung) ist die endoskopische Untersuchung des gesamten Dickdarms mit einem langen Endoskop. Sie gilt als Goldstandard für die Beurteilung der Schleimhaut. Mit diesem Verfahren können nicht nur sichtbare Veränderungen beschrieben, sondern auch Proben entnommen (biopsiert) und kleine therapeutische Eingriffe durchgeführt werden (beispielsweise die Entfernung eines Polypen).
Die klassische Ultraschalluntersuchung des Bauches spielt für die Beurteilung des Dickdarms eine untergeordnete Rolle. Nützlich ist sie zur Diagnostik der akuten Appendizitis und der Divertikulitis. Die Endosonografie ist ein kombiniertes Verfahren, bei dem ein rotierender Schallkopf an einem flexiblen Endoskop in den Darm eingeführt wird. Dabei entsteht ein Querschnittsbild des Darms, mit dem alle Wandschichten beurteilt werden können.
Das konventionelle Röntgen des Bauches bietet eine schnelle Diagnostik. Es eignet sich zur Identifizierung freier Luft im Bauchraum, die einen Hinweis auf die Perforation eines Hohlorgans gibt, zur Diagnostik eines Darmverschlusses (Ileus) durch den Nachweis von Luft-Flüssigkeits-Spiegeln in den Darmschlingen oder dem Nachweis von Fremdkörpern oder eingebrachten Materialien. Die Computertomographie erlaubt die Beurteilung der Wandschichten des Dickdarms sowie anderer Organe und Lymphknoten, weshalb dieses Verfahren für die Stadienbestimmung von Tumoren "(Staging)" verwendet wird. Bei jungen Patienten mit chronisch-entzündlichen Darmerkrankungen kommt wegen der fehlenden Strahlenbelastung die Magnetresonanztomographie (MRT) zum Einsatz. Daneben spielt dieses Verfahren auch für das Staging von Rektumkarzinomen eine Rolle. Kontrastmitteluntersuchungen haben wegen der Verbreitung endoskopischer Verfahren an Bedeutung verloren. Sie kommen zum Einsatz, wenn eine endoskopische Untersuchung nicht möglich ist, etwa durch eine hochgradige Stenose des Darmlumens. Mit dieser Technik können beispielsweise Divertikel dargestellt werden.
Die funktionelle Untersuchung des Vorgangs der Stuhlausscheidung mit Kontrastmittel oder MRT wird Defäkographie genannt.
Auch der Stuhl selbst kann Gegenstand der Untersuchung sein. Insbesondere der Nachweis von sichtbarem (Hämatochezie) oder nicht sichtbarem (Guajak-Test) Blut im Stuhl kann Ausgangspunkt weiterführender Diagnostik sein.
Chirurgische Eingriffe.
Chirurgische Eingriffe können am Dickdarm von Mensch und Tier bei Erkrankungen und Verletzungen vorgenommen werden. Die Eröffnung des Dickdarms wird als Kolotomie und die Entfernung (von Teilen des Dickdarms) als Dickdarmresektion bezeichnet.
Beim Menschen werden diese Eingriffe relativ häufig durchgeführt. Die folgende Liste soll einen Überblick über die typischen Operationsverfahren der Dickdarmchirurgie beim Menschen geben. Grundsätzlich unterscheidet sich die Operationstechnik bei gutartigen Erkrankungen (wie Entzündungen) und bösartigen Erkrankungen. Bei bösartigen Erkrankungen, wie Tumoren, werden nach den Prinzipien der onkologischen Chirurgie größere Teile des Dickdarms mit umliegendem Gewebe entfernt, um mögliche Metastasen in den Lymphgefäßen und -knoten mit zu entfernen. Alle Verfahren können offen mit Laparotomie oder laparoskopisch durchgeführt werden. Bei der laparoskopisch assistierten Operation wird das Operationsgebiet laparoskopisch präpariert. Die Resektion selbst erfolgt dann offen chirurgisch. Welche Operationstechnik angewandt wird, hängt von der Art der Erkrankung ab: während bei gutartigen Erkrankungen die Laparoskopie einen hohen Stellenwert hat, war sie bei Darmkrebs-Operationen lange umstritten. Mittlerweile wurde aber nachgewiesen, dass die Langzeitergebnisse der Laparoskopie bei lokal begrenzten Tumoren den Langzeitergebnissen der offenen Chirurgie ähnlich sind, die Laparoskopie ist daher auch in diesen Fällen ein etabliertes Verfahren.
In der Tiermedizin werden chirurgische Eingriffe vor allem bei Pferden mit Koliken vorgenommen, die häufig vom Dickdarm ausgehen. Hier sind es vor allem Verdrehungen, Verstopfungen und Einstülpungen des Blinddarms und des „großen Colons“ (Colon ascendens), die meist nur chirurgisch zu beheben sind. Bei Hunden und Katzen werden chirurgische Eingriffe vor allem bei Mastdarmvorfällen, Tumoren oder einem Megacolon durchgeführt. Eine Verankerung des absteigenden Colons an der rückenseitigen Rumpfwand (Colopexie) kann sowohl bei Mastdarmvorfällen als auch bei Perinealhernien angezeigt sein. |
1213 | 127479 | https://de.wikipedia.org/wiki?curid=1213 | Delhi (Unionsterritorium) | |
1214 | 78178 | https://de.wikipedia.org/wiki?curid=1214 | DNA (Begriffsklärung) | DNA steht für:
dna steht für:
Siehe auch: |
1215 | 568 | https://de.wikipedia.org/wiki?curid=1215 | Düssel | Die Düssel ist ein rund vierzig Kilometer langer rechter Nebenfluss des Rheins in Nordrhein-Westfalen. Sie entspringt in Wülfrath-Blomrath an der Stadtgrenze zu Velbert-Neviges im Kreis Mettmann. Nach einem Verlauf durch die Städte Wülfrath, Wuppertal, Mettmann, Haan und Erkrath mündet sie im Stadtgebiet von Düsseldorf vierarmig in den Rhein. Die Düssel ist die Namensgeberin für den Wülfrather Ortsteil Düssel und das dortige Haus Düssel, die Stadt Düsseldorf und deren Ortsteil Düsseltal.
Etymologie.
Der Name "Düssel" geht wahrscheinlich auf das germanische "thusila" zurück und bedeutet „brausen, rauschen, tosen“, althochdeutsch "doson." Um 1065 wird der Bach als "Tussale" (die Brausende, Rauschende, Tosende) bezeichnet.
Der Lauf der Düssel.
Naturräumliche Gliederung des Verlaufs.
Die Düssel durchquert laut dem Handbuch der naturräumlichen Gliederung Deutschlands in ihrem Lauf mehrere Naturräumliche Einheiten. Der Quellbereich liegt im Düsselhügelland (3371.18), der Oberlauf berührt kurz das Dornaper Kalkgebiet (3371.16) und der Mittellauf mit dem Neandertal durchquert die Mettmanner Lößterrassen (3371.00). Es schließt sich bei Alt-Erkrath ein kurzer Abschnitt durch den Naturraum Düsseltalmündung (550.13) an. Das Mündungsdelta befindet sich in der Düsseldorf-Duisburger Rheinebene (575.30).
Verlauf bis Düsseldorf.
Die Düssel bildet sich aus vier bis acht Quellgewässern. Die höchstgelegene der Quellen, die der eigentlichen Düssel, befindet sich in Wülfrath bei Gut Blomtrath an der Stadtgrenze zu Neviges. Von hier durchfließt die Düssel die Wülfrather Ortsteile Schlupkothen, Aprath und Düssel, am ehemaligen Schloss Aprath und der Aprather Mühle vorbei, bevor sie in Hahnenfurth und Schöller Wuppertaler Gebiet passiert und ihren Lauf auf dem Gebiet der Stadt Haan fortsetzt. Hier vereint sie sich im Ortskern von Gruiten-Dorf mit der Kleinen Düssel, einem Zufluss, der 4,3 km lang ist und östlich in der Gemarkung Bolthausen im Wuppertaler Stadtteil Vohwinkel entspringt.
Westlich von Gruiten fließt sie durch das Naturschutzgebiet Neandertal und markiert dort die Stadtgrenze zwischen Erkrath und Mettmann. Dort hat sich der Fluss tief in den Untergrund aus devonischen Tonschiefern und Riffkalksteinen eingeschnitten und bildet so ein teilweise enges Tal, das in der ersten Hälfte des 20. Jahrhunderts zwischen Gruiten und Braken nur durch die Trassen einer werkseigenen Kleinbahn für den Kalksteinabbau erschlossen war (heute Wegetrassen). Die schluchtartige Enge der "Flasche" ist mit dem Kalksteinabbau verschwunden. Die zweite Enge am 1672 erwähnten und 1986 restaurierten und zwischen den Höfen Thunis und Bracken befindlichen Kalkofen "Huppertsbracken" ist noch erhalten. Zahlreiche Mühlengebäude wie die Winkelsmühle liegen in diesem Talabschnitt. Teilweise sind Anlagen zur Wiesenbewässerung erhalten "(Flößgräben)."
Als größter Nebenbach fließt der Düssel, aus einem weiträumigeren Tal kommend, der "Mettmanner Bach" zu. An dieser Stelle, einer kleinen Talweitung, querte die mittelalterliche "Kölnische Straße (Strata coloniensis)" das Tal. Danach verengte es sich abrupt zu einer für den nordwestdeutschen Raum außergewöhnlichen Schlucht, "Gesteins" oder "Hundsklipp" genannt.
Diese Schlucht wurde ab etwa 1800 nach dem bekannten, in Düsseldorf lebenden Pastor, Komponisten und Kirchenmusiker Joachim Neander "Neandershöhle" und ab etwa 1850 "Neanderthal" genannt. In der ersten Hälfte des 19. Jahrhunderts war das Tal ein beliebtes Ziel für die Maler der Düsseldorfer Schule, die hier ihre Studien an Felsformationen und Pflanzen betrieben. 1837 regte das Neanderthal den Maler Eduard Steinbrück zum allegorischen Bild "Die Nymphe der Düssel" an, das Prinz Carl von Preußen ihm abkaufte. Durch den Kalksteinabbau ab 1849 ist die Enge des früheren Neandertals, die die Maler zu romantischen Motiven angeregt hatte, verschwunden und ein weiträumiges Tal entstanden.
An der Einmündung des Mettmanner Baches befinden sich der Kunstweg MenschenSpuren und das 1996 eingeweihte Neanderthal Museum. Etwas weiter dem Düssellauf folgend befindet sich an der pittoresken Felsnase "Rabenstein" die Fundstelle des berühmten Fossils Neandertal 1, das für den Neandertaler namensgebend war, einen Urzeitmenschen des Pleistozäns. Die Fundstelle konnte 1997 wiederentdeckt werden und wurde vor einigen Jahren der Öffentlichkeit zugänglich gemacht. Etwas weiter im Herzen von Erkrath gibt es seit 2018 den Skulpturenweg an der Düssel. Derzeit befinden sich am Düsselufer zwischen Bachstraße und Toni-Turek-Stadion (Neanderlandsteig) Kunstobjekte von Mitgliedern der Künstlervereinigung "Neanderartgroup" und befreundeten Künstlerkollegen. Alle Objekte haben einen direkten Bezug zum Neanderthal oder zur Düssel.
Aus dem Neandertal kommend durchfließt die Düssel die Stadt Erkrath, wo sie unter anderem zwischen den 1950er und 1970er Jahren wegen der Ausbreitung der Wohngebiete, dem Straßenbau und Neubauten wie der Stadthalle an einigen Stellen in ein neues Flussbett verlegt wurde. Hier münden der Hubbelrather Bach, in den kurz vorher der Stinderbach mündete, und der Rotthäuser Bach in die Düssel. Hinter dem Ortsausgang schlängelt sie sich an Haus Morp vorbei durch die überwiegend landwirtschaftlich genutzte Fläche zwischen Erkrath und Düsseldorf-Gerresheim; dies ist der letzte noch naturbelassene Abschnitt des Flusses.
Binnendelta in Düsseldorf.
Für Düsseldorf ist die Düssel namensgebend. Ein Binnendelta mit vier Armen zum Rhein liegt komplett auf dem Stadtgebiet. Erstmals teilt sich der Fluss am Höherhof in Düsseldorf-Gerresheim in die "Südliche Düssel" und die mit weniger als 1 % der Wasserführung wesentlich kleinere "Nördliche Düssel". Beide Bachläufe werden zunächst von je einem Nebenbach bedeutend verstärkt und teilen sich später erneut. Die Nördliche Düssel teilt sich in die zentrumsnäher verlaufende "Innere Nördliche Düssel" und den Kittelbach; die Südliche Düssel teilt sich in die zentrumsnähere "Innere Südliche Düssel" und den Brückerbach, der die Hauptwassermenge führt. Die nur wenig voneinander entfernten unterirdischen Mündungen der beiden in der Düsseldorfer Altstadt verlaufenden "Inneren" Arme sind wegen des Rheinufertunnels verrohrt, wogegen die beiden abzweigenden Bäche offen in den Rhein münden. Durch Spaltwerke an den drei Scheiden kann der Abfluss geregelt werden. Bei Hochwasser des Rheins wird so der Zufluss zu den inneren Armen gedrosselt, so dass deren kritischere Mündungen in der Innenstadt entlastet werden.
Kurz vor ihrer Mündung in den Rhein werden die Innere Südliche und Nördliche Düssel durch den Stadtgraben auf der Königsallee verbunden. Seit 2018 ist die Anbindung an die Nördliche Düssel freigelegt. Die Südliche Düssel ist hingegen weiterhin über eine kurze Verrohrung verbunden. Grabungen im Jahre 2012 bestätigten die Vermutung, dass eine ähnlich verlaufende Verbindung historisch als Verteidigungslinie schon einmal bestand. Zusammen mit dem Rhein bilden die vier Gewässer damals wie heute ein Viereck um die ehemalige Kernstadt Düsseldorf.
Ehemals nahm die Südliche Düssel an ihrem Beginn einen deutlich anderen Verlauf, der noch bis 1963 in Form eines Seitenarmes des neu gegrabenen, heutigen Flussbettes existierte. Die verrohrten Abschnitte in der Innenstadt werden seit der Jahrtausendwende vermehrt zwecks freundlicherer Landschaftsgestaltung naturnah freigelegt. Fast alle Wasserarchitekturen der Stadt, mit Ausnahme des Benrather Schlosses (Itter) und Kalkumer Schlosses (Schwarzbach), werden vom Düsselwasser gespeist.
Nördliche Düssel.
Nach der Teilung der Düssel am Höherhof in Gerresheim unterquert die hier noch sehr wenig Wasser führende Nördliche Düssel die Eisenbahngleise von Düsseldorf nach Wuppertal und das Gelände der ehemaligen Glashütte. Nördlich der Straße "Nach den Mauresköthen" fließt ihr von rechts der "Pillebach" zu, der ihre mittlere Wasserführung um mehr als das 15-fache vergrößert und damit den Hauptstrang der Nördlichen Düssel bildet. Diese fließt nun oberirdisch aber schnurgerade und kanalisiert an Kleingärten vorbei nach Nordwesten, bis sie die Dreherstraße kreuzt. Hiernach fließt sie am Ostpark entlang, quert die Grafenberger Allee und die Simrockstraße, dahinter auch die Graf-Recke-Straße und verläuft weiter in Richtung Norden. Am Spaltwerk Heinrichstraße, das sich an deren Beginn befindet, wird im Mittel die Hälfte des Wassers in den Kittelbach abgezweigt, der weiter nach Norden verläuft, während die Innere Nördliche Düssel ihren Weg nach Westen in Richtung Zoopark im Stadtteil Düsseltal findet. Durch diesen Park, wo sich früher der Düsseldorfer Zoo befand, fließt sie hindurch und ist einer der wenigen Stellen im Düsseldorfer Stadtgebiet wo die Düssel relativ naturbelassen durch eine Grünanlage fließen darf. Hinter dem Zoopark durchquert sie das Gelände des Eisstadions an der Brehmstraße zwischen dem Hauptstadion und der neuerbauten Trainingshalle, unterfließt die Brehmstraße und verläuft dann oberirdisch an der Kühlwetterstraße entlang unter der Grunerstraße hindurch zur Buscher Mühle. Hiernach kreuzt sie die Nord-Süd-Bahntrasse, an der Yorckstraße wurde die nördliche Düssel in einem kleinen Park renaturiert (hier ist eine Erweiterung im Zuge der Neuen Stadtquartiere Derendorf im Bau), um dann wieder für mehrere hundert Meter unterirdisch verrohrt quer durch die Stadt zu verlaufen. Hierbei kreuzt sie die Bülowstraße und die Sommerstraße, knickt dann zur Jülicher Straße ab, um dann an der Annastraße wieder kurzzeitig zum Vorschein zu kommen. Danach fließt sie erneut als Tunnel in Richtung Süden an der Eulerstraße entlang, kommt wieder zum Vorschein und fließt an der Prinz-Georg-Straße zunächst als sehr schmaler, kanalisierter Bach zwischen den Straßen entlang, bevor sie abermals unterirdisch verläuft. Nachdem sie die Vagedesstraße gekreuzt hat, tritt sie wieder hervor. Im Malkastenpark, am Jacobihaus und am Malkasten-Haus in Pempelfort bildet sie ein wichtiges landschaftliches Gestaltungselement und speist den „Venusteich“. Als Brunnenskulptur „Düsselnixe“ erwies ihr 1898 dort der Bildhauer Leo Müsch die künstlerische Reverenz. In kanalartiger Strenge flankiert sie dann die Gartenanlagen an der Goltsteinstraße und an der Seufzerallee im Alten Hofgarten, speist dort das Bassin am Ende der Reitallee und fließt in den Neuen Hofgarten, wo sie den Teich an der Landskrone bildet und unter der Goldenen Brücke hindurchfließt. Dort befindet sich seit 2018 der offene Abzweig zum Stadtgraben auf der Königsallee, wo auch den Neptunbrunnen mit Düsselwasser gespeist wird.
Unter der Heinrich-Heine-Allee wird sie wieder zum Tunnel und fließt, für die Altstadtbesucher unsichtbar, an der Kunstsammlung Nordrhein-Westfalen, am Grabbeplatz und am Kom(m)ödchen unter der Mühlenstraße vorbei. An der Josef-Wimmer-Gasse tritt sie dann letztmals wieder hervor und fließt im Bereich der Liefergasse in einem Kanal. Direkt zu Beginn des Burgplatzes fließt sie verrohrt quer und unsichtbar unter dem Platz hindurch, am Schlossturm vorbei, um dann vom Ufer nicht einsehbar und nur wenige hundert Meter vom Einleitungsbereich der Südlichen Düssel entfernt an einer Anlegestelle in den Rhein abgeleitet zu werden. An dieser Stelle verlieh die Düssel schon im Mittelalter dem Dorf an seinem Ufer den Namen "Düsseldorf."
Kittelbach.
Der Kittelbach ist ein Nebenarm der Nördlichen Düssel, der im Verlauf der Heinrichstraße in Richtung Norden abzweigt. Im Vergleich zur Nördlichen Düssel ist er weniger unterirdisch verrohrt. Er verläuft in Richtung Nordwesten zum Mörsenbroicher Ei, am ARAG-Tower vorbei und dann entlang der Grashofstraße. Hier ist der Bach teilweise vertunnelt und ändert seine Richtung nach Norden. Nachdem der Kittelbach die Nord-Süd-Bahntrasse und ein großes Industriegebiet in Düsseldorf-Derendorf unterflossen hat, kommt er wieder und fließt durch den Stadtteil Unterrath. Er kreuzt die Straße An der Piwipp und verläuft weiter nahezu geradewegs nach Norden. In Unterrath verläuft der Bach Richtung Nordwesten und kreuzt die Unterrather Straße. Im weiteren Verlauf wurde das Flussbett renaturiert, kreuzt die Autobahn A44 und schlängelt sich dann durch einen Parkplatzbereich des Flughafens. Hiernach fließt der Kittelbach
quer durch das Gelände des Düsseldorfer Flughafens und seiner Start- und Landebahnen und kommt dahinter wieder zum Vorschein, um nun westlich in Richtung Düsseldorf-Kaiserswerth zu fließen. Dort kreuzt er die Alte Landstraße und die Niederrheinstraße und mündet südlich der Ruine der Kaiserpfalz Kaiserswerth in den Rhein.
Der Kittelbach war Namensgeber für die „Kittelbachpiraten“, einen 1925 gegründeten, „militant rechtsgerichteten Jugendverband“, dessen Mitglieder sich 1933 größtenteils der Hitlerjugend oder der SA anschlossen. Im Zweiten Weltkrieg wurde die Bezeichnung von einer losen Gruppe widerständiger und verfolgter Jugendlicher übernommen, vergleichbar den Edelweißpiraten in Köln.
Südliche Düssel.
Nach der Teilung der Düssel am Höherhof in Gerresheim fließt nahezu die gesamte Wassermenge als "Südliche Düssel" oberirdisch in südlicher Richtung durch Düsseldorf-Vennhausen zunächst parallel zum Reichenbacher Weg. Hierbei kreuzt sie den Sandträgerweg. Anschließend verläuft sie ungefähr parallel zum Neusalzer Weg und Kamper Weg, bis sie die Güterbahnstrecke Duisburg–Köln nördlich des Bahnhofes Eller erreicht. Sie unterquert diese Bahnstrecke und weniger als 100 Meter weiter – inzwischen auf dem Gebiet von Düsseldorf-Eller – auch noch die Gleise der S-Bahn-Linie 1. Nun fließt sie parallel zur Vennhauser Allee, unterquert die Gumbertstraße, in einem sehr spitzen Winkel die Karlsruher Straße und schließlich die Heidelberger Straße. Anschließend verläuft sie zwischen Reiterhof und Schützenplatz zur Unterführung der Bahnstrecke Düsseldorf–Köln etwa 200 Meter südlich des S-Bahn-Haltepunktes Eller Süd. Hinter der Unterführung fließt die Südliche Düssel in südwestlicher Richtung in einem gewissen Abstand parallel zur Straße Am Straußenkreuz bis zu deren Ende. Anschließend am Rand des Friedhofes Eller verlaufend behält sie zunächst ihre Richtung bei. Auf diese Weise erreicht sie die Nähe der Autobahn A 46.
Dort, wo der "Eselsbach" die Südliche Düssel um rund ein Viertel ihrer Wasserführung verstärkt, macht sie eine Rechtskurve und fließt zunächst auf der nördlichen Seite rund 200 Meter parallel zur Autobahn und Friedhofsgrenze. Vor seiner Einmündung fließt der Eselsbach, als Vereinigung von Sedentaler Bach (Quelle in Millrath), Mahnerter Bach und Hühnerbach (Quellen nördlich von Haan) in Erkrath-Sandheide, am Unterbacher See vorbei, durch den Eller Forst sowie den Schlosspark Eller und vereinigt sich rund 700 Meter vor seiner Mündung mit dem Hoxbach, der in Haan entspringt, die Hildener Heide sowie Hilden-Nord durchfließt und den Menzelsee, den Hasseler Forst, den Stadtteil Hassels parallel zur A 59 und Ikea Reisholz tangiert. Der Bereich der südlichen Düssel ab Zulauf des "Eselsbaches" bis zum neuen Spaltwerk wurde ab Oktober 1919 reguliert. Zur gleichen Zeit wurden im Bereich des Spaltwerkes und in Höhe der Straße "Werstener Feld" zwei neue Betonbrücken über die Düssel errichtet.
Seit dem Ausbau der A 46 in den 1970er Jahren unterquert die Südliche Düssel in Höhe der Straße Werstener Feld die Autobahn und fließt anschließend oberirdisch auf der südlichen Seite parallel zur Autobahn weiter. Rund 250 Meter vor der Anschlussstelle Düsseldorf-Wersten, wo sich die Autobahn in einem Tunnel befindet, wird sie in einem Düker unter die Autobahn geführt. Hier zweigt am Spaltwerk Wersten nach links der Brückerbach ab, der rund 90 % der Wasserführung dem Rhein zuleitet und somit gewässerkundlich der Hauptstrom ist.
Auf der nördlichen, rechten Seite fließt die Innere Südliche Düssel wieder offen zunächst entlang der Nixenstraße und dann hinter den östlichen Grundstücken der Kölner Landstraße. Anschließend unterquert sie die Kölner Landstraße an der Abzweigung Harffstraße, fließt durch das östliche Randgebiet des Südparks, an der Mitsubishi Electric Halle vorbei nach Norden und weiter nach Westen entlang dem nördlichen Rand des Volksgartens in unmittelbarer Nähe der Eisenbahnstrecke. Zur Bundesgartenschau 1987, deren Veranstaltungsgelände den Südpark und den Volksgarten umfasste, wurde die Düssel renaturiert und in Höhe der damaligen Philipshalle, heute Mitsubishi Electric Halle, zu einer Teichlandschaft ausgeweitet. Nach Querung der Straße Auf’m Hennekamp fließt sie zunächst parallel zur Feuerbachstraße und dann in Düsseldorf-Bilk zwischen den beiden Fahrtrichtungen der Karolingerstraße, wo sie unter anderem die Merowingerstraße und die Aachener Straße kreuzt und ihren Weg wieder in Richtung Norden fortsetzt.
Den überwiegenden Teil des nun folgenden Flusslaufes verläuft sie verrohrt unterirdisch durch die Innenstadt. Hierbei quert sie die Bilker Allee und fließt unter der Konkordiastraße und dem Fürstenwall hindurch. Dann kommt sie auf dem Schulgelände der Konkordiaschule wieder zum Vorschein und durchfließt offen den Häuserblock zwischen Konkordiastraße und Kronprinzenstraße bis hinter die Reichsstraße (bis 1871 Krautstraße) in Höhe Nr. 15, wo bis 1867 die Kraut-Mühle betrieben wurde. Unterirdisch quert sie die Zufahrt der Rheinkniebrücke, um dann nördlich der Brückenrampe hinter der NRW-Bank wieder in einem renaturierten Abschnitt im Bereich Wasserstraße dem Schwanenspiegel zuzufließen. Diesen durchfließt sie und mündet anschließend nach Unterquerung der Kreuzung Haroldstraße, Kavalleriestraße und Poststraße den Spee’schen Graben. Unterirdisch fließt sie durch Düsseldorf-Carlstadt und dann unter der Schulstraße (wo auch Heinrich Heine zur Schule ging) entlang.
Sie mündet zuerst in den kleinen Binnenhafen am Rathausufer, um dann schließlich verrohrt unter der Rheinuferpromenade geführt zu werden, wo sie, unweit und sehr ähnlich wie die Nördliche Düssel, in den Rhein abgeleitet wird.
Brückerbach.
Der Brückerbach ist der Hauptmündungsarm der Südlichen Düssel. Er zweigte bis Anfang des 20. Jahrhunderts weiter nördlich in Höhe der "Harffstraße" vom südlichen Düsselarm ab und floss in "Himmelgeist" in den Rhein. Anfang des Jahrhunderts wurde die geplante Kiesgewinnung südwestlich von der historischen "Scheidlings Mühle" durch den alten Bachverlauf behindert. 1908 wurde deshalb im Bereich des aktuellen "Werstener Kreuzes" ein "Spaltwerk" errichtet und dadurch das Bachbett nach Süden verlegt.
Der Brückerbach zweigt vor dem Düker im Bereich des Spaltwerkes ab, fließt durch einen eigenen rund 500 Meter langen Tunnel und kreuzt auf diese Weise sowohl die Kölner Landstraße wie auch die BA 46. Anschließend ist er bis zu seiner Mündung beidseitig eingedeicht, um die Wohngebiete vor Überflutung durch Rheinhochwasser zu schützen. Zwischen 2005 und 2008 wurden nicht nur die Deiche erneuert, sondern auch das Bachbett renaturiert, sein Gefälle reduziert und in diesem Zusammenhang drei Fischtreppen gebaut. Zunächst verläuft der Brückerbach parallel zur Straße Am Gansbruch erst in südlicher dann in westlicher Richtung. Danach wendet er sich wieder nach Süden und bildet die Grenze zwischen den Stadtteilen Wersten und Bilk. Auf der Bilker Seite liegt der Botanische Garten der Heinrich-Heine-Universität. Unmittelbar vor der Unterführung wendet sich der Brückerbach wieder nach Westen. Nachdem er auch die Himmelgeister Straße und die Zufahrt zum Wasserwerk Flehe (ehemals Himmelgeister Landstraße) unterquert hat, fließt er in das für Fußgänger gesperrte Wasserschutzgebiet "Fleher Wäldchen," wo er am südlichen Ende mit einem mittleren Abfluss von rund 2,8 m³/s als dominanter Hauptarm der Düssel in den Rhein mündet.
Naturschutz.
Der Düssellauf ist abschnittsweise naturgeschützt. Auf Wuppertaler Stadtgebiet bei Hahnenfurth und Schöller ist eine Fläche von rund 32 Hektar des Fließgewässers mit seinen Ufern als NSG „Düsseltal“ ausgewiesen. Bei der Grube 7 vor Haan-Gruiten-Dorf berührt die Düssel nur am Rand das 60 Hektar große NSG „Grube 7 und ehemaliger Klärteich“ während hinter Gruiten-Dorf das komplette Düsseltal mit seinen umgebenden Höhen und Seitentälern im 223 Hektar großen NSG „Neandertal“ liegt. Es schließen sich ab dem Neanderthal Museum die Naturschutzgebiete NSG „Laubacher Steinbruch“ (6 Hektar) und NSG „Westliches Neandertal“ (32 Hektar) an. Hinter Erkrath fließt die Düssel durch das 146 Hektar große NSG „Düsselaue bei Gödinghoven“.
Die Naturschutzflächen im Düsseltal und dem Neandertal zwischen Haan und Erkrath sind zugleich als Fauna-Flora-Habitat gemäß der Richtlinie 92/43/EWG innerhalb des Verbundnetzes Natura 2000 ausgewiesen.
Die in den 1960er Jahren in Betonsohlschalen gefasste und begradigte Südliche Düssel wird seit Mai 2019 streckenweise naturnah ausgebaut. Die Fertigstellung war für April 2020 vorgesehen.
Hochwasser.
Während der Hochwasserkatastrophe im Juli 2021 trat auch die Düssel über die Ufer und die Bewohner der Ostparksiedlung in Düsseldorf-Gerresheim mussten ihre Häuser verlassen. Oberbürgermeister Stephan Keller sprach von einem „Jahrtausendhochwasser“. Auch in Erkrath musste eine dreistellige Anzahl Personen evakuiert werden. Hier war auch der in die Düssel mündende Eselbach betroffen. |
1216 | 1944977 | https://de.wikipedia.org/wiki?curid=1216 | Deimos | Deimos (v. griech. Δεῖμος „Schrecken“) steht für:
Siehe auch: |
1217 | 916404 | https://de.wikipedia.org/wiki?curid=1217 | Disjunktion | Disjunktion („Oder-Verknüpfung“, von lat. "disiungere" „trennen, unterscheiden, nicht vermengen“) und Adjunktion (von lat. "adiungere", „anfügen, verbinden“) sind in der Logik die Bezeichnungen für zwei Typen von Aussagen, bei denen je zwei Aussagesätze durch ein ausschließendes "oder" oder durch ein nichtausschließendes "oder" verbunden sind:
Seltener gebrauchte Bezeichnungen für die Disjunktion lauten Alternative, Kontrajunktion, Bisubtraktion und Alternation.
Die mehrdeutige Verwendung von „Disjunktion“ etc. ist auf die verschiedenen Rollen des natürlich-sprachlichen oder rückführbar. Die Teilaussagen einer Disjunktion (Adjunktion) werden Disjunkte (Adjunkte) genannt, das die Teilaussagen verknüpfende Wort („oder“) wird als Disjunktor (Adjunktor) bezeichnet.
Nicht-ausschließende Disjunktion.
Die nicht-ausschließende Disjunktion (Alternative, Adjunktion) ist eine zusammengesetzte Aussage vom Typ „A oder B (oder beides)“; sie sagt aus, dass mindestens eine der beiden beteiligten Aussagen wahr ist.
In der polnischen Notation wird für die Disjunktion der Großbuchstabe "A" verwendet:
In der Notation formula_1 einer Verknüpfung von Aussagen steht das Symbol formula_3 (Unicode: U+2228, ∨) für die nicht-ausschließende Disjunktion als aussagenlogischen Junktor. Es ähnelt dem Zeichen formula_4 für die Vereinigungsmenge und erinnert an den Buchstaben „v“, mit dem das lateinische Wort „vel“ anfängt, das für ein solches nicht-ausschließendes Oder steht.
Die Wahrheitstabelle für die vel-Funktion (OR-Funktion eines "Gatters") als Wahrheitswertefunktion der nicht-ausschließenden Disjunktion ist damit:
Eine Disjunktion ist ein Boolescher Ausdruck, sie ist assoziativ und kommutativ.
Aus dem Gesagten folgt:
Beispiel.
Die Aussage „Tom hilft beim Streichen" oder" Anna hilft beim Streichen“ besteht aus folgenden Teilen:
Keine der beiden Teilaussagen schließt hier die andere aus.
Die Aussage ist falsch, wenn weder Tom noch Anna beim Streichen helfen, ansonsten wahr. Sie ist insbesondere auch wahr, wenn sowohl Tom als auch Anna beim Streichen helfen.
Ausschließende Disjunktion.
Die ausschließende Disjunktion (Kontravalenz, XOR) ist eine zusammengesetzte Aussage, bei der zwei Aussagen mit der Formulierung „entweder – oder (aber nicht beides)“ verknüpft werden, zum Beispiel die Aussage „Anna studiert "entweder" Französisch "oder" sie studiert Spanisch (aber nicht beides).“ Damit ausgeschlossen ist der Fall, dass beide Teilaussagen wahr sind – im Beispiel also der Fall, dass Anna "sowohl" Französisch "als auch" Spanisch studiert –, eben hierin besteht der Unterschied zur nicht-ausschließenden Disjunktion. Der lateinische Ausdruck für das ausschließende Oder lautet "aut" – "aut".
Die Wahrheitstabelle für die aut-Funktion (XOR-Funktion eines "Gatters") als Wahrheitswertefunktion der ausschließenden Disjunktion ist damit:
Ableitungen im Kalkül des natürlichen Schließens.
Aus einer Aussage "A" kann die Disjunktion "A oder B" geschlossen werden.
Für die durch die Disjunktion zur bereits gegebenen Aussage "A" hinzugefügte Aussage "B" müssen keine vorherigen Voraussetzungen erfüllt sein, wie die folgende Beispielableitung zeigt.
Zur Auflösung einer Disjunktion muss aus beiden Teilen der Disjunktion dieselbe Aussage hergeleitet werden können.
Mengenlehre.
In der Mengenlehre definiert man ein Element der Vereinigung zweier Mengen durch die Disjunktion |
1218 | 397363 | https://de.wikipedia.org/wiki?curid=1218 | Dysplasie | Dysplasie (aus ‚miss-, un-‘ und ‚formen, bilden‘; ) bezeichnet in der Medizin ganz allgemein eine Fehlbildung oder Fehlanlage.
Ebenso versteht man unter diesem Begriff noch rückbildungsfähige (reversible) Veränderungen von Zellen, Geweben und Organen, die einerseits durch atypische Wachstumsvorgänge und Verlust der Differenzierung gekennzeichnet sind. Hierbei sind die Übergänge zur Anaplasie fließend. Andererseits ist auch eine Aplasie als Dysplasie anzusehen, die aber im Unterschied zur Agenesie durch die Nichtausbildung eines Organes trotz vorhandener Organanlage gekennzeichnet ist.
Bei der Betrachtung des feingeweblichen Aufbaus eines Organs versteht man unter dem Begriff Dysplasie eine Abweichung der Gewebestruktur vom normalen Bild. Treten Dysplasien gehäuft im mikroskopischen Untersuchungsbefund einer histologischen Untersuchung auf, so können dies Krebsvorstufen sein.
Mittelgradige und schwere Dysplasien werden als Präkanzerosen eingestuft, die Vorstufen eines malignen Tumors darstellen.
Beispiele.
Dysplasien von Skelett und Bindegewebe.
Es handelt sich bei den Dysplasien von Skelett und Bindegewebe um systemhafte Störungen des Knochen- und Knorpelgewebes. Somit sind sie keine "Organ"-, sondern "Gewebs"defekte. |
1219 | 556709 | https://de.wikipedia.org/wiki?curid=1219 | Dodo | Der Dodo oder auch die Dronte, seltener "Doudo" oder "Dudu" ("Raphus cucullatus", „kapuzentragender Nachtvogel“, Syn.: "Didus ineptus"), war ein etwa einen Meter großer flugunfähiger Vogel, der ausschließlich auf der Insel Mauritius im Indischen Ozean vorkam. Der Dodo ernährte sich von vergorenen Früchten und nistete auf dem Boden. Die Forschung geht davon aus, dass die Spezies um 1690 ausstarb. Sein nächster Verwandter ist der ebenfalls ausgestorbene Rodrigues-Solitär ("Pezophaps solitaria") auf der zu Mauritius gehörenden Maskarenen-Insel Rodrigues.
Aussehen.
Aus Berichten weiß man, dass der Dodo ein blaugraues Gefieder, einen etwa 23 Zentimeter langen, schwärzlichen, gebogenen Schnabel mit einem rötlichen Punkt sowie kleine Flügel hatte, die ihn nicht zum Fliegen befähigten. Weiterhin bildete ein Büschel gekräuselter Federn den Schwanz und der Vogel legte gelbe Eier. Dodos waren etwa einen Meter groß und wogen 11 bis 17 Kilogramm. Auch wegen seiner schwachen Brustmuskulatur konnte der Dodo nicht fliegen. Das war auch nicht nötig, da er auf Mauritius keine Fressfeinde hatte.
Traditionell hat man vom Dodo die Vorstellung eines massigen, plumpen und unbeholfenen Vogels. Der Biologe Andrew Kitchen erklärt den Eindruck dadurch, dass die alten Zeichnungen überfettete, in Gefangenschaft lebende Vögel zeigen. Da Mauritius trockene und feuchte Jahreszeiten hat, hat der Dodo sich möglicherweise am Ende der Regenzeit Fett angefressen, um so die Trockenperioden, in denen Nahrungsmangel herrschte, zu überdauern. In Verbindung mit der Gefangenschaft, in der Nahrung das ganze Jahr vorhanden war, wurde der Dodo ständig überfüttert.
Eine der wenigen realistischen Abbildungen eines lebenden Dodos schuf der indische Maler Mansur zu Beginn des 17. Jahrhunderts.
Entdeckung.
Der erste europäische Bericht über die Art stammt von der zweiten Ostindien-Fahrt einer niederländischen Flotte unter dem Kommando von Jacob Cornelisz van Neck im Jahr 1598. Die Schiffe waren in einem Sturm getrennt worden, ein Teil der Flotte landete im September des Jahres auf Mauritius (damals noch Ilha do Cerne genannt). Eine Gruppe von Seeleuten, die zur Suche nach Wasser und Vorräten an Land geschickt worden war, kehrte mit einigen flugunfähigen Vögeln zurück. Die Insel war damals von Menschen unbewohnt, die Vögel zeigten Menschen gegenüber keine Scheu. Der Reisebericht der Fahrt von 1599, "Waarachtige Beschryving" genannt (nur in englischer und anderen Übersetzungen erhalten), brachte die Existenz des Vogels den Europäern zur Kenntnis. Nach der Beschreibung wären die Vögel „doppelt so groß wie Schwäne“ gewesen. Sie wurden von den Seeleuten "Walghstocks or Wallowbirdes" (in späteren Berichten auch „Walchvoghel“) genannt nach dem Dialektausdruck "wallow" (niederländisch "walghe"), was „kränklich“ oder auch „geschmacklos“ bedeuten kann. Dem Text zufolge war das Fleisch wenig wohlschmeckend und benötigte extrem langes Kochen, um genießbar zu werden, so dass die Seeleute andere Vögel bevorzugten. Trotzdem wird in zahlreichen späteren Berichten von der Jagd auf die Vögel als Proviant berichtet.
Die Abbildungen des Dodos in der "Waarachtige Beschryving" wurden nach Erzählungen, also nach Hörensagen, in Europa komponiert – die Graveure übernahmen offensichtlich andere große Vögel als Muster. Auch die Beschreibung ist in großen Teilen fehlerhaft. Spätere Abbildungen, vor allem in "Quinta Pars Indias Orientalis" der Brüder de Bry von 1601, beruhten teilweise wohl auf Skizzen von mitreisenden Schiffsoffizieren und werden im Wesentlichen als korrekt eingeschätzt. Sie waren die Vorlage für die meisten der späteren Abbildungen.
Lebensechte Abbildungen, die aber erst viel später publiziert wurden, erhielten sich in einem Schiffsjournal des Seglers "Gelderlandt" von 1601 bis 1603, welches auch sieben nach dem Leben gefertigte Vogelskizzen enthielt. Der Ornithologe Alfred Newton publizierte sie 1896. Sie zeigen einen plumpen Vogel mit fast rundem Rumpf und einem kurzen, aus wenigen Federn bestehenden Stummelschwanz. Der Name Dodo, der sich später im englischen Sprachraum durchsetzte, tauchte zuerst in einem Bericht des Reiseschriftstellers Thomas Herbert aus dem Jahr 1634 auf – seinen Angaben nach stamme er aus dem Portugiesischen.
Aussterben.
1690 berichtete der Engländer Benjamin Harry zum letzten Mal von einem Dodo auf Mauritius. Für andere ist der letzte glaubwürdige Bericht bereits die Erzählung über den Untergang einer holländischen Flotte unter Admiral Arnout de Vlaming im Jahr 1662, bei dem einige Überlebende, darunter der Berichtende Volkert Evertsz, in einem kleinen Boot Mauritius erreichten. Dort fingen sie Dodos, allerdings nicht mehr auf der Hauptinsel, sondern auf einer kleinen vorgelagerten Insel. Bei zahlreichen der späteren Sichtungsberichte wird vermutet, dass sie sich in Wirklichkeit auf die (ebenfalls flugunfähige und inzwischen ebenfalls ausgerottete) Mauritius-Ralle bezogen, so dass der genaue Zeitpunkt des Verschwindens nicht anzugeben ist. In jedem Falle waren die Vögel bereits wenige Jahrzehnte nach ihrer Entdeckung ausgerottet.
Hauptgrund für das Aussterben der Art dürften eingeschleppte Ratten sowie eingeführte und verwilderte Haustiere gewesen sein und hier vor allem Schweine und Affen, welche die Gelege der bodenbrütenden Vögel zerstörten, indem sie ihre Eier fraßen. Da der Dodo ursprünglich keine Feinde besaß, verfügte er über kein Flucht- oder Verteidigungsverhalten. Die Zutraulichkeit des Dodo und die Flugunfähigkeit machten ihn auch für Menschen zu einer leichten Beute. Er war zwar nicht wohlschmeckend, aber als Frischfleisch für lange Seefahrten geeignet. Auch die Eier wurden von Seeleuten in Massen gegessen. Diese beiden Gefahren haben ebenso die Existenz der Galápagos-Riesenschildkröte stark bedroht und einige ihrer Unterarten ausgerottet.
Weniger als einhundert Jahre nach seiner Entdeckung war der Dodo ausgestorben. Davon wurde wenig Notiz genommen, bis der Dodo 1865 in "Alice im Wunderland" von Lewis Carroll erwähnt wurde. Mit der Popularität des Buches wuchs auch die Popularität des Vogels. Carroll sah vermutlich den mumifizierten Dodo-Kopf im Naturkundemuseum von Oxford.
Forschung.
Einem Forscherteam der Oxford-Universität um Beth Shapiro gelang es 2002, DNA-Bruchstücke aus Knochen zu isolieren. Der DNA-Vergleich zeigte eine enge Verwandtschaft des Dodo mit dem ebenfalls ausgestorbenen Rodrigues-Solitär und der noch lebenden ostasiatischen flugfähigen Kragentaube.
Im Juni 2006 entdeckte eine von dem niederländischen Geologen Kenneth Rijsdijk geleitete Forschergruppe auf Mauritius ein ganzes Depot von Tierknochen und Pflanzensamen in einer Grube in einem ehemaligen Moor. Unter ihnen wurden auch viele Skelett-Teile des Dodos gefunden, etwa ein vollständiges Bein und ein sehr selten gefundener Schnabel. Rijsdijk schätzte seinen Dodo-Fund als den umfangreichsten überhaupt ein. Der Fund des Dodo-Massengrabes wird von dem niederländischen Forschungsteam auch als Indiz dafür gewertet, dass eine Naturkatastrophe noch vor Ankunft des Menschen einen signifikanten Teil des Dodo-Ökotops und der Dodo-Population ausgelöscht hat. Bei der Naturkatastrophe könnte es sich um einen Zyklon oder ein plötzliches Ansteigen des Meeresspiegels gehandelt haben.
Obwohl einige Museen eine Kollektion von Dodo-Skeletten ausstellen, gab es bisher weltweit kein vollständig erhaltenes Skelett. Erst 2016 wurde ein nahezu vollständiges Exemplar in London von einem Privatsammler versteigert. Bereits 2005 hatte ein internationales Forscherteam ein nicht ganz komplettes Skelett eines Dodo-Vogels auf Mauritius gefunden. Ein Dodo-Ei wird im East London Museum in Südafrika gezeigt.
Ende Januar 2023 kündigte das Unternehmen "Colossal Biosciences" an, den Dodo „wiederbeleben“ zu wollen. Ein Forschungsteam unter der Leitung von Beth Shapiro soll das ganze bewerkstelligen. Das Projekt verfolgt dabei den Ansatz, das Genom einer nah verwandten Spezies so abzuwandeln, dass gewissermaßen ein Dodo-Duplikat entsteht, das dann in einem Ei heranwächst. Selbst wenn dieses Verfahren aber irgendwann möglich sein sollte, gibt es trotzdem keine Tiere, die den genveränderten Küken das spezifische Sozialverhalten eines Dodos vermitteln könnten. Das Ergebnis wäre folglich nicht das Zurückbringen des Dodos an sich, sondern höchstens das Erschaffen eines Vogels mit Dodo-Genom. Unklar ist auch, welche Folgen die Neuansiedlung eines solchen Vogels für das Ökosystem auf Mauritius hätte. Über 300 Jahre nach dem Verschwinden des Dodo könnten die genveränderten Tiere in den dort nun stark veränderten Habitaten nicht überlebensfähig sein. Ebenso wäre es allerdings möglich, dass sie ökologische Nischen besetzen und andere Tiere und Pflanzen von ihrer Anwesenheit profitieren.
Rezeption.
Der Dodo wird in zahlreichen wissenschaftlichen und populären Büchern über Aussterbevorgänge als Beispiel für ein vom Menschen verursachtes Sterben aufgeführt.
Ihm wurden außerdem zwei Sonderausstellungen der zoologischen Museen in Amsterdam und in Zürich gewidmet. Über die Gründe der Popularität gerade dieser früh ausgestorbenen, vergleichsweise schlecht dokumentierten und für das gewöhnliche Schönheitsempfinden eher unästhetischen Art ist viel spekuliert worden. Als Möglichkeit wird der Auftritt eines Dodos im dritten Kapitel des berühmten Kinderbuches Alice im Wunderland oder die englische Redensart "Dead as a dodo" angeführt. Im goldenen Zeitalter der niederländischen Seefahrt im 16. und 17. Jahrhundert stand der Vogel mit für Exotik und die Größe der Entdeckungen der Nation. Dies zeigt sich in künstlerischen Darstellungen, etwa durch den Maler Roelant Savery, oft in exotischer Landschaft (vgl. unten) oder inmitten anderer exotischer Vögel. Auch Thomas Pynchon beschreibt die Ausrottung der Dodos durch niederländische Kolonisten in einer Episode seines Großromans "Die Enden der Parabel". Dort dient sie zur Illustration des Auslöschungsdrangs des Menschen.
Im Staatswappen von Mauritius ist der Dodo einer der Schildhalter; an ihn erinnern auch Münzen, die 1971 von Mauritius herausgegeben wurden.
Der Vogel und der Dodobaum.
Der Samen des Calvariabaumes (Dodobaum) "Sideroxylon grandiflorum", eines früher häufig vorkommenden Baumes auf Mauritius, kann nur schwer zum Keimen gebracht werden. Die Theorie, dass er nur nach Passage des Darmtrakts des Dodo keimt, ist aber nicht ausreichend belegt.
Namensgebung.
Der früheste schriftliche Beleg für das Wort "Dodo" stammt aus dem Tagebuch von Kapitän Willem van West-Zanen von 1602. Allerdings ist nicht auszuschließen, dass der Begriff Dodo auch früher schon verwendet wurde. Der Ursprung des Wortes Dodo ist unbekannt und wird daher kontrovers beschrieben:
Verwandte Arten.
Mit dem Rodrigues-Solitär auf Rodrigues wurde der Dodo (früher wissenschaftlich auch "Didus ineptus" genannt) in der Familie der "Dronten" (Raphidae) innerhalb der Ordnung Taubenvögel zusammengefasst. Nach Gesichtspunkten der Abstammungsgeschichte (Phylogenese) müssen diese zwei Arten in die Familie der Tauben (Columbidae; A. Janoo 2005) gestellt werden.
Alle Dronten waren flugunfähige, große Vögel, die ausschließlich auf je einer der Inseln des Maskarenen-Archipels lebten.
Vom rätselhaften Réunion-Solitär ("Raphus solitarius", „Weißer Dodo“) von der Insel Réunion sind nur einige schwer interpretierbare Abbildungen übriggeblieben. Nach einer neueren Theorie ist er identisch mit dem ausgestorbenen Ibis "Threskiornis solitarius". Nach anderen Ansichten handelte es sich um Vögel, die durch Seefahrer von Mauritius nach Réunion gebracht worden waren. Das hellere Gefieder wäre dann dadurch erklärbar, dass es sich um Albinos oder um Jungvögel gehandelt haben könnte. |
1220 | 1047075 | https://de.wikipedia.org/wiki?curid=1220 | Damm | Damm steht für:
Damm ist der Name folgender Orte:
geografischer Objekte:
DAMM steht als Abkürzung für:
Siehe auch: |
1222 | 2057559 | https://de.wikipedia.org/wiki?curid=1222 | Divisionsalgebra | Divisionsalgebra ist ein Begriff aus dem mathematischen Teilgebiet der abstrakten Algebra. Grob gesprochen handelt es sich bei einer Divisionsalgebra um einen Vektorraum, in dem man Elemente multiplizieren und dividieren kann.
Definition und Beispiel.
Eine Divisionsalgebra ist eine nicht notwendigerweise assoziative Algebra formula_1, in der zu je zwei Elementen formula_2 die Gleichungen formula_3 und formula_4 stets eindeutige Lösungen formula_5 besitzen. Dabei bezeichnet formula_6 die Vektormultiplikation in der Algebra. Das ist gleichbedeutend damit, dass die Algebra frei von Nullteilern ist.
Enthält die Divisionsalgebra ein Einselement, so dass für alle formula_7 gilt, dass formula_8, so spricht man von einer Divisionsalgebra mit Eins.
Beispiel einer Divisionsalgebra ohne Einselement mit den beiden Einheiten formula_9 und formula_10, die mit beliebigen reellen Zahlen multipliziert werden können:
formula_11
Sätze über reelle Divisionsalgebren.
Eine endlichdimensionale Divisionsalgebra über den reellen Zahlen hat stets die Dimension 1, 2, 4 oder 8. Das wurde 1958 mit topologischen Methoden von John Milnor und Michel Kervaire bewiesen.
Die vier reellen, normierten, Divisionsalgebren mit Eins sind (bis auf Isomorphie):
Dieses Resultat ist als Satz von Hurwitz (1898) bekannt. Alle außer den Oktaven erfüllen das Assoziativgesetz der Multiplikation.
Jede reelle, endlichdimensionale und assoziative Divisionsalgebra ist isomorph zu den reellen Zahlen, den komplexen Zahlen oder zu den Quaternionen; dies ist der Satz von Frobenius (1877).
Jede reelle, endlichdimensionale kommutative Divisionsalgebra hat maximal die Dimension 2 als Vektorraum über den reellen Zahlen (Satz von Hopf, Heinz Hopf 1940). Dabei wird Assoziativität nicht vorausgesetzt.
Topologische Beweise der Existenz von Divisionsalgebren über den reellen Zahlen.
Heinz Hopf zeigte 1940, dass die Dimension einer Divisionsalgebra eine Potenz von 2 sein muss. 1958 zeigten dann Michel Kervaire und John Milnor unabhängig voneinander unter Benutzung des Periodizitätssatzes von Raoul Bott über Homotopiegruppen der unitären und orthogonalen Gruppen, dass die Dimensionen formula_12, formula_13, formula_14 oder formula_15 sein müssen (entsprechend den reellen Zahlen, den komplexen Zahlen, den Quaternionen und Oktonionen). Letztere Aussage konnte bisher nicht rein algebraisch bewiesen werden. Der Beweis wurde von Michael Atiyah und Friedrich Hirzebruch auch mit Hilfe der K-Theorie formuliert.
Dazu betrachtet man nach Hopf die Multiplikation einer Divisionsalgebra der Dimension formula_16 über den reellen Zahlen als stetige Abbildung formula_17 oder eingeschränkt auf Elemente der Länge formula_12 (man teile durch die Norm der Elemente, diese ist ungleich null für Elemente ungleich null da eine Divisionsalgebra nullteilerfrei ist) als Abbildung formula_19. Hopf bewies, dass es eine solche ungerade Abbildung (das heißt formula_20) nur gibt, wenn formula_16 eine Potenz von formula_13 ist. Dazu benutzte er die Homologiegruppen des projektiven Raums. Es gibt weitere äquivalente Formulierungen zur Existenz von Divisionsalgebren der Dimension formula_16: |
1223 | 610784 | https://de.wikipedia.org/wiki?curid=1223 | Deckung | Deckung steht für:
Deckung bezeichnet im Zusammenhang mit Schutz, Verteidigung:
Deckung steht in wirtschaftlichen Kontexten für:
Sonstiges:
Siehe auch: |
1224 | 168472 | https://de.wikipedia.org/wiki?curid=1224 | Domain Name Service | |
1226 | 128330 | https://de.wikipedia.org/wiki?curid=1226 | Diogenes | Diogenes (griechisch Διογένης „gezeugt von Gott“) ist der Name folgender Personen:
Diógenes ist der Künstlername von
Diogenes steht für:
Siehe auch: |
1227 | 539420 | https://de.wikipedia.org/wiki?curid=1227 | Diogenes von Sinope | Diogenes von Sinope (, latinisiert "Diogenes Sinopeus"; * vermutlich um 413 v. Chr. in Sinope; † vermutlich 323 v. Chr. in Korinth) war ein antiker griechischer Philosoph. Er zählt zur Strömung des Kynismus.
Quellenlage.
Über den historischen Diogenes sind kaum gesicherte Daten erhalten. Fast alle Informationen wurden in Form von Anekdoten überliefert, deren Wahrheitsgehalt Gegenstand wissenschaftlicher Spekulationen ist. Die früheste Quelle zu Diogenes ist eine kurze Stelle bei Aristoteles, die mit Abstand wichtigste der allerdings erst im 3. Jahrhundert tätige Doxograph Diogenes Laertios, dessen Bericht sich wiederum auf zahlreiche ältere Autoren stützt – deren Angaben sich schon damals widersprachen. Insgesamt sind die antiken Berichte zu Diogenes überdurchschnittlich zahlreich, besonders in popularphilosophischen Schriften und in der Buntschriftstellerei. Die Verlässlichkeit sämtlicher Zeugnisse zu Diogenes ist umstritten; vermutlich bildeten sich bereits zu Lebzeiten Legenden, und es ist anzunehmen, dass seit seinem Tod etliche Anekdoten hinzuerfunden worden sind.
Leben.
Die Lebensdaten Diogenes’ sind unbekannt, es liegen dazu verschiedene, teils widersprüchliche Angaben vor. Nach Auswertung der betreffenden Zeugnisse geht man davon aus, dass Diogenes gegen Ende des 5. Jahrhunderts v. Chr., möglicherweise um das Jahr 410 v. Chr. in Sinope am Schwarzen Meer geboren wurde und gegen Anfang der 320er Jahre v. Chr. in Athen oder Korinth gestorben ist. Für die Todesursache berichtet Diogenes Laertios von unterschiedlichen Angaben: Verzehr eines rohen Polypen, Gallenkolik, absichtliches Anhalten des Atems, Hundebiss.
Nach einer antiken Überlieferung war Diogenes Schüler des Antisthenes. Wenn dies zutrifft, muss er spätestens in den frühen 360er Jahren v. Chr. nach Athen übersiedelt sein. In der modernen Forschung ist das behauptete Schülerverhältnis zu Antisthenes allerdings umstritten. Sicher ist nur die Übersiedlung nach Athen. Die Gründe dafür sind unklar, auch wenn dazu verschiedene Anekdoten und Geschichten überliefert sind. So berichten Diogenes Laertios und einige andere Autoren die Legende, dass er geflohen oder verbannt worden sei, weil er selbst oder sein Vater als Bankier oder Beamter der Münze von Sinope Münzen gefälscht hätten. In Athen machte er Bekanntschaft mit den berühmten Philosophen seiner Zeit: mit Platon, Aischines von Sphettos, Euklid von Megara. Hingegen ist die Begegnung mit Aristippos von Kyrene möglicherweise erfunden.
Aufenthalt in Korinth.
In den antiken Berichten ist des Öfteren davon die Rede, dass sich Diogenes in Korinth aufgehalten habe. Wie oft und wie lange, ist unklar, jedenfalls soll er dort auch gestorben sein (nach anderen Versionen allerdings in Athen). Auch um diese Übersiedelung ranken sich Legenden. Nach einer soll Diogenes während einer Schiffsreise nach Ägina von Piraten entführt und auf Kreta als Sklave von einem Korinther namens Xeniades gekauft worden sein. Xeniades habe ihn dann zu seinem Hausverwalter und Erzieher seiner Söhne gemacht. In Korinth soll er dem Tyrannen Dionysios II. von Syrakus und nach der bekanntesten der Anekdoten auch Alexander dem Großen begegnet sein. Ob diese Begegnung tatsächlich und auch in dieser Form stattgefunden hat, ist umstritten. Die Anekdote taucht bei zahlreichen antiken Autoren in oft unterschiedlichen Variationen auf und wurde ein beliebtes Motiv der bildenden Kunst; die älteste erhaltene Version stammt von Cicero, ausführlicher berichtet Plutarch:
Hündische Lebensweise.
Sein Beiname („der Hund“) war ursprünglich vermutlich als auf seine Schamlosigkeit bezogenes Schimpfwort gemeint. Diogenes aber fand ihn passend und hat sich seither selbst so bezeichnet. Eine von vielen Anekdoten, die diesen Beinamen betreffen, ist die, dass sich Alexander der Große bei Diogenes so vorgestellt haben soll: „Ich bin Alexander, der große König.“ Worauf Diogenes gesagt haben soll: „Und ich Diogenes, der Hund.“
Diogenes soll freiwillig das Leben der Armen geführt und dies öffentlich zur Schau gestellt haben. Angeblich hatte er keinen festen Wohnsitz und verbrachte die Nächte an verschiedenen Orten, wie etwa öffentlichen Säulengängen. Als Schlafstätte soll ihm dabei gelegentlich ein Vorratsgefäß (, Pithos) gedient haben, daher das geflügelte Wort von Diogenes in der Tonne bzw. im Fass. Zu Diogenes’ Ausstattung gehörten laut Diogenes Laertios ein einfacher Wollmantel, ein Rucksack mit Proviant und einige Utensilien sowie ein Stock. Seinen Trinkbecher und seine Essschüssel soll er nach einer Anekdote weggeworfen haben, als er sah, wie Kinder aus den Händen tranken und Linsenbrei in einem ausgehöhlten Brot aufbewahrten. Ernährt habe er sich von Wasser, rohem Gemüse, wild gewachsenen Kräutern, Bohnen, Linsen, Oliven, Feigen, einfachem Gerstenbrot und Ähnlichem.
Zu Diogenes’ Zeit galt es in Griechenland als unanständig, in der Öffentlichkeit zu essen. Er tat aber nicht nur dies, sondern befriedigte auch seinen sexuellen Trieb vor aller Augen, und zwar der Einfachheit halber durch Masturbation. Einer Anekdote zufolge soll er sich gewünscht haben, auch das Hungergefühl durch einfaches Reiben des Bauches stillen zu können.
Schriften.
Diogenes Laertios überliefert zwei unterschiedliche zu seiner Zeit kursierende Verzeichnisse von Schriften des Diogenes. Die erste Liste umfasst 13 Dialoge, 7 Tragödien und Briefe, die zweite, von Sotion von Alexandria stammende, 12 Dialoge, Chrien und Briefe. Laut Sosikrates von Rhodos und Satyros von Kallatis, so Diogenes Laertios, hat Diogenes allerdings überhaupt keine Schriften verfasst.
Lehre.
Da seine Schriften verlorengegangen sind und Berichte zu philosophischen Positionen, die Diogenes vertreten hat, weit seltener sind als die zahlreich überlieferten Anekdoten, sind seine philosophischen Ansichten nur in groben Umrissen bekannt. Es ist davon auszugehen, dass Diogenes die grundsätzliche Ansicht vertreten hat, dass richtig glücklich nur der sein kann, der sich erstens von überflüssigen Bedürfnissen freimacht und zweitens unabhängig von äußeren Zwängen ist. Ein zentraler Begriff ist dabei auch die daraus resultierende Selbstgenügsamkeit "(autárkeia)": „Es sei göttlich, nichts zu bedürfen, und gottähnlich, nur wenig nötig zu haben.“
Bedürfnislosigkeit.
Diogenes erkannte ausschließlich die Elementarbedürfnisse nach Essen, Trinken, Kleidung, Behausung und Geschlechtsverkehr an. Alle darüber hinausgehenden Bedürfnisse solle man ablegen, so soll er sogar gegen die verzichtbaren Bedürfnisse trainiert haben: Um sich körperlich abzuhärten, hat er sich im Sommer in glühend heißem Sand gewälzt und im Winter schneebedeckte Statuen umarmt. Und um sich geistig abzuhärten, trainierte er es, Wünsche nicht erfüllt zu bekommen, indem er steinerne Statuen um Gaben anbettelte. Dieses naturgemäße Sichplagen "(pónoi)" unterschied Diogenes von dem öfter vorkommenden unnützen Sichplagen, dessen Ziel die Erlangung von Scheingütern sei. Etlichen Anekdoten ist schließlich auch zu entnehmen, dass Diogenes Bequemlichkeit nicht nur ablehnte, sondern wohl auch als Ursache vieler Übel seiner Zeit ansah.
Lust "()" und Lustempfindungen scheint Diogenes weder als besonders wertvoll noch als unbedingt notwendig angesehen zu haben, er nahm aber beispielsweise die Lust, die man bei sexueller Betätigung empfindet, als zumindest unvermeidlich hin. Sexuelle Betätigung (wie etwa Masturbation) sei jedenfalls der Natur gemäß und ein elementares Bedürfnis.
Unabhängigkeit von äußeren Zwängen.
Sexual- und Ehepartner.
Als ein Beispiel für Abhängigkeit von anderen Personen galt Diogenes der Geschlechtsverkehr mit Frauen, so wird ihm in etlichen Anekdoten eine gewisse Frauenfeindlichkeit nachgesagt. Trotzdem erkannte er die Notwendigkeit des Geschlechtsverkehrs zum Überleben des Menschen an. An der Ehe, einer seiner Ansicht nach zu engen Bindung, hat Diogenes deshalb aber nicht festgehalten – wie Platon trat er hingegen für die Einrichtung der Frauen- und Kindergemeinschaft ein.
Gesellschaftliche Konventionen, Staatsordnung und Religion.
Als äußeren Zwang erachtete Diogenes gesellschaftliche Konventionen, die er teils auf radikale Art und Weise ablehnte. Von Dingen wie der öffentlichen Masturbation und anderen provokativen Verstößen gegen den guten Ton war schon die Rede. Diogenes soll in seinen Schriften aber noch andere, äußerst anstößige Standpunkte vertreten haben. In einer seiner Schriften, der "Politeia", soll er etwa geäußert haben, dass nichts gegen das Essen von verstorbenen Menschen und als Opfer geschlachteten Kindern spreche und dass sexuelle Beziehungen zu Müttern, Schwestern, Brüdern und Söhnen erlaubt seien. Bereits Herodot berichtete an einigen Stellen von menschenfressenden Völkern, Stämmen, die Frauengemeinschaft gewohnt waren, anderen, bei denen es Brauch war, die verstorbenen Eltern zu essen, und wieder anderen, bei denen Menschen geopfert wurden. Auch war bekannt, dass (ob wahr oder nicht) bei den Persern sexueller Verkehr zwischen Söhnen und Müttern üblich war. Diese Tatsachen veranlassten ihn, die betreffenden gesellschaftlichen Verbote und Konventionen als bloßes Produkt verschiedener eingeübter Gewohnheiten zu betrachten, die sich als Gesetze "(nómoi)", Sitten und Bräuche verfestigt hätten. Aus ihnen resultierende Zwänge seien also nicht von Natur aus richtig, sondern hindern vielmehr daran, ein glückliches Leben zu führen. Wie Herakles müsse man sich über diese Zwänge hinwegsetzen. Ob Diogenes allen Ernstes auffordern wollte, die eigenen Eltern zu essen und mit Geschwistern sexuell zu verkehren, oder ob er mit seinen Ausführungen lediglich allgemein auf die Nichtigkeit äußerer Zwänge hinweisen wollte, die den Einzelnen an seinem Glück hindern, kann heute nicht mehr geklärt werden. Zu vermuten ist, dass es auch in den nicht erhaltenen Tragödien um ähnliche Tabubrüche ging.
Ebenfalls in der "Politeia" soll er die Abschaffung aller seinerzeit bekannten Staatsformen gefordert haben, da „die einzige wahre Staatsordnung die Ordnung im Kosmos sei.“ So soll sich Diogenes selbst als einer der Ersten als Weltbürger "(κοσμοπολίτης, kosmopolítēs)" bezeichnet und somit einen Kosmopolitismus vertreten haben. Diogenes’ religiöse Ansichten sind unbekannt, anzunehmen ist aufgrund einiger Anekdoten eine spöttisch-ironische Distanz zu religiösen Fragen.
Bildung, Dialektik und Philosophie.
Die Disziplinen der traditionellen Bildung (wie Grammatik, Rhetorik, Mathematik, Astronomie und Musiktheorie) hielt Diogenes für unnütz und überflüssig. Im Gegensatz zu Antisthenes hielt er sogar die Beschäftigung mit Fragen der Dialektik (heute in etwa die Disziplin Logik) für sinnlos und setzte ihr den gesunden Menschenverstand entgegen. An einigen Stellen sind logische Argumentationen in Form von Schlüssen überliefert, die aber weniger als ernsthafte Beschäftigung mit Logik, sondern mehr als vielleicht sogar spottendes Spiel mit logischen Operationen und rein logischen Rechtfertigungen gewisser Ansichten aufgefasst werden können:
Von anderen Philosophen dachte Diogenes gering. Die Lehren des Antisthenes hat er zwar hoch geschätzt und daran angeknüpft, über die Person Antisthenes’ hingegen und seine Umsetzung seiner Lehren war er anderer Meinung. Er soll ihn als weich bezeichnet und mit einer Trompete verglichen haben, die zwar laute Töne von sich gibt, sich selbst aber nicht hören kann.
Diogenes und Platon.
Nach Diogenes Laertios dürfte das Verhältnis Diogenes’ zu Platon nicht das beste gewesen sein. Dessen Ideenlehre habe Diogenes folgendermaßen ins Lächerliche zu ziehen versucht: „Als Platon sich über seine Ideen vernehmen ließ und von einer Tischheit und einer Becherheit redete, meinte Diogenes: ‚Was mich anbelangt, Platon, so sehe ich wohl einen Tisch und einen Becher, aber eine Tischheit und Becherheit nun und nimmermehr.‘ Darauf Platon: ‚Sehr begreiflich; denn Augen, mit denen man Becher und Tisch sieht, hast du allerdings; aber Verstand, mit dem man Tischheit und Becherheit erschaut, hast du nicht.‘“ Auch Platons Bemühungen um Definitionen verschiedener Begriffe scheint er nicht ganz ernst genommen zu haben: „Als Platon die Definition aufstellte, der Mensch ist ein federloses zweifüßiges Tier, und damit Beifall fand, rupfte Diogenes einem Hahn die Federn aus und brachte ihn in dessen Schule mit den Worten: ‚Das ist Platons Mensch‘; infolgedessen ward der Zusatz gemacht ‚mit platten Nägeln‘.“
Rezeption.
Philosophie- und Kulturhistoriker sowie Künstler stellen Diogenes als denjenigen dar, der nicht in erster Linie Thesen aufstellte, sondern seine ureigenen Erkenntnisse öffentlich und demonstrativ in die Tat umsetzte. In diesem Zusammenhang wird gelegentlich der Begriff „Aktionsphilosoph“ verwendet.
Philosophie.
Aus den Reihen der Philosophen erhielt Diogenes sowohl allerhöchste Zustimmung als auch strikte Zurückweisung. So nannte Platon ihn angeblich in diffamierender Absicht einen „rasend gewordenen Sokrates.“ Hegel kritisierte an Diogenes nicht nur dessen Volksnähe, er warf ihm auch vor, „unwichtige Dinge zu wichtig“ zu nehmen. Dazu gehört die öffentlich zur Schau gestellte Bedürfnislosigkeit. Indem Friedrich Nietzsche in ihr bloß ein „Heilmittel gegen alle socialen Umsturzgedanken“ sah, sprach er dem antiken Philosophen die Subversivität ab.
Michel Foucault dagegen sah in den frechen Eskapaden und in der radikalen Freiheit, die sich Diogenes mit ihnen nahm, zugleich die größtmögliche Chance auf Wahrheit ("Parrhesia"): „Der Mut zur Wahrheit seitens desjenigen, der spricht und das Risiko eingeht, trotz allem die ganze Wahrheit zu sagen, die er denkt.“ Während Platon Diogenes im Vergleich mit Sokrates herabzustufen sucht, stellt ihn Peter Sloterdijk auf eine Stufe mit ihm und deutet die „Bizarrerien seines Verhaltens“ als „Versuch, den listigen Dialektiker komödiantisch zu übertrumpfen.“ Ulf Poschardt schrieb in seinem Buch über Coolness: „Diogenes lebte laut wie ein Popstar.“ Beider Interpretation zufolge – so Harry Walter – repräsentiere Diogenes „mit seinem öffentlichen Querliegen eine Kultur der gestischen Subversion.“
Den Gedanken der Subversion übersetzt Natias Neutert 1986 in ein Ein-Mensch-Theater-Stück, bei der er Autor und Akteur in einem ist. Er zeigt auf, wie die „quer zur heroischen Geschichtsbildung liegende Körperphilosophie“ auch heutzutage in der Lage sein kann, „die Posen der großen Wahrheit“ ad absurdum zu führen.
Kunst und Belletristik.
Die kulturgeschichtliche Ausnahmeerscheinung des Diogenes spiegelt sich in einer Fülle künstlerischer Darstellungen wider, sowohl Bilder als auch Skulpturen.
So sind drei nicht mehr vollständige Statuetten gleichen Typs erhalten, von denen angenommen wird, dass sie Diogenes darstellen: Sie zeigen einen bärtigen nackten Mann in vornübergebeugter Haltung. Eine dieser Statuetten befindet sich in der Villa Albani in Rom. Original daran sind jedoch nur Kopf, Rumpf, Schultern und rechter Oberschenkel; alles Übrige ist später hinzugefügt worden. Von den anderen beiden Statuetten gibt es nur noch Bruchstücke der Beine, allerdings fanden sich bei ihnen auch Fragmente eines Hundes und eines Rucksacks, also typische Attribute des Diogenes.
Ein guterhaltenes Mosaik aus dem 2. Jahrhundert zeigt Diogenes in seinem Fass, darunter ist sein Name zu lesen. Das Mosaik befindet sich heute im Römisch-Germanischen Museum in Köln.
Wilhelm Busch hat der antiken Figur in seiner Bildergeschichte "Diogenes und die bösen Buben von Korinth" ein für ihn typisches humoristisches Denkmal gesetzt, das wesentlich zu dessen Popularität beigetragen hat.
Quellensammlungen.
Ausgaben
Übersetzungen
Literatur.
Übersichtsdarstellungen
Untersuchungen
Rezeption
Philosophische Essays |
1236 | 114381 | https://de.wikipedia.org/wiki?curid=1236 | Eigentum | Eigentum (Lehnübersetzung aus dem lat. "proprietas" zu "proprius" „eigen“) bezeichnet das Herrschaftsrecht an einer Sache, soweit eine Rechtsordnung dies zulässt. In Abgrenzung zum Besitz, der ein zweckgebundenes, tatsächliches Verhalten des Menschen zu einer Sache beschreibt und daher empirisch faktischer Natur ist, ist Eigentum ein praktisch-normativer Begriff, der nicht vorschreibt was "ist", sondern was "gilt".
Kennzeichen moderner Formen des Eigentums sind die rechtliche Zuordenbarkeit von Gütern zu einer natürlichen oder juristischen Person als Träger von Rechten und Pflichten, die Anerkennung der beliebigen Verfügungsgewalt des Eigentümers und die Beschränkung des Eigentümerbeliebens durch Gesetze. Der Eigentumsbegriff entwickelte sich historisch über mehrere Stufen: Im antiken Rom bedeutete er noch absolute Verfügungsgewalt mit allen Abwehrrechten des Rechteinhabers, im Mittelalter galt ein Eigentumsbegriff christlicher Herkunft, dessen Zentrum die Sozialpflichtigkeit war, und seit der Neuzeit etablierte sich der ökonomisch orientierter Eigentumsbegriff eines bürgerlich-kapitalistischen Wertesystems. Elemente aller drei Entwicklungsstufen finden sich noch in den heutigen Eigentumsbegriffen.
Eigentum ist in den meisten Verfassungen als Grundrecht geschützt, aber nicht inhaltlich bestimmt. Der materiale Gehalt des Eigentums ergibt sich aus einer Vielzahl von Gesetzen des Privatrechts und des öffentlichen Rechts (Bodenrecht, Mietrecht, Kaufrecht, Denkmalschutz, Umweltrecht, Steuergesetze etc.; als Besonderheit: Tierschutz) beziehungsweise aus gerichtlichen Präzedenzfällen. Man spricht daher auch von Eigentum als einem „Bündel von Rechten und Berechtigungen“, das die Beziehungen und das Handeln zwischen Personen symbolisiert. Der Gehalt des Eigentumsbegriffs ist nicht statisch und naturgegeben, sondern entwickelt sich im Laufe der Zeit durch die gewohnheitsrechtliche Praxis, Rechtsprechung und Gesetzgebung.
Allgemeinsprachlich wird häufig nur von „Besitz“ gesprochen, obwohl „Eigentum“ gemeint ist. Da die Begriffe in der juristischen Fachsprache gegeneinander abgegrenzt sind, werden sie im Bereich des Rechts nicht synonym verwendet.
Begriffsbestimmung.
Juristische Eigentumsmerkmale.
Eigentum ist eine Rechtsposition, die ein Rechtssubjekt im Verhältnis zu einer bestimmten Sache einnimmt. Bei dieser Rechtsposition handelt es sich um ein sogenanntes Herrschaftsrecht. Das bedeutet, dass der Eigentümer mit der Sache nach Belieben verfahren darf. In den verschiedenen Rechtsordnungen ist Eigentum insoweit als absolutes Recht zugestanden und ausgestaltet. Eigentum schließt damit Dritte – also andere Personen – von ihrer Einflussnahme auf die Sache grundsätzlich aus. Der Eigentümer kann einem Dritten aber ein relatives Recht an der Sache einräumen, beispielsweise per Miet-, oder Leihvertrags. In Erfüllung der daraus erwachsenden vertraglichen Pflichten, entsteht ein Besitzrecht des Dritten an der Sache, während der Eigentümer sein absolutes Recht behält, denn er kann die Besitzverhältnisse eines Dritten beenden.
Bei der Rechtsausübung muss der Eigentümer jedoch gesetzliche Grenzen beachten. So besteht häufig das Verbot, Eigentum dazu zu benutzen, fremdes Eigentum zu beschädigen oder andere Personen zu verletzten. Eigentum bedeutet regelmäßig auch Sozialbindung, weshalb beendenden Charakter beispielsweise die Enteignung (in ihren unterschiedlichen Gestaltungsformen) haben kann, oder wenn Kapitaldienste bei der Finanzierung nicht geleistet werden, Hoheitsakte im Rahmen von Zwangsvollstreckungen.
Abgrenzung zum Besitz.
Vom Eigentum zu unterscheiden ist der Besitz, der sich auf die tatsächliche, empirisch-faktische Herrschaft über eine Sache bezieht. Bei Miet- oder Leihverträgen (oder vielen anderen obligatorischen Verträgen) fallen Eigentum und Besitzausübung regelmäßig nicht in derselben Person zusammen, sondern auseinander. Kann der Besitzer kein ihn schützendes Recht zum Besitz herleiten (etwa der Dieb), kann der Eigentümer die Sache herausverlangen, weil er einen Herausgabeanspruch hat. Es besteht dann ein sogenanntes Eigentümer-Besitzer-Verhältnis, das gegebenenfalls Haftungsverschärfungen kennt. Zur Veranschaulichung nochmals: bei einem Mietvertrag wird der Mieter Besitzer, der Vermieter jedoch bleibt Eigentümer. Die faktische tatsächliche Ausübung der Sachherrschaft des Nichteigentümers, ändert an der abstrakten Natur des Eigentumsrechts des Eigentümers nämlich nichts. Der Mieter wird „unmittelbarer berechtigter Fremdbesitzer“, wohingegen der Eigentümer „mittelbarer Eigenbesitzer“ bleibt. Endet der Mietvertrag und der Besitzer gibt die Sache nicht heraus, entfällt die Berechtigung und der Besitzer setzt sich Herausgabeansprüchen aus.
Der Mieter erhält die tatsächliche Sachherrschaft, kann aber den gemieteten Gegenstand nicht als Aktiva (Vermögen) in seiner Bilanz verbuchen. Der Vermieter kann als Eigentümer die Sache hingegen verbuchen, woraus deutlich wird, dass Eigentum ein Vermögensrecht ist. Ökonomischen Wert hat nicht der Gegenstand an sich, sondern nur der Eigentumstitel, der mit dem Besitz (dem tatsächlichen „Haben“) nicht zusammenfallen muss, sondern ein zusätzlich zum Gegenstand bestehender abstrakter Rechtstitel ist. In den meisten Ökonomien baut die Geldwirtschaft, besonders die Kreditwirtschaft auf Eigentumstiteln auf. Wo keine solche Eigentumstitel existieren, muss sich Geldwirtschaft stattdessen auf Leistungsansprüche, die meist durch Arbeit erworben werden, stützen. Die Dokumentation von Eigentum kann an einen Rechtstitel oder die Eintragung in ein Register (z. B. Grundbuch) gebunden sein. Der Eigentümer von Booten und Schiffen heißt Eigner, deren Zusammenschluss "Eignergemeinschaft".
Eigentum in der Wissenschaft.
Eigentum ist nicht allein ein Rechtsinstitut in der Rechtswissenschaft, sondern wird interdisziplinär untersucht. So fragen die Rechts- und die Sozialphilosophie nach den Erwerbsgründen und der Rechtfertigung von Eigentum.
Die Soziologie befasst sich mit der Entstehung, der gesellschaftlichen Bedeutung und den Folgen der Institutionalisierung von Eigentum. Sie fragt dabei danach, welchen Einfluss Eigentum auf die Machtverhältnisse, den Sozialstatus und die soziale Ungleichheit hat.
Die Geschichtswissenschaft untersucht den Eigentumsbegriff hinsichtlich seines Einflusses auf und die Prägung durch die historische Entwicklung.
Politikwissenschaft und Volkswirtschaftslehre (auch andere Wirtschaftswissenschaften) beschäftigen sich mit den Folgen und möglichen Wirkungen der Gestaltung von Eigentumsordnungen.
Die Ethnologie untersucht Eigentumsverhältnisse in unterschiedlichen menschlichen Gesellschaften.
Verwendung in der deutschen Sprache.
"Eigentum" und "Besitz" werden sprachlich oft gleichgesetzt, sind jedoch im juristischen und ökonomischen Kontext streng voneinander zu unterscheiden. So kann ein Gegenstand sich vorübergehend oder auf Dauer im Besitz einer anderen Person als des "Eigentümers" befinden (zum Beispiel bei einer Mietwohnung). Daneben wird der Begriff des Eigentums umgangssprachlich auch für das Objekt des Eigentums verwendet („Das ist mein Eigentum“).
Der Begriff Eigentum wird meist nur in Gesellschaften oder Populationen gebraucht, in denen es eine rechtliche Unterscheidung von Eigentum und Besitz gibt. Den früheren Eskimo-Populationen war beispielsweise der Begriff des Eigentums unbekannt.
Rechtlich wird zudem zwischen Eigentum und Vermögenswert unterschieden. Auch wenn Eigentum im Alltag oft mit Privateigentum gleichgesetzt wird, werden auch kollektive Verfügungsrechte an Sachen, die exklusiv von einer Gemeinschaft oder vom Staat ausgeübt werden, als Eigentum bezeichnet.
Geschichte.
Frühgeschichte.
Über die historischen Wurzeln des Eigentums gibt es wenig gesichertes Wissen. Aus der Steinzeit kennt man Grabbeigaben, die den Toten mitgegeben wurden. Dabei dürfte es sich um persönliche Habseligkeiten gehandelt haben wie Waffen, Schmuck und Gebrauchsgegenstände, für die eine besondere Bindung an die Person bestand. Gesellschaftliches Eigentum entstand bereits in der Frühzeit im Zusammenhang mit der damals vorherrschenden extraktiven Wirtschaft zunächst durch Abgrenzung von Jagdrevieren einzelner Horden und Stämme, die diese gegeneinander verteidigten. Wie die Eigentumsrechte am Land in typischen Jäger-und-Sammler-Gesellschaften ausgestaltet sind, ist Gegenstand einer wiederkehrenden ethnologischen Debatte. Die von Henry Lewis Morgan vertretene und später von Friedrich Engels übernommene These eines „Urkommunismus“ in der menschheitsgeschichtlichen Entwicklung wurde durch Frank G. Specks Beispiel familienbezogener Jagdreviere der Algonkin in Kanada in Frage gestellt. Ob diese Familienreviere jedoch schon zu präkolumbianischer Zeit bestanden haben und ob sie als eine dem europäischen Privateigentum ähnliche Institution angesehen werden können, ist weiterhin umstritten. Neuere Forschungsergebnisse weisen darauf hin, dass auch in den Familienterritorien der Algonkin Rechte primär größeren sozialen Gruppen zugeordnet sind. Grundbesitz soll zudem auf spiritueller und sozialer Reziprozität beruhen, das heißt auf wechselseitigen, nicht im Sinne eines Tausches direkt miteinander verknüpften Gaben und Gegengaben. Eigentum gab es schon bei den noch nicht sesshaften Hirtenvölkern. Individuelles Eigentum an Grund und Boden entstand erst im Übergang zum Ackerbau und im Zuge der allmählichen Ablösung der Sippen durch kleinere Familienverbände und die Entstehung von Siedlungen (Neolithische Revolution). Bedrohungen von außen, aber auch gemeinsame Projekte wie der Siedlungswasserbau im Zweistromland, im Industal oder in Ägypten führten zur Institutionalisierung von Herrschaftsstrukturen und schließlich zu den bekannten Königreichen. In diesem Zuge entstanden auch Rechtsordnungen, in denen es möglich war, das Eigentum durchzusetzen. Die älteste bekannte Kodifizierung ist der Codex Ḫammurapi, der bereits Kaufrecht und Erbrecht kannte.
Im 3. Jahrtausend vor Christus entstanden in Mesopotamien die Tempelwirtschaft, in der in regionalen Zentren rund um den Tempel die Wirtschaft in der Hand der Priester lag und die Rechte zur Bewirtschaftung des Landes gegen Abgaben von der Tempelverwaltung vergeben wurde. Gleichzeitig ist privater Grundbesitz anhand von Kaufverträgen in Keilschrift dokumentiert. Reichtum entstand durch kriegerische Ausweitung des Machtbereiches, aber auch durch Handel zwischen den Zentren und ersten Fernhandel. Es entstanden einerseits grundbesitzende Oberschichten, andererseits wurde der Wohlstand durch Ausbeutung von Sklaven gemehrt.
Antike.
Die überlieferte Reflexion über die Bedeutung von Eigentum beginnt mit den Werken von Platon und Aristoteles im antiken Griechenland. Die Gesellschaft dieser Zeit war noch ganz überwiegend landwirtschaftlich geprägt. Selbst in der Polis von Athen lebten noch mehr als drei Viertel der Bevölkerung von der Landwirtschaft. Die Gesellschaft wurde vom Adel und von Großgrundbesitzern dominiert, wenn auch die Reformen des Kleisthenes den Bürgern eine Beteiligung an den Entscheidungen der Polis ermöglicht hatten. Gesellschaftlicher und ökonomischer Kern war der Familienhaushalt (Oikos). Zu diesem Haushalt gehörten auch Sklaven, die man kaufte oder die im Zuge der Kolonialisierung nach Athen gelangt waren. Die Schuldsklaverei war durch die Gesetze Solons abgeschafft worden. Im Oikos war alles dem Hausvater untergeordnet, der über das Vermögen, die Frau, die Kinder und die Sklaven die Rechte des Eigentümers ausübte, aber auch die Verantwortung für ihr Wohlergehen hatte.
Platon entwarf in der Politeia das Konzept eines idealen Staates, in dem jeder die ihm angemessene Position einnimmt. So gibt es den Nährstand der Handwerker und Bauern, die auch in diesem Staat über Eigentum verfügen. Den Zusammenhalt des Staates gewährleisten die Wächter (Wehrstand). Diese haben kein Eigentum, sondern erhalten ihr Auskommen von der Gesellschaft und im Gegenzug ist ihr gesamter Lebensbereich, auch die Wohnung, der Öffentlichkeit zugänglich. Auch die Philosophen, die für Platon geeignet sind, nach Erziehung und Ausbildung den Staat zu leiten, bleiben ohne Besitz. In seinem Spätwerk, den Nomoi, setzt sich Platon mit der Frage auseinander, wie die staatliche Ordnung einer noch zu gründenden Kolonie aussehen sollte. Hier sah er eine Verteilung des Grundbesitzes vor. Diese ist allerdings gleichmäßig und der Boden kann nicht verkauft, sondern nur vererbt oder an einen anderen ohne Grundbesitz übertragen werden.
Ähnlich wie für Platon ist für Aristoteles das Ziel des menschlichen Lebens das Gute, nicht der Reichtum, der nur ein Mittel zur Erreichung dieses Ziels ist. Das Institut des Eigentums entstammt nicht der natürlichen Ordnung, sondern ist Ergebnis der menschlichen Vernunft. Individuelles Eigentum ist dem gemeinschaftlichen Eigentum vorzuziehen, weil persönliches Eigentum eine größere Sorgfalt gegenüber den Sachen bewirkt. Zum zweiten entspricht Privateigentum dem Prinzip der Leistung. Des Weiteren regelt Eigentum eindeutig die Zuständigkeiten, so dass Streit vermieden werden kann. Persönliches Eigentum dient dem Genuss in der Gemeinschaft und ist Voraussetzung für die Tugend der Freizügigkeit. Gemeineigentum ist deshalb nur dort sinnvoll, wo es gemeinschaftlich genutzt wird oder einer gemeinsamen Finanzierung bedarf.
Die frühe Kodifizierung des römischen Rechts war im antiken Rom das Zwölftafelgesetz. Vornehmlich diente es dem Zweck, die Konflikte zwischen den grundbesitzenden Patriziern und den Plebejern zu ordnen. Obligatorische Rechtsgeschäfte, wie etwa Kaufverträge, waren sehr formalisiert als Libralakte geregelt. Sie waren Bestandteil des "ius civile", später auch des "ius honorarium", dem prätorischen Honorarrecht. Ähnlich wie in Griechenland war die römische Gesellschaft in Haushalten ("dominium": Eigentum, Besitzrecht) organisiert. Der Hausherr, der "pater familias", war uneingeschränkter Gewaltgeber über den gesamten Haus- und Hofstand sowie die Familienmitglieder. Er allein repräsentierte im altzivilen Recht der Republik die Familientradition. Voraussetzung war, dass er das Bürgerrecht innehatte, mit dem Eigentumsansprüche ("ex iure Quiritum") überhaupt gestellt werden konnten. Wer römischer Bürger war, konnte Privatland ("ager privatus") erwerben und besitzen, wurde Eigentümer. Die Hausmacht der "patria potestas" erstreckte sich sogar auf erwachsene Söhne, da sie – sofern sie noch dem väterlichen Haushalt angehörten – nicht geschäftsfähig waren. Dabei spielte auch keine Rolle, dass sie gegebenenfalls bereits verheiratet waren und Kinder hatten. Die Verfügungsmacht des "pater familas" reichte so weit, dass er seine Kinder sogar in die Sklaverei verkaufen konnte. Er konnte durch Testament sein Eigentum uneingeschränkt vererben ("sui heredes"). Lag kein Testament vor, erfolgte die Intestaterbfolge in männlicher Linie.
Dem römischen Staat hingegen gehörte der "ager publicus", Land als Gemeineigentum, das durch Eroberungsfeldzüge erworben wurde (vgl. auch Punische Kriege, Gracchische Reformen). Dessen Verteilung sorgte für eines der zentralen Konfliktfelder der römischen Geschichte, an dem letztlich die römische Republik zerbrach und autoritäreren Strukturen weichen musste. Gemein- wurde in Privateigentum gewandelt.
Im römischen Recht gab es keine formale Definition des Eigentumsbegriffs, wohl aber verschiedene Formen des Eigentums. Aus der Beschreibung "meum esse aio" („ich behaupte, dass es mein ist“) lässt sich anhand der Praxis ableiten, dass die Legaldefinition in Satz 1 BGB weitgehend mit der inhaltlichen Bestimmung zur Zeit Ciceros übereinstimmt. Cicero setzte sich mit der Begründung von Eigentum auseinander. Für ihn entsteht Privateigentum ursprünglich durch Okkupation. Das Land der eroberten Provinzen betrachteten die Römer als Eigentum des römischen Volkes und begründeten hiermit das Recht auf eine Bodensteuer (Tribut). Die Römer kannten bereits ein Immissionsverbot (siehe BGB), d. h. jemand konnte sein Grundstück nicht beliebig nutzen, wenn er damit den Besitz anderer beeinträchtigte, z. B. durch Entwässerungsgräben, deren Wasser auf fremden Grund abfloss.
Eine neue Sicht auf das Eigentum kam in der Patristik durch die Verbreitung christlich-jüdischer Gedanken auf, nach denen das Naturrecht mit dem göttlichen Recht gleichzusetzen ist. Im Tanach („Altes Testament“) wird das Land dem Menschen zur Verwaltung übergeben – es bleibt aber im Eigentum Gottes. Bei den Kirchenvätern wie Clemens von Alexandria stand daher die von der Stoa übernommene Frage des richtigen Gebrauchs von Eigentum im Vordergrund. Sie forderten, das Eigentum, das über den eigenen Bedarf hinausgeht, an die Armen weiterzugeben. Die Reichen in der Gemeinde haben entsprechend der paulinischen Lehre eine Fürsorgepflicht gegenüber den Armen („Der eine trage des anderen Last“, Gal. 6, 2).
Mittelalter.
Thomas von Aquin versuchte eine vermittelnde Position zwischen der Lehre des Aristoteles und den Auffassungen der Patristik zu entwickeln. Sein Ausgangspunkt war der dreieinige Gott als Eigentümer ("principale dominium omnium rerum"), Kaiser und Könige konnten Gott als Verwalter stellvertreten ("dominum utile"). Erst aus dem abgeleiteten Recht entsprang das Lehensrecht ("feudum"). Er gestand Einzelnen aber private Eigentums- und Verfügungsrechte zu, sofern sie gemeinverträglich ausgeübt wurden, da die Bewirtschaftung eines Gutes – als Recht der Vorsorge und Verwaltung ("ius procurandi et dispensandi") – die vor Gott rechenschaftspflichtige Freiheit des Einzelnen und das Überleben seiner Familie fördere ("ius positivum"). Dies war als Ausnahme zu verstehen, denn im Vordergrund stand stets das Gemeingut für die Sicherung des Gemeinwohls ("ius naturale"). Thomas vertrat damit (im Rahmen des Streits der Kirche um Fragen zum Eigentum) vernunftgeleitete Zweckmäßigkeitsinteressen des aufkommenden Bürgertums. Dieses Rechtsverständnis spiegelt sich heute in der Verfassung Deutschland mit den dort verankerten Eingriffsrechten des Staates in das bürgerliche Grundrecht „Eigentum“ durch dessen Schrankenbestimmungen der Sozialbindung sowie Sozialisierung (Art. 14, 15 GG).
Die feudale Eigentumsordnung des Mittelalters strukturierte sich hierarchisch-derivativ in Form verliehener Privilegien durch die Grundherren. Dem gegenüber stand die Gemeinschaft der privaten Eigentümer in Rom im gleichen Horizont, sie waren auf Augenhöhe berechtigt. Die Privilegien gestalteten sich bald zunehmend komplexer und wurden schließlich unüberschaubar, was Samuel von Pufendorf schlussendlich das Attest ausstellen ließ, dass ihn das Reich an ein ungeregeltes Monstrum erinnere ("irregulare aliquod corpus et monstro simile").
Bei den Germanen hatte sich der Stand der Wehrbauern und das Institut der Allmende entwickelt. Diese Struktur wurde im frühen Mittelalter zur Zeit des Karolingerreiches durch die Herausbildung des Ritterstandes abgelöst, durch den zentrale Herrschaft besser zu sichern war. Die mittelalterliche Eigentumsstruktur war geprägt durch Grundherrschaften, die entweder als Lehen (vom Landesherren verliehenes Nutzungsrecht) oder weniger verbreitet als Allodien (vererbbares Eigentum) bestanden. Grundbesitz in den Städten, aber auch der zum Teil sehr große Grundbesitz der Klöster war zumeist Eigentum (Allod). Auch Allodien waren nicht in jedem Fall frei veräußerlich, sondern waren zum Teil Stammgüter, das heißt von Vorfahren ererbte Immobilien, welche die Bestimmung hatten in derselben Familie zu bleiben (vgl. Familienfideikommiss). Die Landwirtschaft war zumeist autark. Es gab freie und unfreie Bauern. Die Masse des Volkes lebte als Knechte oder Tagelöhner. Es gab die an die Person gebundene Form der Hörigkeit als Leibeigenschaft und die an den Boden gebundene Grundhörigkeit. Während in Italien schon früh die Städte ein Gegengewicht zu den Grundbesitzern gewannen, bildeten sich nördlich der Alpen städtische Strukturen erst allmählich heraus. In den Städten entwickelten sich Handel und Marktrecht, es entstanden vor allem in Flandern Messen, Kaufmannsgilden und Zünfte der Handwerker. Ein Höhepunkt im Hochmittelalter war die Gründung der Hanse.
Eigentum wurde beziehungsweise wird oft gekennzeichnet durch so genannte Hausmarken, zum Beispiel Wappen und Brandzeichen. Der Kennzeichnung von Grundbesitz dienen die auf den Hermes-Kult zurückgehenden Grenzsteine. Für Grundstücke führte Wilhelm der Eroberer in England 1086 das wahrscheinlich erste Grundbuch ein, das Domesday Book. Unabhängig davon führten die mittelalterlichen deutschen Städte Stadtbücher, Vorläufer der heutigen Grundbücher.
Für die Rechtsgeschichte im Mittelalter von besonderer Bedeutung war das Wiederaufleben römischen Rechts angestoßen von den Forschungen der Legisten an den Universitäten, allen voran der Universität Bologna. Die ersten Bearbeiter – der am Anfang des Prozesses untersuchten Digesten – waren die Glossatoren. Die Kodifikation des Corpus iuris civilis hatte auch Einfluss auf das von den Dekretisten vertretene kanonische Kirchenrecht, das im Decretum Gratiani systematisch zusammengefasst wurde.
Ein wichtiger Schritt in der Entwicklung der Auffassung über das Eigentum ist die Lehre Wilhelm von Ockhams, der das als Eigentum bestimmte, was sich vor Gericht einklagen lässt. Das einzige Naturrecht, das Ockham anerkennt, ist das Recht auf Erhalt der eigenen Person. Daraus ergibt sich der Anspruch der Armen, von den Reichen wenigstens soviel zu erhalten, wie sie zum Leben benötigen. Zum Naturrecht gehört auch, dass alle Menschen frei sind, auch wenn das Völkerrecht die Sklaverei zulässt. Gerade in Hinblick auf Sklaven und die Position der Frau stellt er sich gegen die Tradition seit Aristoteles, die von Thomas von Aquin noch vertreten wurde.
Frühe Neuzeit.
Das im Spätmittelalter einsetzende Wachstum der Städte, die zunehmende Zahl der Universitätsgründungen, die Erfindung des Buchdrucks, die Entdeckung Amerikas, Renaissance und Humanismus kennzeichnen strukturelle Veränderungen der Gesellschaft zu Beginn der Frühen Neuzeit. Das Denken wird säkularer, die Kirche wehrt sich mit der Inquisition, muss aber im Zuge der Reformation, der Entwicklung der Naturwissenschaften und der Herausbildung der Nationalstaaten ihren Machtverlust hinnehmen. Die dominierende Herrschaftsform im 17. und 18. Jahrhundert ist der Absolutismus. Die Subsistenzwirtschaft beginnt sich aufzulösen. Die Strukturen des Feudalismus werden allmählich durch Stadtrechte, Dorfordnungen und Verlagerung der Gerichtsbarkeit in die Gemeinden aufgeweicht. In ländlichen Gebieten entstehen Nachsiedlerschichten wie Heuerlinge oder Kötter und Bödner. Die Wirtschaft wird komplexer mit vorindustriellen Produktionsweisen wie Heimarbeit und ersten Manufakturen und einer sich ausbreitenden Marktwirtschaft. Es entwickelt sich der Übergang zum Merkantilismus und zum Physiokratismus. In dieser Zeit entstand auch Geistiges Eigentum als neue Eigentumsform, zunächst als Privilegien, dann auch geschützt durch Patentrecht (Venedig 1474, Großbritannien 1623, Frankreich 1790). In den Bereich der Privilegien fallen auch die Bergordnungen des 15. und 16. Jahrhunderts. Fragen des Urheberrechts wurden erstmals im 18. Jahrhundert geregelt.
Thomas Hobbes, der philosophisch den Absolutismus stützte, entwickelte die Idee des Gesellschaftsvertrages, in dem der Einzelne seine Freiheitsrechte an einen zentralen, allmächtigen Herrscher überträgt. Als absoluter Regent legt dieser Gesetze fest und setzt sie durch. Das Recht des Eigentümers kann niemand einschränken als der Souverän. Der Bürger hat aber auch kein Recht, ihn daran zu hindern.
Nach dem englischen Bürgerkrieg war in England das Bürgertum trotz der Stuart-Restauration so stark geworden, dass es nach dem Habeas Corpus Act (1679) in der Glorious Revolution (1688) mit der Bill of Rights die Souveränität des Parlaments gegen den König durchsetzen konnte. In den Zwei Abhandlungen über die Regierung bewertete John Locke das Eigentum als Grundrecht. Jedoch entsteht Eigentum nicht durch einen Vertrag, wie bei Hobbes, sondern beruht auf überpositivem Naturrecht. In der Begründung des Eigentums geht Locke mit seiner Arbeitstheorie einen völlig neuen Weg. Der Mensch ist von Natur aus berechtigt, zum Zweck der Selbsterhaltung sich einen Teil der Natur anzueignen. Indem der Mensch ein Naturgut bearbeitet, bringt er einen Teil seiner selbst in den Gegenstand ein. Naturgüter haben ohne Arbeit einen nur geringen Wert. Wasser in der Natur gehört niemandem. Das Wasser im Krug ist aber unbestritten zu Eigentum geworden (II § 29). Auch der Wert des Bodens entsteht größtenteils durch Arbeit (II § 43). Der Erwerb von Eigentum, das heißt die Aneignung der Natur hat bei Locke aber dort ihre Grenzen, wo der Mensch das von der Natur durch Arbeit Gewonnene nicht mehr verbrauchen kann (II § 32). Für die Bildung von Reichtum sind die Möglichkeit des Tausches und das Institut des Geldes entscheidend. Indem der Mensch das Ergebnis der Arbeit tauscht, zum Beispiel Äpfel gegen Nüsse, so erhält er etwas weniger Verderbliches. Dieses darf er besitzen, auch wenn er es nicht unmittelbar verwertet. Durch die Einrichtung des Geldes wurde zwischen den Menschen ein Übereinkommen getroffen, dass die Aufbewahrung des Eigentums unbegrenzt erfolgen kann. „Das große und hauptsächliche Ziel, weshalb Menschen sich zu einem Staatswesen zusammenschließen und sich unter eine Regierung stellen, ist also die Erhaltung ihres Eigentums.“ (II § 124). Den unterschiedlichen Reichtum erklärt Locke mit unterschiedlichem Fleiß und den unterschiedlichen individuellen Voraussetzungen der Menschen. Eingriffe ins Eigentum durch den Staat bedürfen immer der Zustimmung der Bürger (II § 139). Diese Rechtsauffassung entspricht einer bürgerlich-kapitalistisch ausgerichteten Eigentumsordnung. Recht auf privates Eigentum gründete nunmehr auf dem Prinzip „Arbeit“. Der Gebrauch der Sache erzeugt die Arbeit. Er besteht nach Locke nicht in dem Recht, beliebig mit der Sache zu verfahren, auch nicht in der Pflicht, sie dem Gemeinwohl dienen zu lassen, ökonomisch betrachtet, soll sie dem Rechte- und Pflichtenkreis des Eigentums so zugeordnet werden, dass sie durch die eigene Arbeit zu vermehren ist. Im 18. Jahrhundert sollten die Verfassungen der Vereinigten Staaten und Frankreichs privates Eigentum als unverletzliches Recht festschreiben, dies nach ausdrücklicher Zustimmung der verfassungsgebenden Versammlungen. Die alte feudale Rechtsordnung war damit außer Kraft gesetzt. Andererseits wird davon ausgegangen, dass es „Dienste“ schon immer gab, allein: Sklavenarbeit sei durch vertragliche Gestaltung des Arbeitsdienstes abgelöst worden.
Nach Jean-Jacques Rousseau führt die Bildung von Eigentum dazu, dass der Mensch den Urzustand verlässt. „Konkurrenz und Rivalität auf der einen Seite, Gegensatz der Interessen auf der anderen, und stets das versteckte Verlangen, seinen Profit auf Kosten anderer zu machen: alle diese Übel sind die erste Wirkung des Eigentums und das untrennbare Gefolge der entstehenden Ungleichheit“. (Diskurs, 209) „Der erste, der ein Stück Land eingezäunt hatte und dreist sagte: ‚Das ist mein‘ und so einfältige Leute fand, die das glaubten, wurde zum wahren Gründer der bürgerlichen Gesellschaft. Wie viele Verbrechen, Kriege, Morde, Leiden und Schrecken würde einer dem Menschengeschlecht erspart haben, hätte er die Pfähle herausgerissen oder den Graben zugeschüttet und seinesgleichen zugerufen: ‚Hört ja nicht auf diesen Betrüger. Ihr seid alle verloren, wenn ihr vergeßt, daß die Früchte allen gehören und die Erde keinem.‘“ Dennoch betrachtet er das Eigentum als „das heiligste von allen Bürgerrechten, in gewissen Beziehungen noch wichtiger als die Freiheit selbst […], weil das Eigentum die wahre Begründung der menschlichen Gesellschaft und der wahre Garant der Verpflichtung der Bürger ist.“
„Was der Mensch durch den Gesellschaftsvertrag verliert, ist seine natürliche Freiheit und ein unbegrenztes Recht auf alles, wonach ihn gelüstet und was er erreichen kann; was er erhält, ist die bürgerliche Freiheit und das Eigentum an allem, was er besitzt. Damit man sich bei diesem Ausgleich nicht täuscht, ist es notwendig, die natürliche Freiheit, die ihre Schranken nur in der Stärke des Individuums findet, deutlich von der bürgerlichen Freiheit zu unterscheiden, die durch den Gemeinwillen begrenzt ist, und den Besitz, der nur eine Folge der Stärke oder des Rechts des ersten Besitznehmers ist, vom Eigentum, das nur auf einen ausdrücklichen Titel gegründet werden kann.“ (CS I 8). Im republikanischen Staat Rousseaus ist die bürgerliche Freiheit durch das Gemeinwohl begrenzt. Entsprechend kann durch demokratischen Beschluss in die Verteilung des Einkommens eingegriffen und durch progressive Steuern eine größere Verteilungsgerechtigkeit hergestellt werden. „Der, welcher nur das einfach Notwendige hat, muß gar nichts beitragen; die Besteuerung desjenigen, der Überflüssiges besitzt, kann im Notfall bis zur Summe dessen gehen, was das ihm Notwendige übersteigt.“
Ähnlich wie Locke ein Einfluss auf die amerikanischen Verfassungen, insbesondere die Virginia Bill of Rights von 1776 zugeschrieben wird, hatten die Schriften Rousseaus Einfluss auf die Französische Revolution. In Artikel 17 der Erklärung der Menschen- und Bürgerrechte heißt es: „Da das Eigentum ein unverletzliches und heiliges Recht ist, kann es niemandem entzogen werden, es sei denn, dass dies die gesetzlich festgelegte öffentliche Notwendigkeit offensichtlich fordert, und dass eine gerechte und vorherige Entschädigung geleistet wird.“
Zur Bestimmung des Eigentums unterschied Immanuel Kant das innere und das äußere „Mein und Dein“. Das innere Mein und Dein ist das Recht an der eigenen Person. Eigentum als das äußere Mein und Dein besteht nicht von Natur aus, sondern wird erworben, denn es bedarf der Zustimmung eines anderen, weil durch Eigentum die Sphäre des anderen betroffen ist (RL, AA VI 245). Eigentum unterscheidet sich von sinnlichem Besitz dadurch, dass es ein intelligibler Besitz ist, den man sich nur durch den Verstand vorstellen kann. Eigentum ohne staatliche Gewalt ist nur provisorisch. Eigentum ist dann nicht legitimiert, wenn es andere in ihrer Freiheit beschränkt, ohne dass diese zugestimmt haben. Hieraus folgt, dass die Bildung von Eigentum denknotwendig zu einem republikanischen Staat führt.
Moderne.
Der Begriff der Moderne und seine Abgrenzung zur frühen Neuzeit sind wegen der Epochenschwelle und den daraus erwachsenden Taktierungen der Periodisierung unscharf. Reinhart Koselleck bezeichnete den Übergang – bildlich gesprochen – als Sattelzeit. Für die Theorie des Eigentums ist von Bedeutung, dass sich im Wechsel vom 18. zum 19. Jahrhundert nach den USA und Frankreich eine Reihe von Staaten eine republikanische Verfassung gegeben haben, die Grundrechte fixierten. In einer Reihe von Ländern wurde das Zivilrecht auf der Grundlage des römischen Rechts den neuen Bedürfnissen angepasst. Das Privatrecht wurde vernunftrechtlich ausgerichtet. In der wirtschaftlichen Entwicklung setzte sich die Industrialisierung stetig fort. Neben der abhängigen Landbevölkerung entstand in den Städten eine Arbeiterschaft, die in Manufakturen, aber auch in Bergwerken und Großbetrieben der Metallverarbeitung tätig waren. Unzureichende soziale Bedingungen führten zu einer Pauperisierung zunehmender Bevölkerungsteile und dem Aufkommen der Sozialen Frage. Aus der feudalen Ständegesellschaft wird eine Klassengesellschaft, in der das Eigentum an Produktionsmitteln einen wesentlichen Einfluss auf die Stellung in der Gesellschaft ausmacht.
Bereits zu Beginn des 19. Jahrhunderts setzte die Kritik der sich entwickelnden Verhältnisse ein. Für den Frühsozialisten Pierre-Joseph Proudhon galt: „Eigentum ist Diebstahl“. Aber auch romantische Philosophen wie Franz von Baader kritisierten die soziale Lage der Arbeiter. Eigentum war für Karl Marx und Friedrich Engels Ursache der Entfremdung und der Ausbeutung des Arbeiters. „Das Kapital hat die Bevölkerung agglomeriert, die Produktionsmittel zentralisiert und das Eigentum in wenigen Händen konzentriert. Die Arbeiter, die sich stückweise verkaufen müssen, werden zur Ware wie jeder andere Handelsartikel und daher gleichmäßig allen Wechselfällen der Konkurrenz, allen Schwankungen des Marktes ausgesetzt.“ Sie sahen daher im Kommunismus vor allem ein Projekt zur „Aufhebung des Privateigentums“ an Produktionsmitteln und der darauf basierenden Ausbeutung.
Erst die in der zweiten Hälfte des 19. Jahrhunderts einsetzende und seitdem fortschreitende Sozialgesetzgebung verminderte in den westlichen Industrieländern die Konfliktsituation zwischen Besitzenden und Besitzlosen allmählich und mit steigendem Wohlstand begann man von Schichten und schließlich von Milieus zu sprechen. Es bildeten sich bürgerliche Mittelschichten heraus, die ihrerseits Vermögen und Eigentum bildeten. In Russland führte hingegen die Revolution von 1917 zur Bildung eines sozialistischen beziehungsweise kommunistischen Staates, der das Privateigentum an Produktionsmitteln zwar unterdrückte, die Lohnarbeit jedoch beibehielt und noch verschärfte. Hinzu kam nach dem Zweiten Weltkrieg die Ausweitung des Machtbereichs der Sowjetunion in eine Reihe osteuropäischer Länder sowie die sozialistische Staatsbildung in der Volksrepublik China. Diese Regierungsformen, die das Privateigentum an Produktionsmitteln im Allgemeinen unterdrückten, waren zugleich mit erheblichen Einschränkungen individueller bürgerlicher Freiheiten verbunden und konnten sich teilweise nicht gegen die Konkurrenz und Politik der westlichen Industrieländer durchsetzten. Der Streit um die Frage des Privateigentums an Produktionsmitteln wird von reformistischen Kräften mehr als eine Frage der Verteilungsgerechtigkeit und des zulässigen Umfangs von Privateigentum geführt, aber auch radikale, anarchistische und kommunistische Bestrebungen zur Aufhebung des Privateigentums an Produktionsmitteln bestehen weiterhin weltweit.
Max Weber betrachtet das Eigentum aus der Perspektive sozialer Beziehungen, die er als „offen“ bezeichnet, wenn niemand daran gehindert ist, am gegenseitigen sozialen Handeln teilzunehmen. Wenn hingegen die Teilnahme beschränkt oder an Bedingungen geknüpft ist, spricht er von „Schließung“. Eine Schließung erfolgt immer dann, wenn die Beteiligten sich hiervon eine Verbesserung ihrer Chancen zur Befriedigung ihrer Bedürfnisse erwarten. Eine Schließung nach innen, das heißt innerhalb einer Gruppe, nennt Weber Appropriation. Rechte sind daher für ihn eine Appropriation von Chancen. „Erblich an Einzelne oder an erbliche oder Gesellschaften appropriierte Chancen sollen: „Eigentum“ (der Einzelnen oder der Gemeinschaften oder der Gesellschaften), veräußerlich appropriierte: „freies“ Eigentum heißen.“ Eigentum ist ein Instrument zur Regulierung von Beschaffungskonkurrenz. Hierdurch wird die Verfügungsgewalt über Güter beschränkt.
Die katholische Soziallehre schließt an Thomas von Aquin an und fasst das Eigentum als notwendigen Faktor zur Verwirklichung der individuellen Freiheit auf. Auf dem Zweiten Vatikanischen Konzil wurde festgestellt, dass das Privateigentum – auch an den Produktionsmitteln – zur „Selbstdarstellung der Person“ beiträgt und „den unbedingt nötigen Raum für eigenverantwortliche Gestaltung des persönlichen Lebens jedes einzelnen und seiner Familie“ schafft; das Recht auf Eigentum müsse gleichsam „als eine Art Verlängerung der menschlichen Freiheit“ betrachtet werden.
Der englische Experte für Römisches Recht und Rechtsphilosoph Tony Honoré betrachtet in seiner einflussreichen Arbeit 1961 Eigentum nicht mehr als einzelnes Recht, sondern als ein Bündel von elf Rechten, dargestellt in dieser Tabelle seiner Forschungsarbeiten. Eigentum bestimmt sich dabei durch ein Rechte- und Pflichtenbündel, umfassend Kriterien wie Besitz, Verwendung, Management, Ertrag, Verfügungsgewalt, Rechtsschutz, Ewigkeitsschutz, Schadensminderungs- und verhinderungspflicht, Surrogate.
Für John Rawls ist das Recht auf persönliches Eigentum in seiner "Theorie der Gerechtigkeit" eine der Grundfreiheiten, die gemäß dem ersten und obersten seiner beiden Prinzipien jedem Menschen uneingeschränkt zustehen, soweit durch diese Freiheiten nicht die Freiheiten anderer eingeschränkt werden. Dies sagt noch nichts über die Verteilung von Eigentum und das Recht auf Privateigentum aus, ein Eigentumssystem mit Kapital und Land im öffentlichen Besitz wäre vereinbar mit der Grundfreiheit. Soziale und ökonomische Ungleichheiten sind nach dem zweiten Prinzip nur soweit zulässig, soweit die am wenigsten Begünstigten einer Gesellschaft hieraus den größtmöglichen Vorteil ziehen. Aus dem zweiten Prinzip folgt, dass eine Umverteilung dann gerechtfertigt ist, wenn sie den am wenigsten Begünstigten einen größeren Vorteil bringt. In einer offenen Marktwirtschaft kann dies bedeuten, dass von einer Umverteilung insofern abzusehen ist, falls sich die Aussichten der wenigsten Begünstigten dadurch verschlechtert. In jedem Fall ist durch die Verteilung das Existenzminimum sicherzustellen.
Neben dem Eigentumsrecht, das sich nur auf körperliche Gegenstände beziehen kann, gewinnen seit der Industrialisierung die Rechte an geistigen Schöpfungen an Bedeutung („geistiges Eigentum“). Dies betrifft in der Gegenwart über die Frage des Urheberrechts hinaus das Eigentum an natürlichen Prozessen in der Gentechnik oder an immateriellen Gütern wie Software.
Eigentumsordnung und verfassungsrechtliche Schranken.
Die Eigentumsordnung einer Gesellschaft als Teil der Wirtschaftsordnung regelt die Verfügungsrechte über wirtschaftliche Güter. Neben der direkten Bestimmung des Eigentums im Privatrecht zählen zur Eigentumsordnung die Einstufung des Eigentums als Grundrecht in der Verfassung ("Schutz, Garantie" oder "Unverletzlichkeit des Eigentums") und eine Vielzahl von Regelungen im öffentlichen Recht (etwa Bodenrecht, Waldrecht, Nachbarschaftsrecht, Gemeindeordnungen), durch die der Gebrauch des Eigentums begrenzt wird. Erst das Zusammenspiel dieser gesetzlichen Bestimmungen spiegelt den materiellen Gehalt einer Eigentumsordnung wider. In der Theorie der Verfügungsrechte werden die Rechte auf Nutzung, Veräußerung, Veränderung und Vermietung eines Gutes unterschieden.
Die Gesamtheit des Eigentums einer Person (oder einer Gruppe, eines Unternehmens, einer Volkswirtschaft etc.) bezeichnet man auch als deren „Vermögen“. Im ursprünglichen Sinn des Wortes ist festgehalten, dass Eigentum Macht verleiht, etwa indem jemand andere Menschen dafür bezahlt, dass sie für ihn arbeiten.
Eigentumsordnungen lassen sich danach unterscheiden, welche Arten von Gütern privates Eigentum sein dürfen und welche nicht. Das kann Fragen der Sklaverei und Leibeigenschaft (Eigentum am Menschen) betreffen, aber auch Fragen des Erbadels und der Geschlechtererbfolge (Privilegierungen gegenüber ausgeschlossenen Dritten).
In Eigentumsordnungen werden Eingriffsrechte wie die Besteuerung von Eigentum und dessen Vererbung geregelt, ebenso die Voraussetzungen einer Enteignung nebst Entschädigungsleistungen (Sozialpflichtigkeit des Eigentums). Möglichen sozialen Konflikten kann somit durch Regelwerke begegnet werden. Die Abgrenzung von Eigentumssphären, die personale oder institutionelle Zuordnungen zulassen, vereinfachen viele Prozesse soziale Entscheidungsfindungen. Wenn alle über alles entscheiden, ist der Informations- und Entscheidungsprozess extrem aufwendig und kostet weit mehr Zeit, als wenn jeder nur über das Seine entscheidet.
Gemäß der Theorie der Verfügungsrechte ist der Vorzug des Privateigentums die Erzeugung einer starken Motivation des Eigentümers zu schonendem und sparsamem Gebrauch von Gütern und zur Schaffung neuer Güter. Kollektiveigentum hingegen führe zu unwirtschaftlichem Verhalten. Dennoch gab es gerade in der Landwirtschaft traditionell kollektives Eigentum. Im vorrevolutionären Frankreich etwa gab es unterschiedliche Formen gemeinschaftlichen Eigentums. Die Teilhaber am kollektiven Grundeigentum wurden von Mirabeau 1769 erstmals als „communistes“ benannt, er sah darin unter anderem soziale Vorteile. Außerdem gab es vor und nach der Revolution von 1789 unter freien Bauern familiale Gütergemeinschaften, die „communauté taisible“. Es komme zur Tragik der Allmende, dem Phänomen, dass Menschen weniger leisten, wenn sie kollektiv tätig sind, da sie weder die Folgen ihrer Handlungen in vollem Umfang tragen müssen noch den individuellen Einsatz in vollem Umfang zugerechnet bekommen.
Durch die Eigentumsordnung entstehen aber auch ganz neue Probleme. So ist Eigentum die ständige Tendenz immanent, ungleich verteilt zu werden, weil es zur Vermehrung für eigene Zwecke genutzt wird (Verleihen, Vermieten, Verpachten oder Investieren in gewinnbringende Projekte). Je ungleicher die Einkommens- und Vermögensverteilung in einer Gesellschaft werden, umso schärfer stellt sich die Frage nach der sozialen Gerechtigkeit. Mit der Schichtung der Gesellschaft nach Vermögen, entstehen soziale Unterschiede und Spannungen zwischen Armen und Reichen, zwischen Schuldnern und Gläubigern. Soziale Maßnahmen als Transferleistungen (private Wohltätigkeit, staatliche Sozialhilfe, institutionalisierter Schuldenerlass) werden notwendig, um soziale Spannungen abzubauen. Falls Eigentum vererbt wird, haben die Neugeborenen je nach Schichtzugehörigkeit von vornherein unterschiedliche Startchancen. Falls Eigentum nicht vererbt wird, schwindet bei älteren Menschen mit Kindern die Leistungsbereitschaft, weil sie nichts an ihre Kinder vererben können. Monopole werfen die Frage nach der sozialen Gerechtigkeit insofern auf, als keine Konkurrenz die Preise zügelt.
Gemeineigentum.
Gemeinschaftliches Eigentum.
Die erste Form des Gemeineigentums sesshafter Gesellschaften findet sich bei den Großreichen der Ägypter, Babylonier oder Perser. Ein mythisch häufig überhöhter Oberherr war – im Rahmen einer monarchisch-hierarchischen Organisationsform – Eigentümer gemeinschaftlichen Bodens, deren Besitzer diesen für familiäre und gemeinschaftliche Zwecke unter Teilabgabeverpflichtungen an den Herrn bearbeiteten. Gelegentlich wird diese Form etwas abschätzig als orientalische Despotie bezeichnet, weil erheblicher staatlicher Bürokratismus vorherrschte. Aus der genossenschaftlichen Organisationsform städtischer Gemeinschaften in Griechenland und im römischen Reich wiederum bildete sich in einigen Städten wie Athen, Korinth oder Rom, Grundeigentum großer Ordnungen heraus (antikes Grundeigentum). Diese Organisationsform trug oligarchische und plurale Züge in sich. Die Gemeinschaftsarbeiten der städtischen Bürgerschaft bestanden vornehmlich in der Ausbildung und Aufnahme der Kriegskunst und des Kultus. Das germanische Gemeineigentum wiederum hatte bis in die Neuzeit in Gestalt der Allmende Bestand.
Die Allmende findet sich in vielen traditionell geprägten Kulturen. Sie ist eine Zwischenform zwischen Individualeigentum und zentralisiertem Staatseigentum. Gemeint ist damit das kollektive Eigentum einer Gemeinschaft, etwa eines Dorfes, an gemeinsam nach bestimmten Regeln genutzten Ressourcen. Nachdem diese Form der Bewirtschaftung von natürlichen Ressourcen aus Perspektive der Tragik der Allmende lange Zeit als ungeeignet angesehen wurde, hat sich in den letzten Jahrzehnten die Bewertung geändert.
In angepasster Form gibt es Elemente des Gemeineigentums heute noch als staatliches oder kommunales Eigentum. Verwaltet wird es durch Behörden. Daneben gibt es genossenschaftliches oder kollektives Eigentum an Betrieben oder Immobilien, auch öffentliches Eigentum zur gemeinsamen Nutzung (Commons), etwa Parks oder öffentliche Gärten.
Sozialistische Eigentumsordnungen.
Die sozialistischen Ordnungen von Gemeineigentum sind als umfassende Eigentumsformen zu denken. Individuelle Verfügungsrechte werden darin zur Disposition gestellt. Ihr während des 20. Jahrhunderts entwickeltes Selbstverständnis beruht auf einer dialektischen Kritik des Privateigentum und auf neuer, revolutionärer Willensbildung der dahinter stehenden Rechtsgemeinschaft. Die gesellschaftlichen Produktionsmittel stehen in Gemeineigentum. Die Wertschöpfungsprozesse sind arbeitsteilig und kooperativ. Den sozialen Gegensatz von Arbeit und privatem Eigentum nannte Marx „Entfremdung“, weshalb er die „Diktatur des Proletariats“ forderte.
Im Kontext gleicher und allgemeiner Rechte dieses Zuschnitts stehen Begrifflichkeiten, die sich eigentumsordnungsrechtlich etwa so fassen lassen: Planwirtschaft (zentrale Organisation der Produktion und Distribution von Gütern), genossenschaftliche Selbstverwaltung (dezentrale Produktionskollektive) und sozialistische Marktwirtschaft (sich selbst regulierende Organisation). Gemeinsam ist allen Vorstellungen, dass Grundlage und Bedingung aller Produktion das gemeinschaftliche Volkseigentum an Grund und Boden ist. Bei freiem Zugang, besteht für den Einzelnen aber keine Möglichkeit private Verfügungsgeschäfte zu tätigen. Die sozialistische Marktwirtschaft verknüpft zentrale Planung und dezentrale Produktionsformen und ist den beiden vorgenannten Sichtweisen daher überlegen.
Der politische Gesamtrahmen lässt Privateigentum im Bereich der Produktion zu; allerdings ist der Gebrauch im Sinne der übergeordneten Planerfüllung zeitgleich staatlich kontrolliert. In Verfassungsrahmen sozialistischer Eigentumsordnungen ist das private Eigentum an den Produktionsmitteln nicht rechtlich geschützt, ihr Gebrauch hat dem Wohl des Staates zu dienen.
Sonderform: Gesellschaftliches Eigentum.
Eine Sonderform des Kollektiveigentums ist das „gesellschaftliche Eigentum“, eine Eigentumskonzeption des ehemaligen Jugoslawien. Diese Konzeption entstammt der sozialistischen Ideologie insofern, als es eine Abkehr vom marktwirtschaftlichen Eigentumsverständnis bedeutet. Es ist aber nicht mit dem vermeintlich kommunistischen Staats- oder Volkseigentum gleichzusetzen, bei dem der Staat der Rechtsträger ist und welches nach jugoslawischer Anschauung genau wie das Privateigentum zur Ausbeutung und Entfremdung der Arbeiter durch die Monopolisierung der wirtschaftlichen und politischen Macht führt.
In der jugoslawischen Verfassung von 1974 wird das gesellschaftliche Eigentum negativ definiert. "Niemand", weder eine Gebietskörperschaft, noch eine Organisation der vereinten Arbeit oder der einzelne Arbeiter ist Träger der Eigentumsrechte an den gesellschaftlichen Produktionsmitteln. Demnach erlangt niemand Eigentumstitel über das Produkt der gesellschaftlichen Arbeit oder kann über die gesellschaftlichen Produktivkräfte verfügen oder ihre Verteilung bestimmen.
Die Konkretisierung der Definition und die Interpretation des gesellschaftlichen Eigentums blieb seit seiner Einführung 1953 kontrovers und rechtlich umstritten. Den Kern des Meinungsstreits bildet die Frage, ob es sich beim gesellschaftlichen Eigentum um eine rechtliche oder rein sozioökonomische Kategorie handelt, sowie die Frage nach dem Träger des Eigentumsrechts, so dieses bejaht wird.
Ausgehend vom privatkapitalistischen bzw. marktwirtschaftlichen Verständnis wird auch vertreten, dass das gesellschaftliche Eigentum eher eine ordnungspolitische Kategorie als eine Rechtsform oder Kategorie des Eigentums ist. Beim gesellschaftlichen Eigentum fehlt weitgehend die Zuordnung der Herrschaft über eine Sache zu einer juristischen oder natürlichen Person wie in anderen Eigentumsverfassungen. Dennoch entstanden selbst aus dem gesellschaftlichen Eigentum gewisse Individualrechte und es lässt sich in diesem Sinne wohl von einer Eigentumskategorie sprechen, wenngleich sie eben keine Entsprechung in marktwirtschaftlichen Ordnungen findet.
Dementsprechend ist das gesellschaftliche Eigentum als ein Eigentumssurrogat oder eigentumsähnliches Nutzungsrecht einzustufen. Gleichwohl ist zu berücksichtigen, dass in dieser sozialistischen Eigentumsordnung Privateigentum nach marktwirtschaftlichen Vorstellungen nebenher weiter existierte.
Die Frage nach der rechtlichen Einordnung des gesellschaftlichen Eigentums gewann an Aktualität nach dem Auseinanderbrechen Jugoslawiens und bei dem Versuch der Klärung der Eigentumsverhältnisse Privater sowie bei der Unternehmensprivatisierung. In Bosnien und Herzegowina wurde zur Regelung der offenen Eigentumsansprüche Privater die "Commission for Real Property Claims" (CRPC) und im Kosovo das Wohn- und Eigentumsdirektorat ("Housing and Property Directorate / Claims Commission" – HPD/CC) errichtet. |
1237 | 403636 | https://de.wikipedia.org/wiki?curid=1237 | Evolution (Systemtheorie) | Evolution (vom lateinischen "evolvere" = abwickeln, entwickeln; PPP "evolutum") ist in der Systemtheorie ein Prozess, bei dem durch Reproduktion oder Replikation von einem System Kopien hergestellt werden, die sich voneinander und von ihrem Ursprungssystem durch Variation unterscheiden und bei dem nur ein Teil dieser Kopien auf Grund von Selektion für einen weiteren Kopiervorgang zugelassen werden.
Evolution im Allgemeinen.
Voraussetzungen der Evolution.
Die Evolution ist an drei notwendige Voraussetzungen gebunden:
Diese Voraussetzungen sind hinreichend trivial, so dass man logisch ableiten kann, dass sie an vielen Orten und Gelegenheiten im Universum gegeben sind. Die Ansichten darüber, ob sich Leben daraus entwickeln "muss", gehen jedoch weit auseinander. Weitgehend Einigkeit hingegen besteht in der Evolutionsbiologie darüber, dass die biologische Evolution nicht zwangsläufig zur Entwicklung von bewusster Intelligenz führt, denn diese ist nur ein Spezialfall, der an weitere, vermutlich sehr selten gegebene Bedingungen geknüpft ist. Der einzige Fall, von dem sicher bekannt ist, dass dies dort eintrat, ist unsere Erde. Aber auch hier wurden die Bedingungen der Evolution von Intelligenz erst nach mindestens 530 Millionen Jahren erfüllt, obwohl die fortschreitende Evolution von Vielzellern schon zuvor eine Reihe notwendiger Voraussetzungen für Intelligenzentwicklung bereitstellte.
Die Schwankung von Replikatorenhäufigkeiten in einer Population.
Als Evolution bezeichnet man heute allgemein jenen statistischen Vorgang, bei dem die Zusammensetzung einer Replikatoren-Population P2 aus einer Stichprobe einer zuvor bestehenden, anderen Replikatoren-Population P1 bestimmt wird. Wird aus P1 eine Stichprobe unterschiedlicher Replikatoren gezogen und aus ihr die Zusammensetzung von P2 bestimmt, so liegt Evolution vor. Läuft dieser Vorgang wiederholt ab, so weisen spätere Populationen – wie beispielsweise P5 oder P100 – jeweils schwankende Zusammensetzungen auf. Die Evolution kann auch als "kumulierender Stichprobenfehler" bezeichnet werden.
Eine evolutionsfähige Population ist eine Menge von Replikatoren. Letztere sind irgendwelche Objekte, von denen Kopien entstehen.
Die Evolution als statistischer Vorgang ist ein logisch und empirisch jederzeit beweisbares Faktum und in der Wissenschaft "nicht bestreitbar". Evolution läuft niemals an Objekten, sondern immer nur an Häufigkeiten von Objekten ab. Er kann grundsätzlich an allen Mengen ablaufen, die nicht einmal den bekannten physikalischen Gesetzen gehorchen müssen.
Verlauf der Evolution auf der Erde.
Evolution im hier definierten Sinn findet auf der Erde im Reich der Lebewesen statt. Der Begriff „Evolution“ wird außerhalb der Biologie teilweise anders definiert, für Vorgänge, die nach anderen Gesetzmäßigkeiten als „Replikation –> Variation –> Selektion“ verlaufen. Dies betrifft beispielsweise die Entstehung und Entwicklung von Galaxien, Sternen und Planeten inklusive der Erde; in den Gesellschaftswissenschaften unter anderem die soziokulturelle Entwicklung des Menschen und in der Systemtheorie die Entwicklung von Computerprogrammen. Die Gemeinsamkeit aller Vorgänge beruht auf einer geschichtlichen Entwicklung und häufig einer Entwicklung in Richtung höherer Komplexität. Aus biologischer Sicht kann diese synonyme Begriffsverwendung leicht zu Missverständnissen führen und ist insofern misslich.
Teilbereiche der Evolution.
Evolution der unbelebten Materie.
Dieses Thema beschäftigt sich mit dem Ursprung und der Entwicklung des Universums, dessen Teilchen und Elementen. Folgende Artikel befassen sich mit der Thematik:
Evolution der Lebewesen.
Die Evolution der Lebewesen ist ihre Entwicklung im Laufe großer Zeitspannen innerhalb der Erdgeschichte.
Siehe dazu:
Evolution der Psyche.
Unter bestimmten Bedingungen führt die Evolution zu Organismen, die über ein Bewusstsein verfügen. Dieser Entwicklungsprozess ist Gegenstand der Evolutionären Psychologie.
Evolution des Geistes.
In der Philosophie über lebende Systeme betrachtet man die wissenschaftliche Entwicklung als eine Fortsetzung der biologischen Evolution und spricht von einer Evolution des Geistes:
Lebewesen seien Träger genetisch gespeicherter Informationen. In der Evolution sammle sich mehr und genauere Information in den Lebewesen an. Der Mensch sei als einziges Lebewesen in der Lage, seine geistigen, im Gehirn gespeicherten Informationen auch außerhalb des Körpers zu speichern, zum Beispiel in Büchern oder auf Disketten. Diese Informationen, unter anderem die wissenschaftlichen Ideen (als „geistige Gene“ betrachtet), könnten an alle Menschen und die Nachwelt „vererbt“ werden. Die Mittel der Evolution, nämlich Vermehrung mit Varianten und deren Selektion, setzten sich fort als wissenschaftliche Hypothesenbildungen und deren Prüfung im Versuch.
Evolution der Meme.
Aufgrund zahlreicher empirischer Belege glaubt man heute einheitlich, dass die Evolution auf unserem Planeten nicht immer an denselben Replikatoren abgelaufen sein muss. Die Welt der Lebewesen, wie wir sie heute kennen, basierte zwar auf weiten Strecken auf einem chemischen Replikator, der DNA, sie ist jedoch nicht der einzige Replikator. Als weitere Replikatoren erwiesen sich beispielsweise Kristallstrukturen, die ebenfalls Kopien von sich selbst herstellen können. Auch informationstragende Einheiten, die nicht an eine chemische, sondern an eine (bio-)informatische Grundlage gebunden sind, werden als Replikatoren begriffen und wurden von Richard Dawkins 1976 als Meme bezeichnet.
Evolutorische Ökonomik.
In Form der evolutorischen Ökonomik haben Gedanken der biologischen Evolution auch Eingang in die Wirtschaftswissenschaften gefunden. Hintergrund ist, dass durch freie Märkte eine Selektion unter konkurrierenden Produkten oder Produktionsverfahren stattfindet, in der sich erwünschtere Produkte und effizientere Verfahren gegen weniger gewünschte und ineffizientere durchsetzen. Ständige Produktinnovationen führen so zu einer ständigen Weiterentwicklung, die – wie in der biologischen Evolution – Untersuchungsgegenstand ist. Während in der Biologie aber die Variationen oder Mutationen nur als zufällig modelliert werden, sind sie in der evolutorischen Ökonomik ebenfalls Untersuchungsgegenstand.
Beispiele.
Kettenbriefe.
Bei Kettenbriefen, die als E-Mail verbreitet werden, entfällt die Kopierungenauigkeit. Es gibt für diese Art der Kettenbriefe noch keine Untersuchungen darüber, ob Empfänger den Text bewusst ändern, um ihrer Version eine größere Verbreitung zu ermöglichen. |
1238 | 680112 | https://de.wikipedia.org/wiki?curid=1238 | Evolutionsstrategie | |
1239 | 3729235 | https://de.wikipedia.org/wiki?curid=1239 | Esoterik | Esoterik (von "esōterikós" ‚innerlich‘, dem inneren Bereich zugehörig, von innen her [verstehbar]) ist in der ursprünglichen Bedeutung des Begriffs eine philosophische Lehre, die nur für einen begrenzten „inneren“ Personenkreis zugänglich ist, im Gegensatz zu Exoterik als allgemein zugänglichem Wissen. Andere traditionelle Wortbedeutungen beziehen sich auf einen inneren, spirituellen Erkenntnisweg, etwa synonym mit Mystik, oder auf ein „höheres“, „absolutes“ Wissen.
Heute gibt es weder im wissenschaftlichen noch im populären Sprachgebrauch eine allgemein anerkannte Definition von "Esoterik" beziehungsweise "esoterisch".
In der Wissenschaft haben sich zwei grundlegend verschiedene Verwendungen dieser Bezeichnungen etabliert:
Im populären Sprachgebrauch versteht man unter Esoterik vielfach „Geheimlehren“. Ebenfalls sehr gebräuchlich ist der Bezug auf „höhere“ Erkenntnis und auf Wege, welche zu dieser führen sollen. Des Weiteren wird das Adjektiv „esoterisch“ häufig abwertend im Sinne von „unverständlich“ oder „versponnen“ verwendet. Dies bildet ab, dass „esoterisches Wissen“ nur von einem ausgewählten inneren Kreis verstanden wird, während das „exoterische Wissen“ allgemeinzugänglich, also „von außen“ zugänglich ist.
Begriffsgeschichte.
Antike.
Das altgriechische Adjektiv "esoterikos" ist erstmals im 2. Jahrhundert bezeugt: bei Galen, der bestimmte stoische Lehren so bezeichnete, und in einer Satire des Lukian von Samosata, wo sich „esoterisch“ und „exoterisch“ auf zwei Aspekte der Lehren des Aristoteles beziehen (von innen oder von außen betrachtet). Weit älter ist der Gegenbegriff „exoterisch“: Schon Aristoteles (384–322 v. Chr.) nennt seine propädeutischen, für Fachfremde und Anfänger geeigneten Kurse „exoterisch“ (nach außen hin gerichtet) und grenzt sie so vom streng wissenschaftlichen philosophischen Unterricht ab. Erst Cicero (106–43 v. Chr.) bezieht den Begriff „exoterisch“ auf eine bestimmte Gattung von Schriften des Aristoteles und der Peripatetiker, nämlich die „volkstümlich geschriebenen“, für die Öffentlichkeit bestimmten Werke (literarische Dialoge) im Gegensatz zu den nur für internen Gebrauch in der Schule geeigneten Fachschriften; die letzteren nennt er aber nicht „esoterisch“. Im Sinne dieser von Cicero getroffenen, nicht auf Aristoteles selbst zurückgehenden Einteilung des Schrifttums werden noch heute in der Altertumswissenschaft die „exoterischen“ von den „esoterischen“ Schriften des Aristoteles unterschieden. Die „esoterischen“ Schriften enthalten keine Geheimlehren, sondern nur Darlegungen, deren Verständnis philosophische Vorbildung voraussetzt. Schon Aristoteles’ Lehrer Platon war der Überzeugung, ein Teil seiner Lehren sei nicht zur Veröffentlichung geeignet (ungeschriebene Lehre). Daher ist in der modernen Forschungsliteratur von Platons „Esoterik“ oder „esoterischer Philosophie“ die Rede, womit die ungeschriebene Lehre gemeint ist.
Im Sinne von „geheim“ benutzte den Begriff "esoterikos" erstmals der Kirchenvater Clemens von Alexandria. In einem ähnlichen Sinn unterschieden Hippolyt von Rom und Iamblichos von Chalkis zwischen exoterischen und esoterischen Schülern des Pythagoras, wobei letztere einen "inneren Kreis" bildeten und bestimmte Lehren exklusiv empfingen. Ins Lateinische wurde das griechische Wort erst in der Spätantike übernommen; der einzige antike Beleg für das lateinische Adjektiv "esotericus" ist eine Stelle in einem Brief des Kirchenvaters Augustinus, der an Ciceros Angaben anknüpfend mit Bezug auf Aristoteles von „esoterischer Philosophie“ schrieb.
Allgemeiner Sprachgebrauch der Neuzeit.
Den Ausgangspunkt für die Entstehung des neuzeitlichen Esoterik-Begriffs bildete die auf die Pythagoreer bezogene Begriffsverwendung des Iamblichos. Man dachte dabei an die von Iamblichos überlieferte, in der modernen Forschung umstrittene Einteilung der Pythagoreer in die zwei rivalisierenden Gruppen der „Akusmatiker“ und der „Mathematiker“, die beide den Anspruch erhoben haben sollen, die authentische Lehre des Pythagoras zu vertreten. Ob es eine Geheimlehre der frühen Pythagoreer tatsächlich gegeben hat, ist in der Forschung umstritten, doch war die Vorstellung davon in der Frühen Neuzeit allgemein verbreitet und prägte den Begriff „esoterisch“. Man bezeichnete mit diesem Wort ein Geheimwissen, das ein Lehrer nur ausgewählten Schülern mitteilt.
Im Englischen kommt das Wort erstmals in der 1655–1662 erschienenen "History of Philosophy" von Thomas Stanley vor. Stanley schrieb, den inneren Kreis der Pythagoreer hätten die "Esotericks" gebildet. Im Französischen ist "ésotérique" erstmals 1752 im Dictionnaire de Trévoux bezeugt, 1755 auch in der Encyclopédie. Im Deutschen ist „esoterisch“ als Fremdwort, wohl aus dem Französischen oder Englischen übernommen, erstmals 1772 belegt; das Adjektiv wird ab dem späten 18. Jahrhundert zur Bezeichnung von Lehren und Kenntnissen verwendet, die nur für einen ausgesuchten Kreis Eingeweihter oder Würdiger bestimmt sind, sowie zur Charakterisierung von wissenschaftlichen und philosophischen Texten, die nur für einen kleinen, exklusiven Kreis von Fachleuten verständlich sind. Seit dem 20. Jahrhundert ist eine abwertende Konnotation verbreitet; „esoterisch“ hat oft die Bedeutung „unverständlich“, „geheimnistuerisch“, „weltfremd“, „versponnen“. (Siehe hierzu auch esoterische Programmiersprachen.) Das Substantiv „Esoteriker“ ist ab dem frühen 19. Jahrhundert gebräuchlich (erster Beleg 1813); anfangs bezeichnete es eine Person, die in die Geheimnisse einer Gesellschaft oder in die Regeln einer Kunst oder Wissenschaft eingeweiht ist.
Der Gebrauch des Substantivs „Esoterik“ (französisch "ésotérisme") beginnt 1828 in einem Buch von Jacques Matter über die antike Gnosis. Nachdem auch andere Autoren diesen Neologismus aufgegriffen hatten, wurde er 1852 erstmals in einem französischen Universallexikon als Bezeichnung für Geheimlehren aufgeführt. Weithin gebräuchlich wurde das Wort dann durch die einflussreichen Bücher von Éliphas Lévi über Magie, von wo aus es in das Vokabular des Okkultismus Eingang fand. Seither wurde es (wie auch das Adjektiv) von vielen Autoren und Strömungen als Selbstbezeichnung verwendet, wobei sie es oft in freier Weise neu definierten.
Heute wird „Esoterik“ weithin als Bezeichnung für „Geheimlehren“ verstanden, wobei es sich laut Antoine Faivre "de facto" allerdings zumeist um allgemein zugängliche „offene Geheimnisse“ handelt, die sich einer entsprechenden Erkenntnisbemühung erschließen. Nach einer anderen, ebenfalls sehr geläufigen Bedeutung bezieht sich das Wort auf eine "höhere" Stufe der Erkenntnis, auf „wesentliches“, „eigentliches“ oder „absolutes“ Wissen und auf die sehr vielfältigen Wege, welche zu diesem führen sollen.
Wissenschaftlicher Sprachgebrauch.
In der Wissenschaft haben sich zwei grundlegend verschiedene Verwendungen der Bezeichnung Esoterik oder esoterisch etabliert:
Geschichte der westlichen Esoterik.
Antike.
Erste Zeugnisse von Lehren und Sozialstrukturen, die aus heutiger Sicht der Esoterik zugerechnet werden können, finden sich schon recht früh im antiken Griechenland und im damals griechisch besiedelten Süditalien, wobei Pythagoras (*um 570; † nach 510 v. Chr.) als Gründer der religiös-philosophischen Schule und Bruderschaft der Pythagoreer in Kroton (heute Crotone) besonders herausragt. Pythagoras glaubte – ebenso wie die Orphiker und Anhänger verschiedener Mysterienkulte – an die Unsterblichkeit der Seele. Damit verbanden die Pythagoreer und die Orphiker die Vorstellung der Seelenwanderung (Reinkarnation). Sie betrachteten den Körper als eine vorübergehende Behausung der Seele, ja als einen Kerker, aus dem sie sich befreien müsse. Diese Erlösung von der körperlichen Existenz strebten sie durch ein sittlich einwandfreies Leben an, das zunächst zu einer Wiedergeburt auf höherer Stufe führen sollte, schließlich aber zur endgültigen Befreiung von der Körperwelt durch Beendigung der Reihe der Wiedergeburten. Diese Vorstellungen standen in scharfem Kontrast zu der älteren, von Homer repräsentierten Anschauung, in dessen Ilias der Begriff der Seele "(psyche)" zwar erstmals nachweisbar auftaucht, aber nur als Attribut der ganz mit dem Körper identifizierten Person. Zu den Anhängern des Reinkarnationsgedankens gehörten später auch andere bedeutende Philosophen wie Empedokles und Platon sowie alle antiken Platoniker.
Ein weiteres zentrales Motiv der Esoterik, das bei den Pythagoreern erstmals auftrat, ist die Erhebung der "Zahlen" zu den Prinzipien alles Seienden. Sie betrachteten die Welt als eine nach ganzzahligen Verhältnissen harmonisch geordnete Einheit "(Kosmos)", und den Weg der Läuterung der Seele sahen sie in der Unterwerfung unter die allgemeine, mathematisch ausdrückbare Harmonie aller Dinge. Auch die Idee der musikalisch begründeten Sphärenharmonie, basierend auf einem Vergleich der Planetenbewegungen mit den von den Pythagoreern entdeckten Zahlenverhältnissen der musikalischen Intervalle, hat hier ihren Ursprung. Sogar ein moralischer Aspekt wurde den Zahlen zugesprochen, indem man bestimmten Zahlen sittliche Qualitäten wie Gerechtigkeit oder Zwietracht zuordnete.
Platon (427–347 v. Chr.) war der Erste, der die Unsterblichkeit der Seele argumentativ zu beweisen versuchte (in seinem Dialog "Phaidon"). Dabei identifizierte er die Seele mit der Vernunft, die er als prinzipiell vom Körper unabhängig betrachtete. Ihre eigentliche Heimat sei das Reich der unvergänglichen Ideen und der reinen Geister, welcher sie entstamme und in welche sie nach dem Tod zurückkehre. Wie schon bei den Pythagoreern erscheint auch hier der Körper als Gefängnis, dem die Seele in der Reihe der Wiedergeburten durch eine reine Lebensführung entrinnen und in ein rein geistiges Dasein übergehen kann. Unverkörpert kann sie demnach die ewigen Wesenheiten, denen sie selbst angehört, unmittelbar schauen, während dieses Wissen im Körper verdunkelt ist und gewöhnlich nur im Zuge der in sich selbst begründeten Tätigkeit der Vernunft wie eine Erinnerung auftaucht. Neben den Lebewesen schrieb Platon auch den Gestirnen sowie dem Kosmos als ganzem eigene Seelen und damit Leben zu.
Esoterisch war Platons Philosophie auch in dem Sinne, dass sie auf einen "inneren" Weg verwies. Das Eigentliche seiner Lehre sei, so Platon, gar nicht mitteilbar, sondern nur der "eigenen" Erfahrung zugänglich. Er könne als Lehrer nur Hinweise geben, aufgrund derer wenige Auserwählte in der Lage sein würden, sich selbst dieses insofern esoterische Wissen zu erschließen, das in solchen Fällen plötzlich als Idee in der Seele entspringe und sich dann selbst weiter seine Bahn breche.
Das Motiv eines inneren Kreises von „Eingeweihten“ (Grundmann) oder Auserwählten, teils verbunden mit der Aufforderung zur Geheimhaltung (Arkandisziplin), tritt auch in den frühchristlichen Schriften, die später als Evangelien in das Neue Testament aufgenommen wurden, des Öfteren auf, wobei allerdings nicht durchgängig ein bestimmter Menschenkreis gemeint ist. Insofern kann von neutestamentlichen Ansätzen einer christlichen Esoterik gesprochen werden, wie der Esoterikforscher Gerhard Wehr es tut. Diesen von Jesus persönlich Auserwählten steht der Apostel Paulus gegenüber, der Jesus nie persönlich begegnet war und dessen Anhänger sogar vehement bekämpfte, aber durch eine "innere" Offenbarung („Damaskuserlebnis“) zum Christentum bekehrt und schließlich zu dessen erfolgreichstem Missionar wurde. Hier spricht Wehr von „paulinischer Esoterik“ im Sinne des inneren Weges. Paulus erhob den Anspruch, das „Pneuma“ (Geist) Gottes empfangen zu haben und daher das Wesen und den Willen Gottes zu kennen, denn der Geist ergründe (anders als die menschliche Weisheit) alles, „auch die Tiefen Gottes“. Eine Sonderstellung unter den Schriften des Neuen Testaments nehmen noch das Johannes-Evangelium und die Offenbarung des Johannes ein, die etwa der Philosoph Leopold Ziegler als „ein durchaus esoterisches Schrifttum“ bezeichnete. Diese Sonderstellung wurde auch im frühen Christentum schon zum Ausdruck gebracht, indem man das Johannes-Evangelium als das „geistige“ oder „pneumatische“ Evangelium von den anderen unterschied (Clemens von Alexandria, Origenes).
An Platons Seelenlehre schloss in nachchristlicher Zeit der Neuplatonismus an, dessen herausragender Vertreter der in Rom wirkende Plotin (205–270 n. Chr.) war und der als die bedeutendste philosophische Richtung der ausgehenden Antike gilt. Plotin zog die äußerste Konsequenz aus Platons Ansatz, indem er den ekstatischen Aufschwung zum „Einen“, wie er das Göttliche nannte, das Gewahrwerden des Urgrundes aller Dinge in uns selbst, als das „wahrhafte Endziel für die Seele“ bezeichnete. „An seinem höchsten Punkt erweist sich Plotins Denken als Mystik“, wie der Philosoph Wolfgang Röd schreibt, und der Esoterikforscher Kocku von Stuckrad sieht hier den „archimedischen Punkt europäischer Seeleninterpretation“ und den „Dreh- und Angelpunkt auch heutiger esoterischer Anschauungen“ wie etwa der New-Age-Bewegung. Noch stärker als bei Plotin trat dieses mystische Element, verbunden mit magischen Praktiken, bei späteren Neuplatonikern wie Iamblichos (etwa 275–330 n. Chr.) und Proklos (5. Jh.) hervor. Diese Philosophen folgten dem in jener Zeit überhaupt sehr verbreiteten Interesse an mystischer Religiosität, Magie und Wahrsagung. Röd spricht in diesem Zusammenhang von einer Verwandlung der neuplatonischen Philosophie „zu einer Art Theosophie und Theurgie“.
Eine andere in der hellenistischen Antike gestiftete Tradition, die für die Esoterik eine große Bedeutung erlangen sollte, ist die Hermetik, die sich auf Offenbarungen des Gottes Hermes beruft und eine Synthese griechischer Philosophie mit ägyptischer Mythologie und Magie darstellt. Hier trat das bis dahin im griechisch-römischen Denken wenig geläufige Motiv des Mittlers in den Vordergrund, der – ob als Gott oder als „aufgestiegener“ Mensch – höheres Wissen offenbart. Ein weiteres Grundmotiv der Hermetik wie auch der späteren Esoterik allgemein ist die Vorstellung einer alles verbindenden "Sympathie", welche die astrologischen Entsprechungen zwischen Makrokosmos und Mikrokosmos begründen sollte. Später trat das neuplatonische Konzept des Aufstiegs der unsterblichen Seele durch die Planetensphären und der damit verbundenen Erlösung bis hin zum Einswerden mit Gott hinzu, ermöglicht durch Erkenntnis und durch die Erfüllung bestimmter ethischer Anforderungen.
Eine besondere Ausprägung erfuhr der Gedanke der Erlösung der Seele durch höhere Erkenntnis in diversen religiösen Strömungen der Spätantike, die zusammenfassend als Gnosis bezeichnet werden. Diese vielfältige Bewegung entstand im ersten nachchristlichen Jahrhundert im Osten des Römischen Reiches und in Ägypten. Sie trat in heidnischen, jüdischen und christlichen Spielarten auf. In ihr verbanden sich Elemente der griechischen Philosophie mit religiösen Vorstellungen. Grundlegend war dabei zumeist ein schroffer Dualismus, d. h. eine scharfe Trennung zwischen der geistigen Welt, der die menschliche Seele entstammt, und der im Grunde nichtigen materiellen Welt, an die sie vorübergehend gebunden ist, – auch verstanden als Gegensatz von Licht und Finsternis oder von Gut und Böse. Die heiligen religiösen Schriften wurden unter diesem Gesichtspunkt als verschlüsselte Botschaften betrachtet, die von „Pneumatikern“, denen das höhere Wissen über die geistige Wirklichkeit zugänglich war, verfasst worden seien und die auch nur von Pneumatikern wirklich verstanden werden könnten. Speziell in der christlichen Gnosis trat noch die Erlösergestalt des Christus und die damit verbundene Vorstellung eines entscheidenden Wendepunktes der Weltgeschichte hinzu.
Die Gnosis stieß auf zunehmenden Widerspruch sowohl von philosophischer Seite (besonders Plotin) wie auch vonseiten der sich etablierenden und institutionell festigenden christlichen Großkirche, wobei eine scharfe Trennung zwischen der im Entstehen begriffenen kirchlichen Theologie und den heterogenen Spielarten der christlichen Gnosis allerdings kaum möglich war und ist. So standen die einflussreichen Theologen Clemens und Origenes der Gnosis nahe, indem auch sie eine höhere, „geistige“ Erkenntnis propagierten und für sich in Anspruch nahmen, und Origenes wurde von seinem späteren Gegner Epiphanius von Salamis gar als „Oberhaupt der Ketzer“ bezeichnet. Problematisch ist zudem, dass die Bezeichnungen „Gnosis“ und „Gnostizismus“ im Wesentlichen von den kirchlichen Gegnern geprägt wurden, während die so Bezeichneten sich selbst zumeist einfach „Christen“ oder gar „orthodoxe“ Christen nannten. Eine wesentliche Differenz zwischen den kirchlichen Kritikern und den von diesen so genannten Gnostikern bestand darin, dass letztere die eigene Erkenntnis (griech. "gnosis") des Einzelnen betonten und eine „Selbstermächtigung des erkennenden Subjekts“ (Stuckrad) propagierten, während die Kirche großen Wert auf die Begrenztheit des menschlichen Erkenntnisvermögens legte und die höchsten Wahrheiten nur in der göttlichen Offenbarung gegeben sah, die – unter Berufung auf die Amtsnachfolge (apostolische Sukzession) – allein in den von ihr anerkannten (kanonisierten) Schriften sowie in den von ihr vorgegebenen festen Bekenntnisformeln zu finden sei. Im Konkreten entzündeten sich die Auseinandersetzungen besonders an Fragen der Astrologie und der Magie. Ab dem 4. nachchristlichen Jahrhundert hatte sich die Macht der Kirche so weit gefestigt, dass bereits geringfügige Abweichungen vom „rechten Glauben“ mit dem Tod durch Feuer oder Schwert geahndet werden konnten. Die Zeugnisse der Ansichten dieser „Häretiker“ wurden vernichtet und gingen fast restlos verloren, so dass man sich bis weit ins 20. Jahrhundert hinein weitgehend auf die nicht gerade unparteiischen Schilderungen erklärter Gegner wie Irenäus von Lyon stützen musste. Erst 1945 wurde in Nag Hammadi, Ägypten, eine Sammlung gnostischer Texte entdeckt, die den „Säuberungen“ entgangen war und erstmals einen umfassenden und unverfälschten Einblick in dieses nach eigener Einschätzung wahre oder orthodoxe Christentum erlaubte. Desgleichen gilt für den bereits 1930 gemachten Fund von Medinet Madi, der die ältesten bekannten manichäischen Originalhandschriften (4. Jh.) bewahrte. Im aus diesen Schriften rekonstruierten Mythos der synkretistischen Weltreligion werden die Stufen geschildert, wie das Licht in die Welt gelangte und es durch Mitwirkung des Menschen auf dem gleichen Weg wieder zurück in das Lichtreich kehren kann.
Mittelalter.
Im Mittelalter gerieten große Teile dieser antiken Lehren im christlichen Kulturraum in Vergessenheit, während sie im islamischen Raum bewahrt und vielfach aufgegriffen wurden und teils auch in die jüdische Mystik einflossen. Insbesondere solche Lehren, die eine individuelle Erlösung implizierten oder sich auf religiöse Urkunden beriefen, welche keinen Eingang in den biblischen Kanon gefunden hatten, wurden aus dem orthodoxen Christentum ausgegrenzt. Daneben bestanden allerdings im Mittelmeerraum pagane („heidnische“) Religionen fort, und im Nahen Osten blieben vor allem der Manichäismus, der Zoroastrismus und der Islam neben dem orthodoxen Christentum bestehen.
Auf der anderen Seite boten innerhalb des letzteren die neu entstehenden Klöster – insbesondere die des 529 gegründeten Benediktiner-Ordens – Raum für die Pflege kontemplativer Mystik, die sich nun auch nach Norden ausbreitete. Eine große Bedeutung für die mittelalterliche Mystik erlangten einige im 5. und 6. Jahrhundert aufgetauchte Schriften, als deren Autor Dionysios Areopagita genannt wurde, ein Zeitgenosse des Paulus, den dieser in der Apostelgeschichte erwähnt hatte. Dieser Dionysios vertrat eine stark platonisch geprägte „negative“ Theologie, in welcher er zum Ausdruck brachte, dass Gott aller herkömmlichen Erkenntnis unzugänglich sei. Erst der vollkommene Verzicht auf alles „Wissen“ im herkömmlichen Sinn ermögliche die „Einung“ mit Gott und damit eine Erkenntnis, die alles Wissbare sprenge. Daneben war Dionysios der Erste, der eine strukturierte Hierarchie der Engel, d. h. der zwischen Gott und dem Menschen vermittelnden geistigen Wesen, vorlegte. Erst etwa tausend Jahre später kamen ernsthafte Zweifel auf, ob der Autor dieser Schriften wirklich der von Paulus Erwähnte sein konnte, und heute gilt als erwiesen, dass sie frühestens gegen Ende des 5. Jh. entstanden sein konnten. Der Autor wird daher heute meist als Pseudo-Dionysius Areopagita bezeichnet.
Ab dem 8. Jahrhundert konnten sich in Südspanien unter der Herrschaft der in religiösen Dingen sehr toleranten Mauren in friedlicher Koexistenz allerlei Spielarten islamischer, jüdischer und christlicher Spiritualität entfalten, unter denen hier vor allem der islamische Sufismus zu nennen ist. Auch Platon und andere griechische Philosophen wurden von hier aus im westlichen Europa näher bekannt.
Die herausragende Gestalt der frühmittelalterlichen Mystik und zugleich der bedeutendste Philosoph seiner Epoche war der im 9. Jahrhundert lebende Johannes Scotus Eriugena, der von Kaiser Karl dem Kahlen an die Pariser Hofschule berufen wurde. Seine Lehre war stark von Dionysios Areopagita und dem Neuplatonismus beeinflusst, und er legte die ersten brauchbaren Übersetzungen der Werke des Dionysios ins Lateinische vor, wodurch diese auch im Westen ihre Wirkung entfalten konnten. Ein zentrales Thema seiner Lehre war die Rückkehr des Menschen zu Gott, die „Gottwerdung“ (lat. "deificatio" oder griech. "théosis") durch Erhöhung des Bewusstseins, also ganz im Sinne des Neuplatonismus. Freilich wurden seine Ansichten schon zu seinen Lebzeiten von lokalen Synoden verurteilt, und im 13. Jahrhundert wurden auf Geheiß des Papstes alle greifbaren Exemplare seines Hauptwerks vernichtet.
Eine mit der frühchristlichen Gnosis vergleichbare Bewegung sind die Katharer, über die ab der Mitte des 12. Jahrhunderts Berichte vorliegen, deren Ursprung aber weitgehend im Dunkeln liegt. Der Schwerpunkt dieser sich schnell ausbreitenden spirituellen Bewegung lag in Südfrankreich und Norditalien. Sie wich in wesentlichen Punkten von der römisch-katholischen Lehre ab und wurde daher bald massiv bekämpft. Das Katherertum knüpfte vor allem an die Spiritualität des Johannes-Evangeliums an, während es große Teile des Alten Testaments ablehnte. Des Weiteren betrachtete es Christus nicht als Menschen, sondern als einen vom Himmel gesandten Erlöser. Die Erlösung sahen die Katharer darin, dass die Menschenseele aus der als finster betrachteten materiellen Welt in ihre Lichtheimat zurückkehren würde. Die Gemeinschaft der Katharer war streng hierarchisch geordnet; nur der kleine Kreis der in strenger Askese lebenden „Vollendeten“ wurde in ihre Geheimlehre eingeweiht. Als vor allem in weiten Teilen Südfrankreichs sehr beliebte „Gegenkirche“ entwickelte sie sich zur bedeutendsten Konkurrenz der römischen Kirche im Mittelalter, bis diese zu einem regelrechten Kreuzzug aufrief, in dessen Folge das Katharertum vollständig vernichtet wurde.
Als neue mystische Geheimlehre trat im 12. Jahrhundert in Südfrankreich und Spanien die jüdische Kabbala auf, die zunächst im Judentum eine große Bedeutung erlangte, später aber auch außerhalb desselben in der Geschichte der Esoterik eine bedeutende Rolle spielen sollte. Ursprünglich auf die Deutung der Heiligen Schrift (Tora) beschränkt, entwickelte die Kabbala bald auch eine eigenständige theologische Lehre (siehe Sephiroth), die mit magischen Elementen (Theurgie) verbunden war. Manche Kabbalisten (am prominentesten Abraham Abulafia) vertraten (wie die christlichen Gnostiker) die Ansicht, dass man nicht nur durch Interpretation der Tora, sondern auch durch direkte mystische Erfahrung zu „absolutem“ Wissen gelangen könne.
Bis ins 13. Jahrhundert finden sich auch innerhalb des offiziellen Christentums noch wesentliche Teile dessen, was man später als Esoterik bezeichnen würde, darunter kosmologische Lehren, das Denken in Entsprechungen, die Imagination und die Idee der spirituellen Transformation. Beispiele dafür sind in Deutschland die Mystikerin Hildegard von Bingen, in Frankreich die platonisch ausgerichtete Schule von Chartres (Bernardus Silvestris, Guillaume de Conches, Alanus ab Insulis), in Italien der Visionär Joachim von Fiore und die Franziskaner, in Spanien die neuplatonisch geprägte, der Kabbala nahestehende Lehre des Mallorquiners Ramon Llull und in England die Schule von Oxford (Theosophie des Lichts bei Robert Grosseteste, Alchemie und Astrologie bei Roger Bacon). Um 1300 setzte sich jedoch in der Theologie der Averroismus durch, der den Rationalismus betont und Imaginatives ablehnt.
Speziell die Mystik erfuhr allerdings in der ersten Hälfte des 14. Jahrhunderts einen bemerkenswerten Aufschwung und eine Popularisierung, indem ihre Vertreter zum Gebrauch der jeweiligen Volkssprache anstelle des Lateinischen übergingen. Am bedeutendsten waren hier die deutschen Dominikaner Meister Eckhart, Johannes Tauler und Heinrich Seuse; Vergleichbares gab es jedoch auch in den Niederlanden, in England, Frankreich, Italien und Spanien. Bei aller Vielfalt des von diesen Mystikern geschilderten inneren Erlebens und der von ihnen verwendeten Begriffe war ihnen das Ziel der "Unio mystica", der mystischen Vereinigung oder Kommunion des Menschen mit Gott, gemeinsam, die „Gottesgeburt im Seelengrund“. In Eckharts mystischem Denken erreichte die mittelalterliche Mystik einen Höhepunkt; zugleich bildet es aber den Ausgangspunkt für eine neue Richtung der Mystik, die bis in die frühe Neuzeit hinein wirken sollte. Bei ihm stand „Mystik“ nicht für ekstatische Verzückung, sondern für eine besondere Denkweise, die über das Argumentieren und Schlussfolgern hinausgeht und zu einem unmittelbaren Erfassen des Absoluten, ja zum Einswerden mit diesem führt. Damit knüpfte Eckhart an Johannes Scotus Eriugena, Pseudo-Dionysios Areopagita und den Neuplatonismus an. Da er sich vielfach der deutschen Sprache bediente, wurde er zum wirkungsmächtigsten Vertreter dieser platonischen Richtung innerhalb der christlichen Theologie, obwohl Teile seiner Lehre posthum als Häresie verurteilt wurden und auch seine allgemeinverständliche Verbreitung schwieriger theologischer Erörterungen auf Kritik stieß.
Esoterische Praktiken wie die Magie und die Astrologie waren im Mittelalter verbreitet. Zur Magie gehörte auch die Beschwörung (Invokation) von Dämonen und Engeln, wobei die Existenz von Dämonen als gefallener Engel auch in der Theologie anerkannt war. Die Alchemie erlangte erst im 12. Jahrhundert eine gewisse Bedeutung, ausgehend von arabisch-muslimischen Quellen in Spanien.
Frühe Neuzeit.
In der Renaissance, in der man sich auf die Antike zurückbesann, erlebte auch die Esoterik einen Aufschwung. Maßgeblich dafür waren die Wiederentdeckung bedeutender hermetischer Schriften "(Corpus Hermeticum)", die Erfindung des Buchdrucks mit beweglichen metallenen Lettern, durch den sich ein viel breiteres Publikum erschloss, und auch die Auswirkungen der Reformation. Antoine Faivre, der Altmeister der Esoterikforschung, sieht im 16. Jahrhundert sogar den eigentlichen „Ausgangspunkt dessen, was man später als Esoterik bezeichnen sollte“, und betrachtet daher vergleichbare Erscheinungen in der Antike und im Mittelalter lediglich als Vorläufer der Esoterik: „als sich die Naturwissenschaften von der Theologie ablösten und man begann, sie um ihrer selbst willen zu betreiben […], da konnte sich die Esoterik als eigener Bereich konstituieren, der in der Renaissance zunehmend die Schnittstelle zwischen Metaphysik und Kosmologie einnahm“.
Das "Corpus Hermeticum", eine Sammlung von Schriften, die dem nach neuerer Kenntnis fiktiven Autor Hermes Trismegistos zugeschrieben wurden, wurde 1463 in Makedonien entdeckt und gelangte in den Besitz des Mäzens Cosimo de’ Medici in Florenz. Diese Texte schienen sehr alt zu sein, sogar älter als die Schriften Moses und damit die gesamte jüdisch-christliche Überlieferung, und eine Art „Urwissen“ der Menschheit zu repräsentieren. Cosimo gab deshalb sofort eine Übersetzung ins Lateinische in Auftrag, die 1471 erschien und großes Aufsehen erregte. Das Corpus wurde als „ewige Philosophie“ "(Philosophia perennis)" betrachtet, die der ägyptischen, griechischen, jüdischen und christlichen Religion als gemeinsamer Nenner zugrunde liege. Dank des Buchdrucks erlangte es weite Verbreitung, und bis 1641 kamen 25 Neuauflagen heraus; auch wurde es in verschiedene andere Sprachen übersetzt. Im 16. Jahrhundert kamen jedoch Zweifel an der korrekten Datierung dieser Texte auf, und 1614 konnte der Genfer Protestant Isaac Casaubon nachweisen, dass sie erst in nachchristlicher Zeit entstanden sein konnten. Da hatten sie ihre enorme Wirkung jedoch längst entfaltet.
Der Übersetzer des "Corpus Hermeticum", Marsilio Ficino (1433–1499), übertrug auch die Werke Platons und etlicher Neuplatoniker ins Lateinische und verfasste eigene Kommentare und Einführungen in die platonische Philosophie. Die Neuplatoniker wurden dadurch nach langer Vergessenheit überhaupt erst wieder bekannt, und Platon wurde im Wortlaut verfügbar. Auch das hatte enorme Auswirkungen. Platonisches Gedankengut wurde gegen die aristotelisch geprägte Theologie in Stellung gebracht. Ein Aspekt dieser Kontroversen betraf die Frage, wie weit menschliche Erkenntnis reichen kann, womit ein wesentlicher Konflikt aus Zeiten des frühen Christentums wieder auflebte (vgl. oben). Manche Neuplatoniker der Renaissance vertraten sogar pantheistische Positionen, was aus Sicht des monotheistischen Christentums an Häresie grenzte.
Ein dritter wichtiger Einfluss auf die Esoterik der Renaissance ging von der Kabbala aus, indem deren Methoden zur Deutung der religiösen Urkunden auch von Christen übernommen wurden. Die bedeutendsten Vertreter dieser „christlichen Kabbala“ waren Giovanni Pico della Mirandola (1463–1494), Johannes Reuchlin (1455–1522) und Guillaume Postel (1510–1581). Im Zentrum der christlich-kabbalistischen Hermeneutik stand der Versuch, auch auf der Grundlage der originär jüdischen Überlieferung die Wahrheit der christlichen Botschaft (Christus ist der Messias) zu beweisen. Das war teils mit anti-jüdischer Polemik verbunden (die Juden würden ihre eigenen heiligen Schriften nicht richtig verstehen), rief aber auf der anderen Seite die Inquisition auf den Plan, was 1520 in der Verurteilung Reuchlins durch den Papst kulminierte.
In Deutschland entwickelte der Kölner Philosoph und Theologe Heinrich Cornelius Agrippa von Nettesheim (1486–1535) aus Elementen der Hermetik, des Neuplatonismus und der Kabbala eine „okkulte Philosophie“ ("De occulta philosophia", 1531). Darin unterschied er drei Welten: die elementare, die himmlische und die göttliche Sphäre, denen beim Menschen Körper, Seele und Geist entsprechen. Die antike Lehre von den vier Elementen (Erde, Wasser, Luft und Feuer) ergänzte er durch eine „fünfte Essenz“, womit er den Begriff der Quintessenz prägte. Größte Bedeutung maß Agrippa der Magie bei, die er als höchste Wissenschaft und erhabenste Philosophie auffasste. Nicht durch Wissenschaft im herkömmlichen Sinn, die er scharf verurteilte, sondern nur durch den „guten Willen“ könne der Mensch sich in mystischer Ekstase dem Göttlichen annähern.
Die neuplatonische Dreiteilung von Mensch und Welt und die Entsprechung von Mikrokosmos (Mensch) und Makrokosmos liegen auch der medizinischen Lehre des Paracelsus (1493–1541) zugrunde. Neben den vier Elementen maß er besonders den drei Prinzipien der Alchemie (Sal, Sulfur und Mercurius) eine große Bedeutung bei. Der Quintessenz Agrippas entspricht bei ihm der "Archaeus", eine organisierende und formbildende Kraft. Für Paracelsus gehörte auch die Astrologie notwendig zur Medizin hinzu, denn der Mensch trage den ganzen Kosmos in sich, Diagnose und Therapie setzten genaue Kenntnisse der astrologischen Entsprechungen voraus, und die Beurteilung des Krankheitsverlaufs und der Wirkung von Medikamenten müsse unter Berücksichtigung der Planetenbewegungen erfolgen.
Zu den bedeutenden Esoterikern der frühen Neuzeit gehört auch Giordano Bruno (1548–1600). Er schrieb mehrere Bücher über Magie, die er als mit der empirischen Naturwissenschaft vereinbar ansah "(Magia naturalis)", und vertrat die Lehre von der Seelenwanderung. Mit der im Geiste Brunos sich vom kirchlichen Dogmatismus befreienden Naturwissenschaft schienen esoterische Anschauungen dagegen vielfach kompatibel zu sein. So waren die astronomischen „Revolutionäre“ Nikolaus Kopernikus (1473–1543), Galileo Galilei (1564–1642) und Johannes Kepler (1571–1630) überzeugte Anhänger der Astrologie, Kepler und Galilei praktizierten diese sogar, und Isaac Newton (1643–1727), der neben Galilei als Begründer der exakten Naturwissenschaft gilt, verfasste daneben auch Beiträge über Hermetik, Alchemie und Astrologie.
An die Forderung Martin Luthers, neben der Bibel nur auf einen individuellen Zugang zu Gott zu vertrauen, knüpfte im 16. und 17. Jahrhundert die „klassische“ christliche Theosophie an. Deren wichtigster Vertreter war Jakob Böhme (1575–1624), ein Schuster, der im Alter von 25 Jahren nach einer schweren Lebenskrise eine mystische Vision hatte und später darüber schrieb. Nach Böhme ist der Ausgangspunkt allen Seins der „Zorn Gottes“, den er jedoch nicht wie das Alte Testament als eine Reaktion auf menschliche Verfehlungen, sondern als ein willenshaftes Urprinzip beschreibt, das vor der Schöpfung, ja „vor der Zeit“ besteht. Dem Zorn steht die Liebe gegenüber, die als Sohn Gottes oder auch als dessen Wiedergeburt angesehen wird. Diesen „wiedergeborenen Gott“ kann der Mensch nur erkennen, wenn er selbst „wiedergeboren“ wird, indem er mit Gott kämpft und durch einen Gnadenakt von diesem Kampf erlöst und mit absolutem Wissen beschenkt wird. Diese theosophische Lehre Böhmes wurde als häretisch eingestuft, und nachdem ein erstes, nicht zur Veröffentlichung bestimmtes Manuskript in die Hände eines Pfarrers gelangt war, wurde der Autor zeitweilig inhaftiert und schließlich mit einem Publikationsverbot belegt. Jahre später (ab 1619) widersetzte er sich jedoch diesem Verbot, und seine Schriften trugen in hohem Maß zur Ausbildung eines spirituellen Bewusstseins auf der Grundlage des Protestantismus bei.
In den Jahren 1614 bis 1616 erschienen einige mysteriöse Schriften, die großes Aufsehen erregten. Ihre anonymen Autoren beriefen sich auf die mythische Gestalt des Christian Rosencreutz, der von 1378 bis 1484 gelebt haben soll und dessen Hinterlassenschaft sie in seinem Grab entdeckt hätten. Die von diesen ersten Rosenkreuzern propagierte Lehre ist eine Synthese verschiedener esoterischer und naturphilosophischer Traditionen mit der Idee einer „Generalreformation“ der ganzen Welt. Ihre Publikation löste eine Flut von zustimmenden und ablehnenden Kommentaren aus; schon 1620 waren über 200 diesbezügliche Schriften erschienen. Der angeblich dahinter stehende geheime Orden bestand nach heutigem Kenntnisstand jedoch wahrscheinlich nur aus wenigen Personen an der Tübinger Universität, darunter Johann Valentin Andreae (1586–1654).
Aufklärung und Romantik.
Einen wichtigen Wendepunkt in der Rezeption esoterischer Lehren markiert die 1699/1700 publizierte "Unparteyische Kirchen- und Ketzer-Historie" von Gottfried Arnold, in der erstmals ein Überblick über „alternative“ Anschauungen innerhalb des Christentums gegeben wurde, ohne diese als Irrlehren zu verdammen. Der Protestant Arnold rehabilitierte insbesondere die Gnosis, indem er sie als Suche nach „ursprünglicher Religiosität“ beschrieb.
Im 18. Jahrhundert entwickelte sich eine im Vergleich zu den „Klassikern“ wie Jakob Böhme weniger visionäre, dafür stärker intellektuell geprägte Theosophie. Deren wichtigster Vertreter, Friedrich Christoph Oetinger (1702–1782), war zugleich auch ein bedeutender Propagator der lurianischen Kabbala im deutschen Sprachraum. Durch die erste deutsche Übersetzung im Jahre 1706 wurde das "Corpus Hermeticum" breiter bekannt und zum Gegenstand wissenschaftlicher Darstellungen. Populär waren Themen wie Vampirismus und Hexerei, und Gestalten wie der Graf von Saint Germain oder Alessandro Cagliostro hatten Konjunktur. Daneben etablierte sich eine institutionalisierte Esoterik in Form von Geheimen Bruderschaften, Orden und Logen (vor allem die Rosenkreuzer und Teile der Freimaurerei).
Eine Sonderstellung im Bereich der Theosophie nimmt der renommierte schwedische Naturwissenschaftler und Erfinder Emanuel Swedenborg (1688–1772) ein, der ähnlich wie Böhme aufgrund von Visionen, die er 1744/45 hatte, zum Mystiker und Theosophen wurde. Nach Swedenborgs Überzeugung leben wir mit unserem Unbewussten in einer jenseitigen geistigen Welt, in welcher wir bewusst „erwachen“, wenn wir sterben. Als Autor etlicher umfangreicher Werke avancierte er bald zu einem der einflussreichsten, aber auch umstrittensten Mystiker im Zeitalter der Aufklärung. Anhänger seiner Lehre gründeten die bis heute bestehende Glaubensgemeinschaft „Neue Kirche“, unter den Theosophen seiner Zeit blieb er jedoch ein wenig geschätzter Außenseiter, und sein bedeutendster Kritiker war kein Geringerer als Immanuel Kant (1724–1804), der ihm 1766 die Streitschrift "Träume eines Geistersehers" widmete.
In der Aufklärung, zu deren wichtigstem Denker Kant durch seine späteren Hauptwerke avancieren würde, war der Esoterik neben den etablierten Kirchen eine weitere mächtige Gegnerschaft erwachsen. Aufgrund seines Verständnisses von Vernunft und Wissen musste Kant, obwohl er in jungen Jahren selbst der Seelenwanderungslehre angehangen hatte, Lehren wie diejenige Swedenborgs ablehnen, und darin folgte ihm bald die große Mehrheit der Gelehrten. Zwar könne man, so Kant, nicht "beweisen", dass Swedenborgs Behauptungen über die Existenz von Geistern und dergleichen falsch seien, ebenso wenig aber das Gegenteil, und wenn man auch nur eine einzige Geistererzählung als wahr anerkennen würde, würde man damit das gesamte Selbstverständnis der Naturwissenschaften in Frage stellen.
Dass Aufklärung und Esoterik nicht notwendigerweise im Gegensatz zueinander stehen müssen, zeigen hingegen die Freimaurer, bei denen ein aktives Eintreten für die rationale Aufklärung und ein verbreitetes Interesse für Esoterik nebeneinander bestanden und „Aufklärung“ vielfach mit einem Streben nach „höherem“ Wissen gleichgesetzt wurde, verbunden mit dem esoterischen Motiv der Transformation des Individuums. Esoterisch ausgerichteten Orden gehörten im 18. Jahrhundert viele bedeutende Personen an, darunter der preußische Kronprinz und spätere König Friedrich Wilhelm II., dessen Orden allerdings nur bis zu seiner Krönung bestand, weil er damit aus der Sicht der Ordensleitung seinen Zweck erfüllt hatte. Obwohl auch einige andere Adlige bedeutende Freimaurer waren, spielte das Freimaurertum insgesamt aber eher eine Rolle bei der Stärkung des sich emanzipierenden Bürgertums gegenüber dem absolutistischen Staat.
In die Naturphilosophie und Kunst der deutschen Romantik floss in erheblichem Maß esoterisches Gedankengut ein. So war Franz von Baader (1765–1841) zugleich ein bedeutender Naturphilosoph und der herausragende Theosoph dieser Epoche. In letzterer Hinsicht knüpfte er stark an Böhme an, allerdings in einer äußerst spekulativen Weise. In der romantischen Dichtung tritt der esoterische Einfluss besonders deutlich bei Novalis (1772–1801) hervor, aber auch etwa bei Johann Wolfgang von Goethe (1749–1832), Justinus Kerner (1786–1862) und etlichen anderen bedeutenden Dichtern. Novalis fasste die Natur als ein großes lebendiges Ganzes auf, mit dem der Mensch im Zuge einer Initiation erkennend verschmelzen kann. Dabei griff er auch alchemistische und freimaurerische Symbole auf. In der Musik ist vor allem Mozarts in einem freimaurerischen Umfeld entstandene Oper "Die Zauberflöte" zu nennen, in der Malerei Philipp Otto Runge.
Moderne.
Mit der Begründung der modernen Chemie im späten 18. Jahrhundert (vor allem durch die Schriften Lavoisiers 1787/1789) war der Niedergang der „operativen“ Alchemie eingeleitet, was deren Popularität allerdings zunächst wenig beeinträchtigte, und daneben bestand eine „spirituelle“ Alchemie als eine spezielle Form der Gnosis weiter. Auch Elektrizität und Magnetismus waren in dieser Zeit geläufige Themen esoterischer Diskurse, wobei sich besonders der schwäbische Arzt Franz Anton Mesmer (1734–1815) mit seiner Theorie des „animalischen Magnetismus“ hervortat. Mesmer verband die alte alchemistische Vorstellung eines alles durchströmenden unsichtbaren Fluidums mit dem modernen Begriff des Magnetismus und mit der Behauptung, damit Krankheiten heilen zu können. Nachdem er sich 1778 in Paris niedergelassen hatte, eroberten die von ihm entwickelten „magnetischen“ Heilgeräte vor allem die dortige Kaffeehaus-Szene. Seine „Therapiemethode“, zu mehreren um ein solches Gerät herumzusitzen, dabei in Trance und Ekstase zu geraten und den „Magnetismus“ daran beteiligter gesunder Personen in sich einströmen zu lassen, kann als ein Vorläufer der späteren spiritistischen Séancen gelten.
Ende des 18. Jahrhunderts tauchte die neue Praktik auf, zumeist weibliche Personen in einen „magnetischen Schlaf“ zu versetzen und dann über die übersinnliche Welt zu "befragen". Im deutschen Sprachraum befasste sich der schon genannte Justinus Kerner damit. Eine Abwandlung dieser Praktik ist der Spiritismus, dessen Ursprung 1848 bei zwei Schwestern in den USA liegt, der aber schnell auch auf Europa übergriff und Millionen Anhänger fand. Auch hierbei dient eine Person als „Medium“, und diesem werden Fragen gestellt, welche sich an die Geister von Verstorbenen wenden. Die Geister sollen antworten, indem sie den Tisch, an dem die Sitzung stattfindet, in Bewegung versetzen. In Verbindung mit dem Reinkarnationsgedanken entwickelte sich daraus eine regelrechte Religion.
Als Begründer des Okkultismus im eigentlichen Sinn in der zweiten Hälfte des 19. Jahrhunderts gilt Éliphas Lévi (1810–1875). Obwohl seine Werke nur „wenig geschickte Kompilationen“ (Faivre) waren, war er zeitweilig der bedeutendste Esoteriker überhaupt. Einflussreich war auch das umfangreiche okkultistische Werk von Papus (1865–1916); im deutschen Sprachraum ist vor allem Franz Hartmann (1838–1912) zu nennen. Dieser Okkultismus war eine Gegenströmung gegen die vorherrschende Wissenschaftsgläubigkeit und gegen die Entzauberung der Welt durch den Materialismus. Er verstand sich selbst jedoch als modern (Faivre nennt ihn eine Antwort der Moderne auf sich selbst) und lehnte im Allgemeinen den wissenschaftlichen Fortschritt nicht ab, sondern versuchte, diesen in eine umfassendere Vision zu integrieren.
Ein Kennzeichen der Moderne, welche durch die Aufklärer des 18. Jahrhunderts, aber auch durch den Neukantianismus des 19. Jahrhunderts geprägt wurde, ist die zunehmende Trennung von materiellen und sakral-transzendenten Bereichen der Wirklichkeit. Einerseits werden Natur und Kosmos zunehmend rational begriffen und somit „entzaubert“, andererseits wird dem Transzendenten eine außerweltliche Ebene zugewiesen. Daraus kann ebenso die Gegenreaktion erwachsen, die Natur, den Kosmos und die materielle Wirklichkeit erneut sakralisieren zu wollen und somit die Trennung zwischen weltlicher und außerweltlicher Sphäre wieder aufzuheben. Da der Glaube an die Berechenbarkeit aller Dinge und die prinzipielle Ergründbarkeit des Kosmos selbst das Ergebnis einer religionsgeschichtlichen Entwicklung sind, nämlich der schon in der alttestamentlichen Schöpfungsvorstellung angelegten Entseelung des Kosmos, kann gerade die moderne Abwendung von dieser religiösen Tradition auch eine Abwendung von dem Glauben an die rationale Wissenschaft nach sich ziehen. Dies kann zu der Überzeugung führen, dass weder Religion, wie beispielsweise das Christentum, noch Wissenschaft über die „wahre“ Weltdeutungshoheit verfügen, sondern dass eine Erklärung der Welt nur mit wissenschaftlicher und spiritueller Deutung möglich sei. Verschiedene Gruppierungen, die der modernen Esoterik zugeordnet werden können, vertraten genau diese Überzeugung.
Die Entstehung der europäischen Esoterik ist im 19. Jahrhundert in ihren globalen Verflechtungen zu begreifen. Das Indien des späten 19. Jahrhunderts und die "Theosophical Society", haben dabei eine prägende Rolle gespielt. Die "Theosophische Gesellschaft" übte einen geistigen Einfluss auf den Hinduismus aus und gleichzeitig rezipierte und adaptierte sie selbst Ideen und Praktiken aus dieser Tradition. Somit kam es zu einer gegenseitigen Wechselwirkung. Die durch die "Theosophische Gesellschaft" geprägte esoterische Praxis hatte in Europa einen erheblichen Einfluss Anfang des 19. Jahrhunderts auf das Verständnis von Spiritualität, Religion und Wissenschaft.
In einem engeren Sinn wird vielfach das Jahr 1875 als Geburtsjahr der modernen westlichen Esoterik angesehen, markiert durch die Gründung der Theosophischen Gesellschaft (TG) in New York. Initiator und dann auch Präsident dieser Gesellschaft war Henry Steel Olcott (1832–1907), ein renommierter Anwalt, der sich schon lange für esoterische Themen interessiert hatte und den Freimaurern nahestand. Zur wichtigsten Person wurde jedoch schnell Olcotts Lebensgefährtin Helena Petrovna Blavatsky (1831–1891). HPB, wie sie später zumeist genannt wurde, war deutsch-ukrainischer Herkunft und hatte lange Jahre auf Reisen in weiten Teilen der Welt verbracht. Schon seit ihrer Kindheit stand sie in medialer Verbindung zu spirituellen „Meistern“ in Indien, von denen sie nun (laut einem Notizbucheintrag "vor" der Gründung der TG) die „Weisung“ erhalten hatte, eine philosophisch-religiöse Gesellschaft unter der Leitung Olcotts zu gründen. Auch Olcott berief sich auf Anweisungen von „Meistern“, die er allerdings in Form von Briefen erhalten habe. Die Ziele der TG wurden folgendermaßen formuliert: Erstens sollte sie den Kern einer universalen Bruderschaft der Menschheit bilden, zweitens eine vergleichende Synthese von Religionswissenschaft, Philosophie und Naturwissenschaft anregen und drittens ungeklärte Naturgesetze und im Menschen verborgene Kräfte erforschen. Die Bezeichnung "theosophisch" wurde dabei anscheinend kurzfristig einem Lexikon entnommen.
Kurz nach der Gründung der TG machte sich Blavatsky an die Abfassung ihres ersten Bestsellers "Die entschleierte Isis" "(Isis Unveiled)", der 1877 herauskam und dessen erste Auflage bereits nach zehn Tagen vergriffen war. In dieser und in anderen Schriften – das Hauptwerk "Die Geheimlehre" "(The Secret Doctrine)" erschien 1888 – bündelte HPB die esoterischen Traditionslinien der Neuzeit und gab ihnen eine neue Form. Von großer Bedeutung war dabei die Verbindung mit östlichen spirituellen Lehren, an denen zwar schon seit der Romantik ein recht reges Interesse bestanden hatte, die nun aber als das reinste „Urweistum“ der Menschheit in den Vordergrund rückten, was die Esoterik des 20. Jahrhunderts entscheidend prägen sollte. Blavatsky selbst gab einerseits an, ihr Wissen zu erheblichen Teilen der beinahe täglichen „Präsenz“ eines „Meisters“ zu verdanken (was man hundert Jahre später einmal „Channeling“ nennen würde). Im Vorwort der "Geheimlehre" hingegen behauptete sie, lediglich ein uraltes und bisher geheim gehaltenes östliches Dokument (das "Buch des Dzyan") zu übersetzen und zu kommentieren. Schon nach dem Erscheinen von "Isis Unveiled" begannen Kritiker jedoch nachzuweisen, dass der Inhalt dieses Buches fast vollständig auch schon in anderer zeitgenössischer Literatur zu finden war, wobei die meisten der betreffenden Bücher für HPB unmittelbar in Olcotts Bibliothek verfügbar waren. Der enormen Wirkung ihres Werks tat das jedoch keinen Abbruch.
Im Umfeld der Theosophischen Gesellschaft entstand gegen Ende des 19. Jahrhunderts eine ganze Reihe neuer initiatischer Gemeinschaften und magischer Orden, überwiegend in freimaurerischer und rosenkreuzerischer Tradition, darunter der Hermetic Order of the Golden Dawn (1888). Dieser Orden war von der christlichen Kabbala und dem Tarot inspiriert, befasste sich mit ägyptischen und anderen antiken Gottheiten und räumte einer zeremoniellen Magie einen erheblichen Raum ein. Für letztere stand vor allem Aleister Crowley (1875–1947), der später dem in Wien gegründeten Ordo Templi Orientis (1901) beitrat und diesem eine sexualmagische und antichristliche Ausrichtung gab. Crowley gilt als der bedeutendste Magier des 20. Jahrhunderts.
In Deutschland gründete Franz Hartmann 1886 eine deutsche Abteilung der Theosophischen Gesellschaft und 1888 einen Rosenkreuzer-Orden. Viel bedeutender war hier aber Rudolf Steiner (1861–1925), der 1902 Generalsekretär der neu gegründeten deutschen Sektion der TG wurde. Steiner übernahm zumindest in den ersten Jahren vieles von Blavatsky, war selbst aber stark von den naturwissenschaftlichen Werken Goethes und deutschen Philosophen wie Max Stirner und Friedrich Nietzsche beeinflusst und entwickelte schließlich eine eigene, christlich-abendländische, an der Mystik anknüpfende Lehre, die er später „Anthroposophie“ nannte, nachdem es zum Bruch mit der durch Annie Besant vertretenen internationalen Theosophischen Gesellschaft gekommen war. Als Vertreter einer christlichen Theosophie in Deutschland in der Tradition von Jakob Böhme und Franz von Baader ist im 20. Jahrhundert außerdem Leopold Ziegler (1881–1958) zu nennen.
Der populärste Zweig der Esoterik im 20. Jahrhundert war zweifellos die Astrologie. Sie bedient das Bedürfnis, mit Hilfe des Prinzips der Entsprechung die verlorengegangene Einheit von Mensch und Universum wiederherzustellen. Dies kann neben der praktischen Anwendung auch einen „gnostischen“ Aspekt haben, indem man „Zeichen“ zu deuten versucht und eine ganzheitliche Sprache entwickelt. Eine ähnliche Dualität von Praxis und Gnosis liegt auch beim Tarot vor sowie bei der Unterscheidung von zeremonieller und initiatischer Magie.
Einen herausragenden Einfluss auf die Entwicklung der populären Esoterik in den letzten Jahrzehnten („New Age“) hatte Carl Gustav Jung (1875–1961). Jung postulierte die Existenz universeller seelischer Symbole, die er „Archetypen“ nannte und durch eine Analyse der Religionsgeschichte und insbesondere auch der Geschichte der Alchemie und Astrologie zu identifizieren suchte. In dieser Sichtweise wurde die innere Transformation des Adepten zum zentralen Inhalt esoterischen Handelns, so u. a. in der „psychologischen“ Astrologie. Dem liegt ein Konzept der Seele zugrunde, wie es in ähnlicher Form schon bei den antiken Neuplatonikern und bei Renaissance-Denkern wie Marsilio Ficino und Giovanni Pico della Mirandola zu finden war. Im Kontrast zur traditionellen Psychologie, die an dem mechanistisch-naturwissenschaftlichen Ansatz der Medizin ausgerichtet ist und die Rede von einer Seele als ein Ergebnis metaphysischer, also unwissenschaftlicher Spekulation betrachtet, wird hier die Seele zum „wahren Kern“ der Persönlichkeit erhoben und geradezu sakralisiert, d. h. ihrem eigentlichen Wesen nach als göttlich angesehen. Der Mensch strebt nach Vollkommenheit, indem er sich in seine eigene Göttlichkeit versenkt, welche im Unterschied zu manchen östlichen Lehren dem "Individuum" zugeschrieben wird.
Jungs aus der Theorie der Archetypen entwickeltes Konzept des kollektiven Unbewussten gehört auch zu den Ursprüngen der transpersonalen Psychologie, welche annimmt, dass es Ebenen der Wirklichkeit gibt, auf denen die Grenzen der gewöhnlichen Persönlichkeit überschritten werden können und eine gemeinsame Teilhabe an einer allumfassenden Symbolwelt möglich ist. Solche Vorstellungen verbanden sich in der von Amerika ausgehenden Hippie-Bewegung mit einem großen Interesse an östlichen Meditationstechniken und an psychoaktiven Drogen. Die wichtigsten Theoretiker dieser transpersonalen Bewegung sind Stanislav Grof und Ken Wilber. Grof experimentierte mit LSD und versuchte dabei, eine Systematik der auftretenden „transpersonalen“ Bewusstseinszustände zu entwickeln.
Für die Kommunikation mit transzendenten Wesen in einem veränderten Bewusstseinszustand (etwa in Trance) etablierte sich in den 1970er Jahren die Bezeichnung „Channelling“. Sehr populär wurden in diesem Bereich die Prophezeiungen von Edgar Cayce (1877–1945). Weitere bedeutende Medien waren oder sind Jane Roberts (1929–1984), Helen Schucman (1909–1981) und Shirley MacLaine. Auch die Lehren von Theosophen wie Helena Petrovna Blavatsky und Alice Bailey sind hierher zu rechnen, und Vergleichbares findet sich im Neo-Schamanismus, in der modernen Hexenbewegung und im Neopaganismus. Allen gemeinsam ist die Überzeugung von der Existenz anderer Welten und von der Möglichkeit, aus diesen Informationen zu erhalten, die in der diesseitigen Welt nützlich sein können.
Ein weiteres zentrales Thema der heutigen Esoterik sind ganzheitliche Konzeptionen der Natur, wobei naturwissenschaftliche oder naturphilosophische Ansätze die Grundlage für eine spirituelle Praxis bilden. Ein Beispiel dafür ist die Tiefenökologie, eine biozentrische und radikal gegen den vorherrschenden Anthropozentrismus gerichtete Synthese ethischer, politischer, biologischer und spiritueller Positionen (Arne Næss, "deep ecology", 1973). Die Tiefenökologie betrachtet die gesamte Biosphäre als ein einziges, zusammenhängendes „Netz“, das nicht nur als solches "erkannt", sondern auch in einer spirituellen Dimension "erfahren" werden soll. Damit verwandt sind James Lovelocks Gaia-Hypothese, die den ganzen Planeten Erde als einen Organismus auffasst, und daran anknüpfende Konzepte von David Bohm, Ilya Prigogine, David Peat, Rupert Sheldrake und Fritjof Capra, die man als „New Age Science“ zusammenfassen kann.
Im Bereich der Freimaurerei und des Rosenkreuzertums wurden im 20. Jahrhundert zahlreiche initiatische Gesellschaften neu gegründet. Eine besonders breite Wirkung entfaltete der 1915 gegründete Rosenkreuzer-Orden AMORC. Im deutschen Sprachraum ist die Anthroposophische Gesellschaft mit ihrem Zentrum in Dornach bei Basel am bedeutendsten, was durch den Erfolg der auf anthroposophischer Grundlage arbeitenden Waldorfschulen noch verstärkt wird. Die Theosophische Gesellschaft zerfiel nach Blavatskys Tod in mehrere Gruppierungen, welche heute in diversen Ländern sehr aktiv sind.
Wie schon in der Romantik, lassen sich auch in der Moderne vielfach esoterische Einflüsse in Kunst und Literatur aufzeigen. Das gilt etwa für die Architektur Rudolf Steiners (Goetheanum), für die Musik Alexander Skrjabins, die Gedichte Andrej Belyis, die Dramen August Strindbergs und das literarische Werk Hermann Hesses, aber auch für Bereiche der neueren Science Fiction wie etwa die "Star-Wars"-Filmtrilogie von George Lucas. Ein bedeutender Einfluss auf die bildende Kunst ging auch von der Theosophischen Gesellschaft aus. Beispiele für künstlerische Gestaltung im Dienst der Esoterik sind manche Tarot-Blätter und die Illustrationen in manchen esoterischen Büchern. Nicht im eigentlichen Sinn esoterisch beeinflusst, aber beliebte Gegenstände esoterischer Interpretationen waren die Musik Richard Wagners und die Gemälde Arnold Böcklins.
Esoterik als Gegenstand wissenschaftlicher Forschung.
Ursprünge der Esoterikforschung.
Was heute als westliche Esoterik bezeichnet wird, wurde anscheinend erstmals gegen Ende des 17. Jahrhunderts als eigenständiges und zusammenhängendes Feld erkannt. 1690/1691 publizierte Ehregott Daniel Colberg seine polemische Schrift "Das platonisch-hermetische Christenthum", und 1699/1700 folgte Gottfried Arnolds "Unpartheyische Kirchen- und Ketzer-Historie", in welcher er bis dahin als häretisch eingestufte Spielarten des Christentums aus christlich-theosophischer Sicht verteidigte. Diesen theologisch ausgerichteten Arbeiten folgten philosophiehistorisch orientierte, zunächst Johann Jakob Bruckers "Historia critica Philosophiae" (1742–1744), in der verschiedene Strömungen behandelt wurden, welche heute der westlichen Esoterik zugerechnet werden, und schließlich "Die christliche Gnosis oder die christliche Religions-Philosophie in ihrer geschichtlichen Entwicklung" (1835) von Ferdinand Christian Baur, der eine direkte Linie von der antiken Gnosis über Jacob Böhme bis zum deutschen Idealismus zog.
Im weiteren Verlauf des 19. Jahrhunderts wurden derartige Themen weitgehend aus dem wissenschaftlichen Diskurs ausgegrenzt, indem man sie als Produkte irrationaler Schwärmerei betrachtete oder als vor-wissenschaftlich einordnete (die Alchemie als Proto-Chemie oder die Astrologie als Proto-Astronomie). Stattdessen schrieben nun Okkultisten wie Éliphas Lévi oder Helena Petrovna Blavatsky umfangreiche „Historien“ der Esoterik, in denen, wie Hanegraaff schreibt, ihre eigene Fantasie eine kritische Betrachtung historischer Tatbestände ersetzte, was erst recht dazu beitrug, dass ernsthafte Wissenschaftler dieses Themenfeld mieden. Erst 1891–1895 legte Carl Kiesewetter mit seiner "Geschichte des neueren Occultismus" wieder eine bedeutende akademische Studie vor, gefolgt von "Les sources occultes du Romantisme" von Auguste Viatte (1927) und Lynn Thorndikes achtbändiger "History of Magic and Experimental Science" (1923–1958). Eine umfassende Sicht westlicher Esoterik, die etwa der Perspektive heutiger Esoterikforschung entspricht, scheint als Erster Will-Erich Peuckert in seiner 1936 erschienenen "Pansophie – ein Versuch zur Geschichte der weißen und schwarzen Magie" entwickelt zu haben, die mit Marsilio Ficino und Giovanni Pico della Mirandola beginnt und über Paracelsus und die christliche Theosophie zum Rosenkreuzertum führt.
Hermetik und neuzeitliche Wissenschaft: das Yates-Paradigma.
In ihrem aufsehenerregenden Buch "Giordano Bruno and the Hermetic Tradition" versuchte die Historikerin Frances A. Yates 1964 nachzuweisen, dass die Hermetik, wie sie von Pico della Mirandola, Giordano Bruno und John Dee vertreten wurde, bei der Begründung der neuzeitlichen Wissenschaft in der Renaissance eine wesentliche Rolle gespielt habe und dass diese Wissenschaft ohne den Einfluss der Hermetik gar nicht entstanden wäre. Obwohl das „Yates-Paradigma“ sich in dieser starken Form in akademischen Kreisen letztlich nicht etablieren konnte und Yates’ provozierende Thesen hauptsächlich in religiösem und der Esoterik nahestehendem Schrifttum auf Resonanz stießen, wird es wegen der Debatten, die es auslöste, als wichtige „Initialzündung“ für die moderne Esoterikforschung betrachtet.
Esoterik als Denkform: Das Faivre-Paradigma.
Antoine Faivre stellte 1992 die These auf, dass man die Esoterik als eine "Denkform" (frz. "forme de pensée") betrachten könne, die im Gegensatz zu wissenschaftlichem, mystischem, theologischem oder utopischem Denken steht.
Faivre versteht Esoterik als bestimmte Art und Weise des Denkens:
Dieser Ansatz Faivres erwies sich als sehr fruchtbar für die vergleichende Forschung, wurde von vielen anderen Esoterikforschern übernommen und trat weitgehend an die Stelle des Yates-Paradigmas, stieß aber auch auf vielfältige Kritik. So wurde bemängelt, dass Faivre seine Charakterisierung hauptsächlich auf Untersuchungen des Hermetismus der Renaissance, der Naturphilosophie, der christlichen Kabbala und der protestantischen Theosophie stützte und damit den Begriff der Esoterik so eng fasse, dass er auf entsprechende Erscheinungen in der Antike, im Mittelalter und in der Moderne sowie außerhalb der christlichen Kultur (Judentum, Islam, Buddhismus) vielfach nicht mehr anwendbar sei. Zweifellos hat das Faivre-Paradigma jedoch entscheidend dazu beigetragen, dass die Esoterikforschung als Teil des ernsthaften Wissenschaftsbetriebs anerkannt wurde.
Institutionen.
Ein erster spezieller Lehrstuhl für die „Geschichte der christlichen Esoterik“ wurde 1965 an der Sorbonne in Paris eingerichtet (1979 umbenannt in „Geschichte der esoterischen und mystischen Strömungen im neuzeitlichen und zeitgenössischen Europa“). Diesen Lehrstuhl hatte von 1979 bis 2002 Antoine Faivre inne, seit 2002 als Emeritus neben Jean-Pierre Brach.
Seit 1999 gibt es in Amsterdam einen Lehrstuhl für die „Geschichte der hermetischen Philosophie und verwandter Strömungen“ (Wouter J. Hanegraaff). Drittens wurde an der Universität von Exeter (England) ein Zentrum für Esoterikforschung eingerichtet (Nicholas Goodrick-Clarke; † 2012). Im Jahre 2006 richtete auch der Vatikan an der Päpstlichen Universität Angelicum in Rom einen „Lehrstuhl für nichtkonventionelle Religionen und Spiritualitätsformen“ (Michael Fuß) ein.
Die wichtigste deutschsprachige Fachzeitschrift ist "Gnostika".
Zum Thema Reinkarnation, bei dem die Forschung Berührungspunkte und Übereinstimmungen mit der Esoterik sieht, kann man auch →dort nachlesen.
Esoterik und Politik.
Ab dem frühen 19. Jahrhundert hatten diverse esoterische Strömungen einen erheblichen Einfluss auf die intellektuelle Begründung der Demokratie und auf die Ausbildung eines Geschichtsbewusstseins. Dabei handelte es sich einerseits um eine romantische Rückbesinnung auf das Ursprüngliche in Ablehnung der Moderne, andererseits um eine progressive Erwartung des Eintretens vorhergesagter Ereignisse. Beispiele für letzteres sind Frühsozialisten wie Robert Owen, Pierre Leroux und Barthélemy Prosper Enfantin. Umgekehrt lässt sich zeigen, dass das Fortbestehen frühsozialistischer Ideen, insbesondere des Saint-Simonismus und des Fourierismus, nach 1848 essentiell sowohl für die Entstehung des Spiritismus als auch des Okkultismus gewesen ist.
Aleister Crowley neigte dem Stalinismus und dem italienischen Faschismus zu. Noch weiter ging Julius Evola, indem er sich auch dem Nationalsozialismus zuwandte. Während Stalin derartigen Erscheinungen gegenüber relativ tolerant war, wurden sie im NS-Deutschland schnell ausgeschaltet. Ein Esoteriker, der die Moderne radikal ablehnte und sich dem Islam zuwandte, war René Guénon. Teile des New Age griffen die Erwartungshaltung des früheren Okkultismus wieder auf.
Gegenstandpunkte und Kontroversen.
Haltung der Kirchen.
Manche Praktiken, die heute der Esoterik zugerechnet werden, insbesondere Wahrsagen und die Magie, werden schon im Tanach, der Heiligen Schrift des Judentums, scharf verurteilt. Im frühen Christentum entzündeten sich dann darüber hinaus grundsätzliche interne Konflikte, die zur Ausgrenzung vieler sogenannter „gnostischer“ Gruppierungen aus der sich institutionell festigenden Kirche führten, weshalb deren abweichende Lehren und Erkenntnis-Ansprüche heute ebenfalls zur Esoterik zählen (vgl. Kapitel „Geschichte“).
Bis heute stellt sich die offizielle Lehre der christlichen Hauptströmungen (Orthodoxie, Katholizismus, Protestantismus) klar gegen jede Form der „Wahrsagerei“ und Magie, so beispielsweise der Katechismus der Katholischen Kirche:
Die Evangelische Kirche in Deutschland schreibt:
Kontroverse um das Verhältnis zum Rechtsextremismus.
Beeinflusst durch Theodor W. Adornos „Thesen gegen den Okkultismus“ (1951) ist besonders im deutschsprachigen Raum die Auffassung einer ideologischen Nähe zwischen Esoterik und Faschismus verbreitet (vgl. Rechtsextremismus und Esoterik). Gemeinsamkeiten sah Adorno in einer Abkehr von der Moderne, in Irrationalität, magischem Denken und autoritären Strukturen. Die Religionswissenschaftler Julian Strube und Arthur Versluis kritisieren an Adornos Thesen Intoleranz, Vorurteile und Pauschalisierungen. Versluis wirft Adorno sogar vor, er habe Opfer nationalsozialistischer Ausrottungsbestrebungen mit den Tätern identifiziert („Integration selber erweist sich am Ende als Ideologie für die Desintegration in Machtgruppen, die einander ausrotten“) und benutze antisemitische Denkmuster gegen sie („zwielichtig-asozial“, „Zerfall“).
Unter englischsprachigen Christen fand das Buch "The Hidden Dangers of the Rainbow: The New Age Movement and Our Coming Age of Barbarism" (1983, deutsch: "Die sanfte Verführung") der amerikanischen Juristin Constance Cumbey große Aufmerksamkeit. Cumbey beschrieb das New Age als eine organisierte Bewegung mit der Zielsetzung, eine Weltregierung einzusetzen, und stellte historische Bezüge zum NS-Staat her. Daran schlossen weitere Autoren an.
Seit den 1990er Jahren werden im deutschen Sprachraum – ausgehend vom linken politischen Spektrum – rechtsextremistische Tendenzen in der Esoterik verstärkt diskutiert. Dies wurde maßgeblich ausgelöst durch das zuerst 1992 erschienene Buch "Feuer in die Herzen" der ehemaligen deutschen Grünen-Politikerin Jutta Ditfurth. Ditfurth bezeichnete die Esoterik pauschal als eine Ideologie, welche „ein übelriechender Eintopf aus geklauten, ihrem sozialen und kulturellen Zusammenhang entrissenen Elementen aus allen traditionellen Religionen“ sei und faschistische Wurzeln habe. Dabei knüpfte sie hauptsächlich an eine Studie der österreichischen Historiker Eduard Gugenberger und Roman Schweidlenka an, die seit den späten 1960er Jahren einen parallelen Anstieg ökologisch-alternativer, spirituell-esoterischer und rechtsextremer Neigungen in der Gesellschaft verzeichneten und unter Verweis auf die Zwischenkriegszeit vor einer möglichen „Wiederholung der Geschichte“ warnten. Ditfurth schrieb nun 1992, die New-Age-Bewegung (als Synonym für die aktuelle Esoterik-Szene) sei zwar „(noch) nicht faschistisch“, aber sie sah auch eine weitgehende Verwandtschaft: „Esoterik und Faschismus überschneiden sich in der Entpolitisierung der Menschen, dem knallharten Egokult, dem elitären Führertum und einer vollständig antisozialen, antihumanistischen und antiaufklärerischen Orientierung.“ Blavatskys "Geheimlehre", die Ditfurth (fälschlich) der rassistischen Ariosophie zuordnete, sei „in die Gedankengänge von Naziführern eingegangen“, darunter namentlich Adolf Hitler, und zugleich „die wichtigste Wurzel der heutigen Anthroposophie und der New-Age-Szene.“
Zur Rolle esoterischer Vorstellungen in der Vorgeschichte des Nationalsozialismus hatte der britische Historiker Nicholas Goodrick-Clarke schon 1985 eine grundlegende Studie vorgelegt, die aber erst 1997 unter dem Titel "Die okkulten Wurzeln des Nationalsozialismus" in deutscher Übersetzung erschien. Darin stellte Goodrick-Clarke dar, dass die Ariosophie des frühen 20. Jahrhunderts, als deren „Standardwerk“ Ditfurth Blavatskys "Geheimlehre" bezeichnete, zwar Elemente der Lehre Blavatskys übernommen hatte, aber in Bezug auf die (damals noch als selbstverständliche Realität betrachteten) Menschenrassen eine gegensätzliche Haltung einnahm: Während Blavatsky eine Höherentwicklung der Menschheit durch die Verschmelzung aller Rassen in Aussicht stellte und zwischen diesen keine Unterschiede machen wollte, propagierten die Ariosophen zur Erreichung desselben Zieles umgekehrt eine strenge Rassentrennung und eine rassistisch hierarchische Gesellschaft. Zum Einfluss der Ariosophie auf die Nationalsozialisten schrieb Goodrick-Clarke, dass Hitler diese zwar kannte, aber weitgehend ablehnte.
Zur Frage einer politischen Einordnung der Esoterik schreibt Strube 2017: „Eine pauschale Einordnung von Esoterik in ein gewisses politisches Spektrum wäre irreführend. Historisch betrachtet waren Strömungen wie Spiritismus, Okkultismus oder New Thought eng verflochten mit radikalen politischen Reformbewegungen – die im 19. Jahrhundert vorwiegend sozialistischen, feministischen, oder anarchistischen Richtungen zuzuordnen wären […]. Die Rolle der Theosophischen Gesellschaft im antikolonialistischen und emanzipatorischen Kontext Südasiens ist wohlbekannt (Annie Besant zum Beispiel, seit 1907 Präsidentin der Theosophischen Gesellschaft, wurde 1917 zur Präsidentin des Indischen Nationalkongresses gewählt). Jedoch boten einige Elemente, die von bestimmten Esoterikern artikuliert wurden, Anknüpfungspunkte für rassistische, nationalistische, und antisemitische Ideen.“ Auch der Religionswissenschaftler Gerald Willms sieht eine Anschlussfähigkeit von Esoterik an rassistisch-völkisches Denken in der Gegnerschaft zum Materialismus und der Betonung ganzheitlicher (holistischer) Ansätze. Esoterik sei aber zunächst an der persönlichen spirituellen Entwicklung interessiert und meist apolitisch. Es gebe nur eine „Grauzone zum rechten Rand“.
Skeptikerbewegung.
Grundsätzliche Kritik an jeglicher Esoterik äußern Vertreter der Skeptikerbewegung. So behauptet der Physiker Martin Lambeck, die Esoterik wolle das „mechanistisch-materialistische“ Weltbild der Physik schleifen, und die Physik erscheine daher „wie eine belagerte Festung“. „Ausgangspunkt aller Esoterik“ ist nach Lambeck (der sich dabei offenbar auf ein Buch von Thorwald Dethlefsen stützt) die Lehre des Hermes Trismegistos; „hermetische Philosophie“ sei gleichbedeutend mit Esoterik. Insbesondere bilde das in dem Satz „Wie oben, so unten“ klassisch formulierte Analogieprinzip die Grundlage aller Esoterik, und die Esoteriker seien davon überzeugt, auf dieser Grundlage die gesamte Welt des Mikro- und Makrokosmos erforschen zu können. Daraus folge aber, so Lambeck, dass aus der Sicht der Esoterik „alle seit Galilei mit Fernrohr und Mikroskop durchgeführten Untersuchungen überflüssig“ gewesen seien. Zudem stehe das Analogisieren „im fundamentalen Widerspruch zur Methode der heutigen Wissenschaft“. Aus diesem und anderen, ähnlichen angeblichen Widersprüchen zieht Lambeck nun allerdings nicht die Konsequenz, Esoterik abzulehnen. Ihm geht es um die Widerspruchsfreiheit des Lehrgebäudes der Physik und um ihren Anspruch, für ihr Gebiet allein zuständig zu sein. Die Esoterik mache Aussagen, die in diesen Zuständigkeitsbereich fielen, beispielsweise dass alles in der Welt aus zehn Urprinzipien aufgebaut sei (laut Lambeck ein grundlegendes Postulat der Esoterik). Die Existenz derartiger sogenannter „Paraphänomene“ müsse daher im Sinne des Popperschen Falsifikationismus empirisch getestet werden.
Kommerzialisierung.
Viele Kritiker, aber auch manche Esoteriker selber beklagen einen „Supermarkt der Spiritualität“: Verschiedene, teils widersprüchliche spirituelle Traditionen, die über Jahrhunderte in unterschiedlichen Kulturen der Welt entstanden, würden in der Konsumgesellschaft zur Ware, wobei sich verschiedene Trends und Moden schnell abwechselten („gestern Yoga, heute Reiki, morgen Kabbala“) und als Produkt auf dem Markt ihres eigentlichen Inhalts beraubt würden. Dieser Umgang sei oberflächlich, reduziere Spiritualität auf Klischees und beraube sie ihres eigentlichen Sinnes. |
1240 | 1935838 | https://de.wikipedia.org/wiki?curid=1240 | Esperanto | Esperanto ist die am weitesten verbreitete Plansprache. Ihre heute noch gültigen Grundlagen wurden als "internationale Sprache" 1887 von dem Augenarzt Ludwik Lejzer Zamenhof veröffentlicht, dessen Pseudonym Doktoro Esperanto („Doktor Hoffender“) zum Namen der Sprache wurde. Esperanto ist „inter“-national und besitzt daher in keinem Land der Welt den Status einer Amtssprache. Das linguistische Sammelwerk Ethnologue stellt institutionellen Gebrauch von Esperanto und eine Sprachgemeinschaft von mehr als einer Million Sprechern (inkl. Zweitsprachler) fest. Polen und Kroatien haben Esperanto 2014 bzw. 2019 als immaterielles Kulturerbe anerkannt. Die Ungarische Akademie der Wissenschaften hat 2004 bestätigt, dass Esperanto eine lebende Fremdsprache ist. In Ungarn haben zwischen 2001 und 2009 etwa 39.000 Personen eine staatlich anerkannte Esperanto-Sprachprüfung abgelegt; das sind etwa 0,4 % der Bevölkerung. China veröffentlicht seit 2001 täglich Nachrichten sowie weiterhin seit längerem eine Internet-Zeitschrift in Esperanto. China Radio International (CRI) veröffentlicht auf seiner Website Textnachrichten und Videos in Esperanto (die Radiosendungen wurden 2021 eingestellt). In der chinesischen Stadt Zaozhuang in der Provinz Shandong eröffnete 2013 ein Esperanto-Museum mit 680 Quadratmetern Ausstellungsfläche, das für 3 Mio. Yuan erbaut worden war. China unterstützt in Zusammenarbeit mit der UNESCO seit 2017 die Herausgabe der Zeitschrift "Unesco-Courier" in Esperanto. Der Vatikan hat 1990 liturgische Texte in Esperanto für Messen zugelassen. Das Esperanto-PEN-Zentrum ist seit 1993 Mitglied in PEN International. Die Österreichische Nationalbibliothek in Wien beherbergt eine Plansprachensammlung und ein Esperantomuseum.
Die Esperanto-Wikipedia hatte im Juni 2021 etwa 300.000 Artikel; nach der Größe steht diese Wikipedia-Ausgabe damit auf Platz 36 und bietet leicht mehr Artikel als etwa die hebräische, armenische, bulgarische oder dänische Version. Bei Twitter gehörte Esperanto in jedem Jahr von 2009 bis 2019 zu den Top-30-Sprachen.
Geschichte.
Hintergründe zur Entstehung.
Der Esperanto-Gründer Ludwik Lejzer Zamenhof wuchs in der heute polnischen, damals zum Russischen Reich gehörenden Stadt Bjelostock auf. Auf Grund der ethnisch diversen Bevölkerung von Polen, Litauern, Deutschen und vor allem Juden, bildeten sich ghetto-artige Strukturen. Oft gab es körperliche Auseinandersetzungen und Pogrome. Schon zu seiner Schulzeit kam Zamenhof der idealistische Gedanke, dass eine leicht erlernbare Brücken-Sprache notwendig sei, um Ethnozentrismus und Ghettobildung zu verhindern, und letztlich auch ein Schlüssel zum Weltfrieden wäre. Der Begriff Homaranismo beschreibt seine Lehre von der Verbrüderung der Menschheit.
Die drei Ziele.
1887 veröffentlichte Zamenhof in Warschau eine Broschüre mit den Grundlagen der Sprache. In seinem von seiner Frau Klara Zamenhof finanzierten "Unua Libro" („Erstes Buch“) formulierte er zugleich drei Ziele für seine Sprache:
Das erste Ziel soll u. a. durch folgende Mittel erreicht werden:
Die erste Ausgabe des "Unua Libro", in Russisch, umfasst 40 Seiten im Format A5. Der Grammatik-Teil darin enthält 16 Regeln auf sechs Seiten.
Entwicklung bis 1914.
1889 folgte eine Adressenliste mit den ersten Anhängern, außerdem wurde die auf Esperanto in Nürnberg herausgegebene Zeitschrift "La Esperantisto" gegründet.
1898 gründete Louis de Beaufront eine französische Esperanto-Gesellschaft, aus der später der erste Esperanto-Landesverband wurde. Marie Hankel übersetzte die von Zamenhof verfasste Dichtung „La Espero“. In der Vertonung des Barons Félicien Menu de Ménil aus Paris avancierte diese zur internationalen bei allen größeren Festlichkeiten der Esperantisten in allen Ländern gesungenen Hymne.
1908 wurde der Esperanto-Weltbund gegründet. Bis zum Ausbruch des Ersten Weltkrieges gab es Verbände oder zumindest Ortsgruppen auf allen Kontinenten.
Von 1914 bis zum Ende des Zweiten Weltkriegs.
Im November 1920 veröffentlichte die Vossische Zeitung eine Idee aus der Zeitung "L’Avenir", wie sich Esperanto schnell als Weltsprache etablieren könnte. In dem Hinweis heißt es:
Die Nordische Rundfunk AG begann am 5. Oktober 1924, jeden Montag um 18.00 Uhr Nachrichten in Esperanto unter dem Titel auszustrahlen. Andererseits kam es zwischen den beiden Weltkriegen in mehr als einem Dutzend Ländern zu Behinderungen. Im nationalsozialistischen Deutschland wurden neben vielen anderen auch Plansprachenvereinigungen verboten.
Unter Josef Stalins Herrschaft in der Sowjetunion gab es kein öffentlich bekannt gemachtes Verbot, jedoch wurden bereits mit Beginn der Großen Säuberung neben vielen anderen Gruppen auch führende Esperanto-Sprecher verhaftet und deportiert. Der Geheimdienst NKWD listete zunächst u. a. „alle Menschen mit Auslandskontakten“ auf. Ein Befehl von 1940 aus Litauen listet „Esperantisten“ neben Briefmarkensammlern unter den zu registrierenden Personengruppen. Tausende Esperantosprecher wurden verhaftet und in Lager gesperrt; Rytkov schätzte, dass unter den 1,5 Millionen Verhafteten auch 30.000 sowjetische Esperanto-Sprecher waren, von denen einige Dutzend erschossen wurden; Tausende starben später in Lagern.
Nach dem Zweiten Weltkrieg.
Während des Kalten Krieges dauerte es längere Zeit, bis in den osteuropäischen Staaten Esperanto-Verbände gegründet werden konnten. Eine Ausnahme bildete Jugoslawien, wo bereits 1953 ein Esperanto-Weltkongress stattfand. 1958 fand der Kongress in Mainz, in Deutschland statt, 1959 in Warschau. Seit 1959 gibt es auch den Versuch, mit dem Stelo eine völkerverbindende Komplementärwährung einzuführen, die bis heute verwendet wird und im Jahr 2022 zum Kurs von etwa 1 € = 4 steloj getauscht werden kann. Es war der erste Weltkongress in einem Land des Ostblocks. Nach und nach entwickelten sich Kontakte und Zusammenarbeit zwischen den Landesverbänden in Ost und West. In den 1960er Jahren wurden zwei Spielfilme in Esperanto gedreht, Angoroj (Frankreich, 1964) und Inkubo (USA, 1966). 1980 durfte der chinesische Landesverband dem Esperanto-Weltbund beitreten.
Nach dem Zweiten Weltkrieg stieg die Zahl der Landesverbände im Weltbund stetig an. 1948 hatte der Weltbund 19 Landesverbände, 1971 bereits 34, 1989 waren es 47 und 2013 insgesamt 71. Die Anzahl der Menschen, die diesen Verbänden angehören, wuchs jedoch nicht in gleichem Maße und sank auch wieder. 2016 befand sie sich auf dem niedrigsten Stand seit 1947. Demgegenüber gibt es eine zunehmende Anzahl von Gruppen im Internet (z. B. soziale Netze und Mitarbeiter an Projekten wie Wikipedia, Sprachkurse, Wörterbücher und Programme). 1948 wurde in Amsterdam ein internationaler Eisenbahner-Esperanto-Bund gegründet.
1953 fand in Deutschland der erste Esperanto-Kongress nach dem Zweiten Weltkrieg in Frankfurt am Main statt.
Sprachbau.
Die Wörter bestehen überwiegend aus unveränderlichen Wortelementen, die aneinandergefügt werden. So wird beispielsweise die Mehrzahl der Substantive und Adjektive und der Pronomen durch das Anhängen eines "-j" gebildet: "domo" ,Haus‘, "domoj" ,Häuser‘, der Objektfall durch das Anhängen eines weiteren "-n:" "domojn"‚ Häuser (Akk. Plural)‘. Der Wortstamm wird nicht verändert, wie es oft im Deutschen vorkommt. Das hier sichtbare agglutinierende Prinzip ist beispielsweise auch aus dem Finnischen, Ungarischen und Türkischen bekannt.
Zamenhof strebte einen regelmäßigen Sprachbau an, um den Lernaufwand zu minimieren, insbesondere in der Morphologie und bei der Wortbildung. Für die Deklination von Substantiven und die Konjugation von Verben gibt es jeweils nur ein Schema. Auch das in vielen Sprachen unregelmäßige Verb „sein“ wird im Esperanto nach demselben Schema konjugiert wie alle anderen Verben:
Zur besseren Erkennbarkeit haben einige Wortarten bestimmte Endungen. "-o" beispielsweise ist die Endung für Substantive: "domo" ,Haus‘; "-a" ist die Endung für Adjektive: "doma" ,häuslich‘ usw. Auch einige Wörter, die weder Substantive noch Adjektive sind, enden auf "-o" oder "-a," sodass der Endvokal allein zur Wortartbestimmung nicht ausreicht.
Viele Esperanto-Wörter entstammen dem Latein oder romanischen Sprachen. Ein guter Teil von ihnen findet sich auch in anderen Sprachen (vgl. Esperanto "muro", deutsch "Mauer", polnisch mur, niederländisch "muur" aus lateinisch "murus"; französisch: "mur", italienisch/portugiesisch/spanisch: "muro"). Ein ziemlich großer Anteil kommt aber auch aus germanischen Sprachen, vor allem dem Deutschen und Englischen (je nach Textkorpus wird dieser Anteil auf fünf bis zwanzig Prozent geschätzt). Dazu gibt es eine Reihe von Wörtern aus slawischen Sprachen, besonders dem Polnischen und dem Russischen (etwa Esperanto "kolbaso", polnisch "kiełbasa", russisch "колбаса́", deutsch "Wurst"). Außerdem wurden ein paar Wörter aus dem Griechischen entlehnt (Esperanto "kaj", griechisch "και"). Die Auswahl derjenigen Sprache, aus der Zamenhof ein Wort nahm, bestimmte er nach Zweckmäßigkeit, zunächst danach, welches Wort den meisten bekannt sein könnte, dann oft, um Verwechslungen zu vermeiden. Allerdings gibt es auch falsche Freunde, wie in anderen Sprachpaaren (Esperanto "regalo" bedeutet "Bewirtung", vgl. französisch "régaler", bewirten; ein "Regal" wird in Esperanto als "bretaro" übersetzt, wörtlich Bretteransammlung).
Einige Wörter sind in mehreren indogermanischen Sprachen bekannt, zum Beispiel Esperanto "religio" ‚Religion‘: englisch "religion", französisch "religion", polnisch "religia"; Esperanto "lampo" ‚Lampe‘: englisch "lamp," französisch "lampe", polnisch "lampa" usw. Teilweise existieren im Esperanto bewusste Mischformen, zum Beispiel "ĝardeno" ‚Garten‘: Die Schreibung ähnelt englisch "garden", die Aussprache ähnelt französisch "jardin".
Die Schreibweise ist phonematisch, das heißt, dass jedem Schriftzeichen nur ein Phonem (Sprachlaut) und jedem Phonem nur ein Schriftzeichen zugeordnet ist. Sie verwendet Buchstaben des lateinischen Alphabets, ergänzt durch Überzeichen (diakritische Zeichen). Beispielsweise entspricht "ŝ" dem deutschen "sch" und "ĉ" dem "tsch" (z. B. in "ŝako" ‚Schach‘ und "Ĉeĉenio" ‚Tschetschenien‘). (Siehe auch Esperanto-Rechtschreibung.)
Sprachbeispiel
Allgemeine Erklärung der Menschenrechte, Artikel 1:
Forschung.
Die Esperantologie ist derjenige Teil der Sprachwissenschaft, der sich mit Esperanto befasst. Jährlich erscheinen einige hundert wissenschaftliche Artikel zu Esperanto und anderen geplanten Sprachen. So stellte der Wirtschaftswissenschaftler François Grin die Hypothese auf, es könnten durch die Verwendung von Esperanto 25 Millionen Euro jährlich gespart werden. In Deutschland gibt es die „Gesellschaft für Interlinguistik“, deren etwa 65 Mitglieder sich der Erforschung des Esperanto und anderer geplanter sowie internationaler Sprachen und ihrer Verwendung widmen.
Organisationen.
Der mit etwa 15.000 Mitgliedern größte weltweite Dachverband ist der Esperanto-Weltbund mit Sitz in Rotterdam. Ihm obliegt die Ausrichtung und Organisation des jährlich stattfindenden Esperanto-Weltkongresses, der größten und wichtigsten Veranstaltung mit Teilnehmerzahlen zwischen 350 und 3000.
Die größten Esperanto-Organisationen in Deutschland sind mit etwa 700 Mitgliedern der Deutsche Esperanto-Bund sowie dessen Jugendorganisation, die Deutsche Esperanto-Jugend, die mit ihren Orts-, Regional- und Landesverbänden etwa 100 Mitglieder hat. Diese ist gleichzeitig Mitglied der weltweiten Jugendorganisation TEJO.
Im österreichischen Landesverband sind 72 Esperantisten organisiert, die Schweizerische Esperanto-Gesellschaft vertritt 170 Mitglieder inklusive der Jugendgruppe.
Anzahl der Sprecher.
Esperanto als zweite Muttersprache.
Nach Darstellung des Esperanto-Aktivisten Renato Corsetti waren 1996 etwa 350 Familien bei der „Familia Rondo“ des Esperanto-Weltbundes registriert, in denen die Kinder mit Esperanto als zweiter Muttersprache aufwuchsen. Eine Schätzung der Vorsitzenden der Gesellschaft für Interlinguistik von 2012 geht von bis zu 2000 Muttersprachlern aus; der Esperanto-Weltbund gab im April 2017 eine Anzahl von 1000 Muttersprachlern an.
Esperanto als Fremdsprache.
Die Schätzungen für die Zahl der heutigen Sprecher weichen stark voneinander ab – es finden sich Zahlen zwischen 100.000 und zehn Millionen. Dabei ist zu beachten, dass verschiedene Angaben sich auf unterschiedliche Niveaus der Sprachbeherrschung und -nutzung beziehen; oft wird von ein paar Millionen ausgegangen, die Esperanto gelernt haben, und ein paar hunderttausend, die Esperanto regelmäßig sprechen.
Schätzungen gehen davon aus, dass in den über 130 Jahren seines Bestehens zwischen 5 und 15 Millionen Menschen Esperanto erlernt hätten.
Im Jahr 1889 lebten noch über 90 % der Esperantosprecher in Russland. Eine umfassende Erhebung des deutschen Esperanto-Instituts im Jahr 1926 ergab eine Anzahl von 136.209 Sprechern weltweit, darunter über 120.000 in Europa, etwa 31.000 in Deutschland.
Esperanto habe darüber hinaus eine lange Geschichte in Ländern wie China, Japan und Brasilien, und aktive Esperanto-Sprecher könnte man in den meisten Ländern der Welt finden, schreiben Byram und Hu. John R. Edwards zitiert einen Zeitungsartikel von "People's Daily", laut dem es in China 2004 ca. 10.000 Esperanto-Sprecher gab, von denen etwa 10 % die Sprache fließend beherrschten. Bei der ungarischen Volkszählung für 2011 gaben 8397 Personen Esperanto-Kenntnisse an. Bei einer Einwohnerzahl von etwa 10 Millionen entspricht das einem Anteil von etwas weniger als 0,1 Prozent der Bevölkerung, die angaben, Sprachkenntnisse in Esperanto zu besitzen; im Vergleich zu anderen Fremdsprachen liegt Esperanto auf Platz 15. Seit 2001 sind in Ungarn etwa 39.000 staatlich anerkannte Esperanto-Sprachprüfungen abgelegt worden, also von etwa 0,4 % der Bevölkerung. Bei der russischen Volkszählung für 2021 gaben 753 Personen Esperanto-Kenntnisse an.
Das linguistische Sammelwerk Ethnologue gab 2017 eine Zahl von zwei Millionen Menschen an, die Esperanto sprechen; diese Zahl basiert auf Schätzungen von 2004 und 2015.
Mark Fettes, Vorsitzender der Universala Esperanto-Asocio (UEA) von 2013 bis 2019, schätzte im Jahr 2003 eine Zahl von weniger als 150.000 aktiven Sprechern weltweit; für diese Schätzung wurde angenommen, der Esperanto-Weltbund (UEA) habe 20 % der aktiven Esperanto-Sprecher als Mitglieder (damals etwa 20.000 Mitglieder in den Landesverbänden). Rudolf Fischer, damals Vorsitzender des Deutschen Esperanto-Bundes, vermutete 2008:
Anzahl organisierter Esperanto-Sprecher.
Ende 2016 hatte der Esperanto-Weltbund (UEA) 4365 Einzelmitglieder und 8689 assoziierte Mitglieder. Das ist der niedrigste Stand seit der Neugründung der UEA 1947.
Esperanto als Unterrichtsfach.
Esperanto in sozialistischen Staaten.
Während zu Zeiten des Kalten Kriegs in den sozialistischen Staaten Esperanto gefördert wurde, spielt Esperanto-Unterricht in Schulen oder Hochschulen des ehemaligen Ostblocks heute faktisch keine Rolle mehr.
Nach Angaben aus dem Jahr 1982 wurde seinerzeit in 36 Ländern Esperanto-Unterricht aufgrund staatlicher Verfügungen erteilt. Dazu gehörten viele sozialistische Staaten, darunter Polen, Ungarn, Bulgarien und die baltischen Sowjetrepubliken.
Hintergrund war die Tatsache, dass die damaligen sozialistischen bzw. kommunistischen Staaten Englisch als De-facto-Weltsprache und die damit einhergehende westliche Dominanz nicht akzeptieren wollten und daher Esperanto als Gegengewicht unterstützten. Dazu wurden die staatlich unterstützten Esperanto-Verbände eingesetzt. Lehrveranstaltungen an Universitäten gab es 1970 weltweit an 15 Hochschulen, 1980 an 51 und 1985 an 110 Hochschulen in 22 Ländern. Nach einer Schätzung des Esperantisten Humphrey Tonkin aus dem Jahr 1984 erlernten an 32 chinesischen Universitäten 120.000 Studenten Esperanto, während gleichzeitig etwa 10 Millionen chinesische Studenten Englisch lernten. Der wichtigste Esperanto-Studiengang bestand zwischen 1969 und 2002 an der Eötvös-Loránd-Universität in Budapest.
Esperanto heute.
Anfang des 21. Jahrhunderts ist in Ungarn Esperanto als Prüfungsfach an einigen höheren Schulen zugelassen. Es existieren kleinere Schulprojekte an Grundschulen wie das britische "Springboard to Languages," das an vier Grundschulen durchgeführt wird. Ein dreijähriger esperantosprachiger Studiengang „Interlinguistik“ wird seit 1998 an der Adam-Mickiewicz-Universität Posen angeboten; an der Universität Amsterdam existiert seit 2002 ein vom Esperanto-Weltbund finanzierter, jeweils auf fünf Jahre begrenzter Lehrstuhl für Interlinguistik und Esperanto.
Bei Duolingo wird derzeit (2023) ein Esperanto-Sprachkurs auf Englisch angeboten. Für die noch existierenden Kurse auf Französisch, Portugiesisch und Spanisch kann man sich seit Januar 2023 nicht mehr neu anmelden. Duolingo begründet den Schritt damit, dass Updates wegen des geringen Interesses an diesen Kursen nicht rentabel seien. Ob die drei Kurse ganz verschwinden, ist unklar.
Esperanto ist außerdem die zweite „Amtssprache“ der Mikronation Molossia.
Immaterielles Kulturerbe in Polen und Kroatien.
In Polen gehört Esperanto „als Träger der Esperanto-Kultur“ seit 2014 zum offiziellen immateriellen Kulturerbe. Die Republik Kroatien hat die Esperanto-Tradition 2019 ebenfalls als immaterielles Kulturerbe anerkannt.
Esperantide.
Sogenannte Esperantide (auch Esperantoide) sind Sprachen, die auf der Basis von Esperanto konzipiert wurden. Die erste dieser Art ist Mundolinco, die bereits 1888, also ein Jahr nach Esperanto, veröffentlicht wurde.
Ido.
Ido ist eine 1907, also 20 Jahre nach Esperanto, publizierte Plansprache, die auf dessen Gerüst basiert. Es wurden einige Vereinfachungen und Vereinheitlichungen vorgenommen, wie zum Beispiel der Verzicht auf jegliche diakritische Zeichen. Einige Veränderungen erfolgten auch in der Grammatik, wobei es sich nicht um Grundlegendes handelt.
Novial.
Novial ist ein 1928 von Otto Jespersen entwickelter Mittelweg zwischen Esperanto und Ido.
Arcaicam Esperantom.
Arcaicam Esperantom wurde als „archaische Sprachform“ entwickelt, die in der Esperanto-Literatur als Stilmittel zur Verfügung steht.
Kritik an Esperanto.
Gegen Esperanto wurde unter anderem Folgendes als Kritik vorgebracht:
Gustav Landauer, Schriftsteller und Anarchist (1907):
Edgar von Wahl, Erfinder der Plansprache Occidental/Interlingue (1930):
Wolf Schneider, Journalist und Schriftsteller, zunächst Englisch-Dolmetscher (1994):
Jürgen Trabant, Romanist (2011):
Das Esperanto-Alphabet wird kritisiert für die Verwendung von Konsonanten-Buchstaben mit Zirkumflex, die in den Alphabeten der Welt sehr selten seien. Der Versuch, diese Zeichen zu ersetzen, führe zu Digraphen, welche für Esperanto untypisch und in Wörterbüchern und Suchabfragen problematisch seien. Auch seien in vielen Sprachen die Fragepronomen (wann, warum, wer, quand, pourquoi, qui, when, why, who, …) phonetisch deutlich voneinander abgegrenzt, was die Kommunikation erleichtere – die Fragewörter in Esperanto seien jedoch alle zweisilbig, mit derselben betonten Silbe „ki-“. Zudem lasse Esperanto als Plansprache keine natürliche Evolution zu; die Weiterentwicklung der Sprache geschehe bislang nur durch die Erweiterung des Vokabulars: Wenn die Sprecher je nach ihrer Herkunft und ihren Bedürfnissen grammatikalische Strukturen, Schreibweisen und die Aussprache veränderten, trete eine unerwünschte Regionalisierung der „Weltsprache“ ein.
Literatur.
Zamenhofs Broschüre mit den Grundlagen der Sprache
Sprachwissenschaft
Geschichte
Wörterbücher (in Buchform)
Wörterbücher (online)
Lehrbücher und Grammatiken |
1241 | 230923262 | https://de.wikipedia.org/wiki?curid=1241 | Edgar G. Ulmer | Edgar Georg Ulmer (* 17. September 1904 in Olmütz, Österreich-Ungarn; † 30. September 1972 in Woodland Hills, Kalifornien) war ein US-amerikanischer Filmregisseur, Drehbuchautor, Bühnenbildner und Produzent mährisch-österreichischer Herkunft.
Ulmer vermochte als Regisseur Produktionen mit niedrigem Budget formell so sehr zu verfeinern, dass sie rückblickend von Filmjournalisten und -historikern hoch geschätzt wurden. Ulmer schuf insgesamt 128 Filme in mehreren Ländern.
Leben und Wirken.
Edgar Georg Ulmer wurde während eines Ferienaufenthaltes seiner jüdischen Eltern im mährischen Olmütz geboren. Im Jahre 2005 fand der Literaturwissenschaftler Bernd Herzogenrath nach jahrelanger Archivarbeit das Geburtshaus Ulmers – als Resultat der Bemühungen wurde anlässlich des von Herzogenrath organisierten 'ulmerfest' 2006 eine Gedenktafel am Haus angebracht (siehe Foto). Ulmer studierte an der Akademie für angewandte Kunst Wien mit dem Ziel, Bühnenbildner zu werden.
Eintritt in die Welt des Films als Szenenbildner.
Seine ersten Filmarbeiten dürften eigenen Angaben zufolge ab 1920 erfolgt sein, sind aber nicht mehr verifizierbar. Ab dem Alter von 16 Jahren habe er demnach, da er sich um vier Jahre älter ausgegeben hatte, an deutschen und österreichischen Großproduktionen wie "Der Golem, wie er in die Welt kam", "Sodom und Gomorrha", "Nibelungen" und "Der letzte Mann" als Szenenbildner mitgearbeitet.
1923 begleitete Ulmer Max Reinhardt als Szenenbildner für die "Mirakel"-Inszenierung nach New York. 1924 kam er erneut in die Vereinigten Staaten und fand dort 1925 bei Universal als Ausstattungs- und Regieassistent bei namentlich nicht bekannten „Two-Reel“ (also etwa 20 Minuten langen) Western-Serienproduktionen Beschäftigung. Anschließend arbeitete er als Assistent von Friedrich Wilhelm Murnau, der mittlerweile nach Hollywood gewechselt hatte. Als "Art Director" von "Sunrise" wird Ulmer erstmals auch im Titelvorspann erwähnt.
1929 war Ulmer wieder in Berlin tätig. Er war Produktionsleiter und Szenenbildner bei "Flucht in die Fremdenlegion" und "Spiel um den Mann" und wirkte darüber hinaus an "Menschen am Sonntag" mit, einem Stummfilmklassiker, der unter Federführung einer Reihe damals noch unbekannter Filmschaffender wie Billy Wilder, Fred Zinnemann und den Brüdern Curt und Robert Siodmak entstand. Danach, 1930, ging Ulmer erneut und endgültig in die Vereinigten Staaten. In Hollywood übernahm er die Postproduktion von Murnaus "Tabu" (1931), nachdem dieser bei einem Autounfall verstorben war. Es folgten Arbeiten als Bühnenbildner für die "Philadelphia Grand Opera Company" und als Art Director für MGM.
Karriere als Regisseur.
1932 ging Ulmer nach New Jersey, um in den Metropolitan Studios von Fort Lee die Regie von "The Warning Shadow" zu übernehmen. Der Film kam jedoch nie in die Kinos; möglicherweise wurde er nicht fertiggestellt. Zwei Akte des Films wurden jedoch in der von Ed Sullivan geschriebenen Satirekomödie über New York, "Mr. Broadway", eingebaut.
Ein Schwerpunkt in Ulmers Filmen waren eine Zeit lang Minderheiten in den USA. Als „director of minorities“ bezog er Eigenheiten der jeweiligen Volksgruppe mit ein und drehte in Mexiko wie auch an der Ostküste der USA für die ukrainische Minderheit, für osteuropäische jüdische Immigranten oder die schwarze Bevölkerung Harlems. So entstanden besondere „Minderheitenfilme“ wie die jiddischen Melodramen "Grine felder" und "Die Kliatsche", der auf Ukrainisch gedrehte Film "Zaporozhets Za Dunayem" oder das melodramatische Musical "Moon over Harlem". Diese Filme wurden in Biographien über ihn lange Zeit kaum näher betrachtet.
Zwischen 1940 und 1942 stellte Ulmer auch kurze Aufklärungsfilme für die nationale Gesundheitsbehörde und Trainings- und Lehrfilme für die US Army her. Ab 1942 inszenierte er in Zusammenarbeit mit Leon Fromkess als "First Contract Director" 15 Filme für die Producers Leasing Corporation her. Als diese 1946 aus finanziellen Gründen den Betrieb einstellte, gründete Ulmer eine eigene Gesellschaft, die jedoch nach wenigen Monaten ebenfalls pleite war.
1946 inszenierte er die auf Hedy Lamarr zugeschnittene Großproduktion "The Strange Woman", kehrte aber danach wieder zu kleineren „Independent“-Filmgesellschaften zurück.
„B-Movies“.
Ulmer arbeitete meist unter einschränkenden Umständen, mit knappen Budgets, oft mittelmäßigen Drehbüchern, Zeitdruck und für zweitklassige Studios. Die so entstandenen, so genannten B-Movies waren nicht mit den Großproduktionen der großen Hollywood-Studios vergleichbar. Sie brachten aber Werke hervor, die zwar zu Lebzeiten kaum gewürdigt wurden, aber retrospektiv, im Hinblick auf den Stil des Film noir, von Filmjournalisten und -historikern geschätzt werden.
Sein Ruf geht auf jene jeweils innerhalb kürzester Zeit entstandenen Filme zurück, in denen er unter einschränkenden Umständen Möglichkeiten zur atmosphärischen und visuellen Anreicherung geschickt ausnutzte. Erster dieser Filme war der Horrorklassiker "Die schwarze Katze" ("The Black Cat") nach Edgar Allan Poe, in dem die beiden Filmstars Boris Karloff und Bela Lugosi erstmals gemeinsam vor der Kamera standen. Weitere Arbeiten waren "Corregidor", "Bluebeard", der Film noir "Umleitung", die von "Citizen Kane" inspirierte und mit Sozialkritik durchsetzte psychologische Studie "Ruthless", der Western "The Naked Dawn" und der Science-Fiction-Film "Beyond the time Barrier".
Seine Filme wurden zur Zeit ihrer Entstehung von der US-amerikanischen Filmkritik überwiegend ignoriert, in Filmkreisen wurde sein Schaffen kontrovers diskutiert. 1956 machte Luc Moullet in der Zeitschrift "Les Cahiers du cinéma" auf den vernachlässigten Künstler der visuellen Sprache, den "le plus maudite cinéaste" ("verfluchtesten Filmschaffenden"), aufmerksam und verschaffte einer weniger voreingenommenen Betrachtung Platz.
Familie.
Ulmer war in zweiter Ehe mit der Autorin Shirley Kassler (1914–2000) verheiratet, die einige seiner Drehbücher verfasste. Die gemeinsame Tochter Arianné Ulmer Cipes steht der "Edgar G. Ulmer Preservation Corp." in Sherman Oaks vor und trat als Schauspielerin unter dem Namen "Arianne Arden" in drei Nachkriegsfilmen ihres Vaters in Erscheinung.
Seine jüngste Tochter Carola Krempler (* 1966) lebt mit ihrer Familie in Wien. |
1242 | 2458679 | https://de.wikipedia.org/wiki?curid=1242 | Establishing Shot | Ein Establishing Shot () ist die erste Einstellung einer Sequenz, häufig eine Totale. Er zeigt meist eine Landschaftsaufnahme oder den jeweiligen Ort des Geschehens. Durch den Establishing Shot soll der Ort der Handlung vorgestellt und dadurch etabliert werden. Er dient damit der räumlichen und zeitlichen Orientierung des Zuschauers im Handlungsraum.
Besonders wichtig sind Establishing Shots bei bekannten Schauplätzen wie berühmten Weltstädten. Sie müssen so gestaltet sein, dass der Zuschauer den Handlungsort sofort erkennen kann. Ein sehr populäres Beispiel ist Hongkong, das seit den 1970er Jahren sehr häufig mit immer fast gleichen Aufnahmen eines auf dem berühmten Flughafen Kai Tak landenden Flugzeugs über der Stadt als Establishing Shot eingeführt wurde. Bei Filmen, die in Berlin spielen, wird z. B. der Fernsehturm oder der Bundestag in der Eröffnungssequenz gezeigt, bei Paris meist der Eiffelturm. |
1243 | 234698742 | https://de.wikipedia.org/wiki?curid=1243 | Eisenhüttenstadt | Eisenhüttenstadt ist eine Stadt im Landkreis Oder-Spree des Landes Brandenburg am Westufer der Oder. Sie entstand als Planstadt nach einem Beschluss ab Juli 1950 als sozialistische Wohnstadt für das Eisenhüttenkombinat Ost (EKO). Das Werk ist noch heute ein bedeutender Arbeitgeber. Gebaut wurde nahe dem historischen, seit dem 13. Jahrhundert bestehenden Ort Fürstenberg (Oder), mit dem der seit 1953 "Stalinstadt" genannte Ortsteil 1961 zu "Eisenhüttenstadt" vereint wurde. Die Stadt ist ein Mittelzentrum und bildete bis 1993 einen eigenen Stadtkreis. Seitdem hat sie den Status einer amtsfreien Großen kreisangehörigen Stadt.
Durch seine Geschichte als komplette Stadtneugründung und den städtebaulichen Aufbau mit diversen Baudenkmalen gilt Eisenhüttenstadt als besonderes Bauensemble.
Geografie.
Eisenhüttenstadt liegt auf einer Talsandterrasse des Warschau-Berliner Urstromtales. Im Süden ist es vom Hügelland einer Endmoräne, den Diehloer Bergen, begrenzt. In Eisenhüttenstadt mündet der Oder-Spree-Kanal in die Oder.
Die Stadt liegt etwa 25 Kilometer südlich von Frankfurt (Oder), 25 Kilometer nördlich von Guben und 110 Kilometer von Berlin entfernt.
Eisenhüttenstadt befindet sich im äußersten Norden der Niederlausitz und ist nach Cottbus und Żary (Sorau) deren drittgrößte Stadt. Im Landkreis Oder-Spree ist Eisenhüttenstadt, nach Fürstenwalde/Spree, die zweitgrößte Stadt.
Nachbargemeinden.
Die Gemeinden auf der östlichen Oderseite in Polen sind nur über die Brücken in Frankfurt (Oder), Coschen oder Guben zu erreichen, da die zerstörte Oderbrücke nicht wieder errichtet worden ist.
Stadtgliederung.
Die Stadt besteht aus dem nach 1950 entstandenen Stadtzentrum und den eingemeindeten Ortsteilen:
Das Stadtzentrum ist wiederum in sieben Wohnkomplexe unterteilt, die ursprünglich mit Geschäften und Dienstleistungseinrichtungen sowie Schulen und Kindergärten ausgestattet waren.
Wohnplätze
Geschichte.
Historischer Überblick.
Bereits nach 1251 wurde auf dem heutigen Stadtgebiet im Rahmen der Territorialpolitik des meißnischen Markgrafen Heinrichs des Erlauchten die Stadt Fürstenberg im Verband der Niederlausitz gegründet. 1286 ist sie als Civitas und Zollstätte bezeugt. Im 14. Jahrhundert veranlasste Kaiser Karl IV. den Bau einer Stadtmauer. Von 1316 bis 1817 stand die Grundherrschaft mit geringen Unterbrechungen dem Kloster Neuzelle zu. Der in der ersten Hälfte des 14. Jahrhunderts gebildete Rat hatte die Niedergerichte inne, gemeinsam mit dem Abt von Neuzelle auch die Obergerichte.
Nach dem Prager Frieden 1635 kam Fürstenberg mit der Niederlausitz zum Kurfürstentum Sachsen, 1815 fiel es an Preußen. Das abseits der Fernstraße Frankfurt (Oder) – Guben an einer wenig bedeutenden Oderfähre gelegene, aber als Zollstätte wichtige Städtchen, in dem auch Fischerei und Schifffahrt betrieben wurden, hatte im Jahr 1830 1686 Einwohner. Mit dem Bau der Bahn von Frankfurt (Oder) nach Breslau 1846 und im Anschluss an den hier in die Oder mündenden Oder-Spree-Kanal (1891) begann eine industrielle Entwicklung mit Glashütten, Werften, Säge-, Öl- und Getreidemühlen. Die jüdische Gemeinde der Stadt nahm 1890 ihren Friedhof in Nutzung, der später von den Nazis zerstört wurde. Zwischen 1871 und 1900 verdoppelte sich die Bevölkerungszahl auf 5.700, bis 1933 stieg sie auf 7.054. Im Jahre 1925 wurde ein Oderhafen angelegt.
Für die Kriegsvorbereitungen der Nationalsozialisten entstand zwischen dem Kanal, der Bahnlinie und der Schönfließer Chaussee (heute Beeskower Straße) das "Chemische Zentralwerk" der DEGUSSA, in dem während des Zweiten Weltkrieges Häftlinge eines Außenlagers des KZ Sachsenhausen und Kriegsgefangene des M-Stammlager III B (Kriegsgefangenen-Mannschafts-Stammlager) Zwangsarbeit verrichteten, bei der Tausende ums Leben kamen. Außerdem wurden sie im "Oder Gerätebau" eingesetzt, einer ausgelagerten Rüstungsfabrik von "Rheinmetall-Borsig", im Kraftwerk Vogelsang an der Oder, im Forst und beim Straßenbau. Zwischen 1940 und 1943 wurde am Oder-Spree-Kanal der GBI-Hafen errichtet, mit einem Granitlager für die geplante Reichshauptstadt, der heutige Hafen Eisenhüttenstadt.
Am 24. April 1945 besetzte die Rote Armee die Stadt. Fürstenberg (Oder) wurde Garnisonsstadt der sowjetischen Truppen. Die Industrieanlagen wurden zum großen Teil als Reparationsleistung demontiert.
Auf dem III. Parteitag der SED vom 20. bis 24. Juli 1950 wurde der Beschluss zum Bau des Eisenhüttenkombinats Ost (EKO) und einer sozialistischen Wohnstadt bei Fürstenberg (Oder) gefasst. Die neue Wohnstadt sollte nach den „16 Grundsätzen des Städtebaus“ und im architektonischen Stil des Sozialistischen Klassizismus errichtet werden (erste sozialistische Stadt Deutschlands).
Am 18. August 1950 erfolgte der symbolische erste Axthieb zum Baubeginn des Eisenhüttenkombinats. Am 1. Januar 1951 legte Minister Fritz Selbmann den Grundstein für den ersten Hochofen, der am 19. September 1951 den Betrieb aufnahm. Bis 1955 entstanden fünf weitere Hochöfen. Am 1. Februar 1953 wurde die Wohnstadt als selbstständiger Stadtkreis aus dem Kreis Fürstenberg herausgelöst und am 7. Mai 1953 aus Anlass des Todes von Stalin in Stalinstadt umbenannt. Ursprünglich sollte die Stadt zum 70. Todestag von Karl Marx den Namen "Karl-Marx-Stadt" erhalten, den dann stattdessen Chemnitz erhielt. Ende des Jahres 1953 hatte die Stadt 2.400 Einwohner, im Jahre 1960 bereits 24.372. Fürstenberg (Oder) wurde 1952 Kreisstadt und hatte 1960 eine Einwohnerzahl von 6.749.
Am 13. November 1961 wurden die Städte Fürstenberg (Oder) (mit dem Ortsteil Schönfließ) und Stalinstadt zu Eisenhüttenstadt zusammengeschlossen, um im Rahmen der Entstalinisierung den unerwünscht gewordenen Namen zu tilgen. Dabei wurde die Stadt Fürstenberg (Oder) aus dem Landkreis Fürstenberg herausgelöst und der bereits unter dem Namen Stalinstadt bestehenden kreisfreien Stadt zugeschlagen. Eisenhüttenstadt war dann bis zur Bildung des Landkreises Oder-Spree sowohl kreisfreie Stadt als auch Kreisstadt des Kreises Eisenhüttenstadt im Bezirk Frankfurt (Oder).
Am 19. September 1986 wurde unter großer politischer Anteilnahme in der Bundesrepublik ein Abkommen über die erste deutsch-deutsche Städtepartnerschaft zwischen Saarlouis und Eisenhüttenstadt unterzeichnet.
Mit dem Ausbau des Hüttenwerks stieg die Einwohnerzahl bis 1988 auf den historischen Höchststand von über 53.000. Im Jahre 1993 erfolgte die Eingemeindung des Ortes Diehlo. 1996 wurde die Neue Deichbrücke über den Oder-Spree-Kanal wiederaufgebaut. Mit dem Strukturwandel nach der Wiedervereinigung hat sich die Einwohnerzahl nahezu halbiert. Um den Schrumpfungsprozess zu beherrschen, wurde ein Stadtumbauprogramm begonnen, das mit dem Abriss und der Sanierung zahlreicher Wohnungen verbunden ist.
Ortsname.
Der etwas sperrige Name der Stadt hat immer schon dazu animiert, griffigere Bezeichnungen zu kreieren. In der Umgangssprache wird die Stadt oft verkürzt mit „Hüttenstadt“ oder „Hütte“ bezeichnet. Aufgrund des Verfalls seit 1989 wird die Stadt heute im Volksmund bisweilen „Schrottgorod“ genannt. Schrott verballhornte darin das Eisen als ein zur Wiederverwertung anstehendes Material, die Endung "-gorod" die russische Endung für -stadt.
Eingemeindungen.
Die Gemeinde Diehlo wurde im Jahr 1993 Ortsteil von Eisenhüttenstadt.
Bevölkerungsentwicklung.
Gebietsstand des jeweiligen Jahres, Einwohnerzahl: ab 1995 jeweils 31. Dezember,
ab 2011 auf Basis des Zensus 2011
Es handelt es sich um amtliche Fortschreibungen der Staatlichen Zentralverwaltung für Statistik der DDR (bis 1989) und des Amtes für Statistik Berlin-Brandenburg (ab 1990).
Politik.
Stadtverordnetenversammlung.
Die Stadtverordnetenversammlung (SVV) Eisenhüttenstadt besteht aus 32 Stadtverordneten und dem hauptamtlichen Bürgermeister. Die Kommunalwahl am 26. Mai 2019 führte zu folgendem Ergebnis:
Bürgermeister.
Bürgermeister von Stalinstadt bzw. seit 1961 Eisenhüttenstadt:
Balzer wurde in der Bürgermeisterstichwahl am 8. Oktober 2017 mit 67,9 % der gültigen Stimmen für eine Amtszeit von acht Jahren gewählt.
Wappen.
Das Wappen wurde am 31. Januar 1992 genehmigt.
Blasonierung: „In goldenem Feld über drei blauen Wellenfäden in Rot rechts ein Hochhaus, links ein Hochofensystem überhöht von dem bandförmig blauen Teilumriss einer links gewandten Friedenstaube.“
Eisenhüttenstadt führt seit 1973 ein Wappen, das von Johannes Hansky (1925–2004) entworfen wurde. Im Vordergrund werden ein rotes Hochhaus und daneben ein roter Hochofen dargestellt, die für das metallurgische Zentrum stehen. Darüber schwebt stilisiert eine Friedenstaube. Im Schildfuß symbolisieren drei blaue Wellen die Lage an der Oder.
Kirchliche Einrichtungen.
Die evangelische Friedensgemeinde Eisenhüttenstadt nutzte für Gottesdienste in Schönfließ zunächst einen Raum in einer Gaststätte. In der Neustadt waren zunächst ein sogenannter Evangeliumswagen, zwischenzeitlich ein Zelt und ab 1952 eine Baracke vorhanden. Für die geplanten Wohnsiedlungen, damals noch als Stalinstadt, waren seitens Walter Ulbricht keine kirchlichen Einrichtungen und insbesondere "keine Kirchtürme" vorgesehen. Das heutige evangelische Kirchengebäude und Gemeindezentrum in der Neustadt wurde 1981 vollendet und geht mit auf den langjährigen Einsatz des späteren Ehrenbürgers Pfarrer Heinz Bräuer zurück.
Im Ortsteil Fürstenberg wurde die im Krieg stark zerstörte Nikolaikirche provisorisch aufgebaut und nach der Wende grundlegend saniert. Die neuapostolische Gemeinde in Eisenhüttenstadt hat eine Kirche im Stadtteil Fürstenberg.
Seit den 1920er Jahren gab es eine baptistische Gemeindearbeit, aus der 1990 die Evangelisch-Freikirchliche Gemeinde als selbstständige Gemeinde hervorging.
Zur katholischen Pfarrei Beata Maria Virgo in Neuzelle gehören in Eisenhüttenstadt die Kirche "Heiligstes Herz Jesu" in Fürstenberg und die 1994 eingeweihte Kirche "Heilig Kreuz" in Schönfließ, die bis 2019 eine eigene Pfarrei bildeten.
Sehenswürdigkeiten und Kultur.
In der Liste der Baudenkmale in Eisenhüttenstadt und der Liste der Bodendenkmale in Eisenhüttenstadt stehen die vom Land Brandenburg unter Denkmalschutz gestellten Kulturdenkmale der Stadt.
Geschichtsdenkmale.
Im Ortsteil Fürstenberg sind an der Königstraße 61 durch den Künstler Gunter Demnig Stolpersteine für Emma und Siegfried Fellert verlegt worden.
Musik.
Vermutlich seiner Sperrigkeit wegen, die zahllose Assoziationen weckt und eines gewissen Rhythmus nicht entbehrt, existieren verschiedene Musiktitel mit dem Namen der Stadt:
Wirtschaft und Infrastruktur.
Wirtschaft.
Am 18. August 1950 gab der Minister für Industrie der DDR, Fritz Selbmann, mit den ersten Axtschlägen zum Fällen einer Kiefer den Start frei für den Bau des Eisenhüttenkombinats Ost (EKO).
Die Wirtschaft in Eisenhüttenstadt wird heute von der ArcelorMittal Eisenhüttenstadt GmbH dominiert. ArcelorMittal Eisenhüttenstadt ist ein integriertes Hüttenwerk und gehört zu ArcelorMittal, dem weltweit größten Stahlkonzern. Das aus dem "VEB Eisenhüttenkombinat Ost" bzw. der "EKO Stahl GmbH" hervorgegangene Unternehmen ist gegenwärtig das größte in Brandenburg.
Das kanadische Rohstoffunternehmen 5N Plus eröffnete 2008 ein Werk in Eisenhüttenstadt.
Die Neue Oderwerft fertigt und repariert Binnenschiffe aller Art. Sie ist aus mehreren in Fürstenberg angesiedelten Werften hervorgegangen.
Seit dem Frühjahr 2011 produziert die Firma Progroup AG Wellpappen-Rohpapiere für die Verpackungsindustrie in Europa. Im Zuge der Ansiedelung der neuen Papierfabrik wurden auf dem Gelände ein neues Heizkraftwerk von der Firma EnBW Propower GmbH sowie eine neue Kläranlage des örtlichen Trink- und Abwasserzweckverbandes in Betrieb genommen.
Öffentliche Einrichtungen.
Die Stadt ist Sitz des Amtsgerichts Eisenhüttenstadt, das zum Bezirk des Landgerichts Frankfurt (Oder) gehört.
Das städtische Krankenhaus betreibt neben sieben Kliniken, drei Tageskliniken und einem MVZ in Eisenhüttenstadt auch Tageskliniken in Beeskow (Psychiatrie) und Guben (Geriatrie).
Verkehr.
Straßenverkehr.
Eisenhüttenstadt wird von der Bundesstraße 112 durchquert, die aufgrund des Ausbaus der Neiße-Trasse seit 2015 eine schnelle Verbindung nach Frankfurt (Oder) ermöglicht. In der Stadt beginnt die Bundesstraße 246 nach Beeskow. Die nächstgelegene Autobahnanschlussstelle ist "Frankfurt (Oder)-Mitte" an der A 12.
Zwar liegt Eisenhüttenstadt direkt an der polnischen Grenze, hat aber keinen direkten Grenzübergang. Die nächsten Grenzübergänge befinden sich in Coschen (15 km), Frankfurt (Oder) (25 km) und in Guben (30 km).
Schienenverkehr.
Der Bahnhof Eisenhüttenstadt liegt an der Bahnstrecke Frankfurt (Oder)–Cottbus und befindet sich im Stadtteil Fürstenberg. Jeweils zweistündlich gibt es Verbindungen mit der Regionalexpresslinie RE 10 Frankfurt (Oder)–Cottbus–Leipzig und der Regionalbahnlinie RB 43 Frankfurt (Oder)–Cottbus–Falkenberg (Elster), die sich zwischen Frankfurt (Oder) und Cottbus über Eisenhüttenstadt zu einem Stundentakt überlagern.
Hinzu kommt im Berufsverkehr eine weitere Regionalexpresslinie RE 1 mit einzelnen Zügen, die eine Direktverbindung nach Berlin herstellt.
Schifffahrt.
Eisenhüttenstadt liegt an einer Bundeswasserstraße der Ausbauklasse III, der Oder-Spree-Kanal mündet hier in die Oder. Auf dem Wasserweg sind die Küsten der Nord- und Ostsee sowie viele europäische Metropolen zu erreichen. Die Stadt betreibt den Hafen Eisenhüttenstadt mit Bahnanschluss und Straßenanbindung.
Luftverkehr.
Der nächstgelegene Flughafen ist Berlin Brandenburg. Ein Verkehrslandeplatz liegt am Nordwestrand der Stadt im zur Gemeinde Siehdichum gehörenden Pohlitz.
Kfz-Kennzeichen.
Ab 1994 wurde das Unterscheidungszeichen "EH" durch das kreisweite Zeichen "LOS" abgelöst. Aufgrund der Kennzeichenliberalisierung kann seit 2017 bei Zulassungen auch wieder das Zeichen "EH" gewählt werden, nachdem sich die Eisenhüttenstädter in Umfragen mehrheitlich für die Wiedereinführung des Altkennzeichens ausgesprochen hatten.
Bildung.
Heute existieren in Eisenhüttenstadt fünf Grundschulen, eine Gesamtschule mit gymnasialer Oberstufe und ein Gymnasium. Weiterhin gibt es ein Oberstufenzentrum mit angeschlossenem beruflichem Gymnasium, drei berufliche Schulen und Fachoberschulen, zwei Förderschulen und zwei weitere Weiterbildungseinrichtungen. Träger der Schulen sind die Stadt Eisenhüttenstadt, der Landkreis Oder-Spree und private Träger.
Albert-Schweitzer-Gymnasium
1991 entstand das durch den Stadtkreis Eisenhüttenstadt getragene Gymnasium als "Städtisches Gymnasium Eisenhüttenstadt." Mit Neubildung des Landkreises Oder-Spree wechselte 1993 die Trägerschaft. Am 30. Oktober 1996 erhielt die Schule den Namen "Albert-Schweitzer-Gymnasium". Die Namensgebung erfolgte im Beisein des damaligen Bundespräsidenten Roman Herzog und des Ministerpräsidenten Manfred Stolpe.
Seit Mai 2009 kann auf dem Schulgelände eine Albert-Schweitzer-Ausstellung besichtigt werden, die eine Dauerleihgabe des Niederlausitzer Albert-Schweitzer-Freundeskreises ist.
Oberstufenzentrum Oder-Spree
Das Oberstufenzentrum Oder-Spree mit über 3500 Auszubildenden und Schülern ist die größte Bildungseinrichtung im Landkreis Oder-Spree und betreibt den Außenstandort "Gottfried Wilhelm Leibniz" in der Waldstraße 10. Die Einrichtung vereint Bildungsgänge der Berufsschule, der Berufsfachschule, der Fachoberschule und des beruflichen Gymnasiums. Ein wesentlicher Schwerpunkt der Bildungs- und Erziehungsarbeit ist die Pflege vielfältiger internationaler Beziehungen mit Partnerschulen unter anderem in Japan, Schweden, Frankreich, Holland, Dänemark und Polen.
Die Schule fusionierte 2012 mit dem OSZ Palmnicken in Fürstenwalde/Spree, wo die Schulleitung und das Sekretariat ihren Sitz haben.
Schule für Gesundheits- und Pflegeberufe e. V.
Die Schule ist seit dem Jahr 1954 eine staatlich anerkannte Fachschule für Gesundheits- und Pflegeberufe. Ihr früherer Name ist "Medizinische Fachschule Eisenhüttenstadt – MeFa". Sie wird von einem Verein getragen, dessen Mitglieder Gesundheitseinrichtungen der Region sind.
Landesschule und Technische Einrichtung für Brand- und Katastrophenschutz LSTE
Die LSTE ist der Aus- und Fortbildung von Angehörigen der Feuerwehren und Katastrophenschutzeinheiten gewidmet. Weiterhin werden spezielle Wartungen von Geräten und Fahrzeugen des Brand- und Katastrophenschutzes durchgeführt sowie Technik und Fachpersonal im Fall von Großschadensereignissen vorgehalten.
Medien.
In Eisenhüttenstadt erscheint als tägliche Regionalzeitung die Märkische Oderzeitung mit einem eigenen Lokalteil. Daneben werden die Anzeigenblätter "Märkischer Markt" und "Märkischer Sonntag" herausgegeben.
Außerdem wird in der Stadt mit dem "Oder-Spree-Fernsehen" (OSF) ein lokales Fernsehprogramm produziert, das in Eisenhüttenstadt, Neuzelle und Beeskow über Kabel zu empfangen ist.
Sport.
In den Sportanlagen Waldstraße befindet sich das "Stadion der Hüttenwerker".
Mit dem Eisenhüttenstädter FC Stahl, dem FSV Dynamo Eisenhüttenstadt, der SG Aufbau Eisenhüttenstadt und dem 1. FC Fürstenberg stellte die Stadt bis zum 30. Juni 2016 vier Vereine im Bereich Fußball. Diese waren von der Brandenburg-Liga bis zur Kreisliga vertreten. Zum 1. Juli 2016 fusionierten der Eisenhüttenstädter FC Stahl, die SG Aufbau Eisenhüttenstadt und der 1. FC Fürstenberg und starteten als FC Eisenhüttenstadt den Spielbetrieb auf der 6. Spielebene (Brandenburg-Liga), der er auch in der Saison 2018/2019 angehört.
Persönlichkeiten.
Söhne und Töchter der Stadt.
darunter Sportler |
1244 | 495898 | https://de.wikipedia.org/wiki?curid=1244 | Einstellungsgröße | Die Einstellungsgröße bezeichnet in der Filmkunst das Größenverhältnis des abgebildeten Subjekts/Objekts zur Cadrage, also dem vorgegebenen Bildfeld. Die Einstellungsgröße ergibt sich aus der Distanz der Kamera zum aufgenommenen Subjekt/Objekt und den gewählten Abbildungsparametern der Kamera.
Einstellungsgrößen finden neben der Filmkunst und der Fotografie auch in der Comic-Kunst Anwendung. Sie sind ein wichtiges Mittel bildlichen/filmischen Erzählens und können psychologische Akzente setzen. In der Regel werden die Einstellungsgrößen im Storyboard definiert.
Grundsätzlich gibt es viele verschiedene Bezeichnungen und Schemata zur Definition von Einstellungsgrößen. Die Grenzen zwischen den einzelnen Einstellungen sind nicht streng, und es gibt regionale Unterschiede (USA, Europa), wie auch persönliche Handschriften eines Regisseurs, Kameramanns oder Filmemachers. Je mehr Bildinhalt um den fokussierten Hauptinhalt herum zu sehen ist, desto totaler ist die Einstellung. Die Einstellungen werden oft in zwei Hauptgruppen unterteilt: Die "totalen Einstellungen" (engl. "long shots") und die "nahen Einstellungen" "(close-ups)". Im Folgenden sind die wichtigsten kurz vorgestellt: "Supertotale", "Totale", "Halbtotale", "Amerikanische" Einstellung, "Halbnahe", "Nahe", "Groß-", "Detailaufnahme", "Italienische" Einstellung.
Ein Wechsel der Einstellungsgröße bei laufender, stationärer Kamera wird als Zoom bezeichnet. Ein Wechsel kann aber auch durch eine Kamerafahrt erfolgen, was bei szenischen Produktionen wesentlich häufiger der Fall ist als ein Zoom. Da sich beim Zoom die Perspektive nicht verändert (der Kamerastandort bleibt gleich), wird diese Methode des Wechsels der Einstellungsgröße als flach und leblos angesehen. Sie entspricht auch nicht der alltäglichen Seherfahrung des Publikums, die eine Veränderung des Bildausschnittes instinktiv mit einer Bewegung des Betrachters verbindet. Eine Sonderform ist der Dolly-Zoom, eine Kamerafahrt mit gleichzeitig gegenläufigem Zoom. Die Einstellungsgröße bleibt bei einem sauber ausgeführten Dolly Zoom gleich, während die Veränderung in der Perspektive ein Schwindelgefühl vermittelt.
Totale Einstellungen "(long shots)".
Supertotale.
In der "Supertotalen", auch "Weite", "Panorama" oder "Weitwinkel-Ansicht" genannt, ist eine Landschaft der Bildinhalt. Menschen erscheinen darin verschwindend klein. Sie wird zum Beispiel für "Establishing Shots" eingesetzt, um das Geschehen in seine Umgebung eingebettet zu zeigen. Als psychologischer Akzent kann sie Gefühle wie Einsamkeit, Isolation, Fremdheit und/oder Gefahr, aber auch Freiheit und Unendlichkeit ausdrücken. Diese Einstellung eignet sich auch, um die Tiefe der Landschaft zu verdeutlichen, wenn Personen diese betreten oder Fahrzeuge hineinfahren.
Totale.
Die Einstellung wird verwendet, wenn eine Person oder Gruppe vollständig in ihrer Umgebung, also "total" zu sehen ist, die Landschaft aber nicht den Hauptbildinhalt ausmacht. Der Mensch erscheint zwar größer als in der Supertotalen, aber immer noch relativ unwichtig. Die Totale wird häufig für "Establishing Shots" eingesetzt. In Filmen, die überwiegend oder nur aus Totalen bestehen, wirken die Akteure unnahbar. In Dokumentarfilmen sind totale Einstellungen häufiger als in Spielfilmen zu finden. Sie sind dafür da, um einen Überblick über das Geschehen zu geben.
Halbtotale.
Die Figuren werden von Kopf bis Fuß gezeigt. Diese Einstellungsgröße lässt sich gut für Menschengruppen einsetzen, oder für körperliche Aktionen, beispielsweise in der Slapstick-Comedy. In der Halbtotalen ist die Körpersprache oft wichtiger als der Dialog.
Full Shot.
Der "Full Shot" ist eine besondere Form der halbtotalen Einstellung. Er zeigt nur die Personen und wenig oder gar nichts von deren Umgebung.
Nahe Einstellungen "(close-ups)".
Medium Shot.
Die Figuren werden vom Kopf abwärts gezeigt bis zur Hüfte; man nimmt hier die breiteste Stelle der Hüfte als Anhaltspunkt, um die Person anzuschneiden; die unmittelbare Umgebung ist im Hintergrund erkennbar. Eine Sonderform ist die amerikanische Einstellung (american shot, AS), in der die Darsteller bis etwa zum Knie gezeigt werden. Diese Einstellungsgröße wurde oft im Western verwendet, um die Cowboys mitsamt ihrer Waffe zu zeigen.
Halbnah.
Die Figur wird vom Kopf bis zur Hüfte gezeigt. Diese Einstellung entspricht der natürlichen Sehsituation und wird deswegen häufig in Dialogszenen verwendet.
Die halbnahe Einstellung wird aber auch in geschlossenen Räumen verwendet und in der deutschen Filmproduktion als "halbnaher Einer", "Zweier" oder "Dreier" usw. bezeichnet.
Nahe.
Die Figur wird vom Kopf bis zur Mitte des Oberkörpers gezeigt. Diese Einstellungsgröße kommt zum Beispiel in Gesprächsszenen zum Einsatz, wenn es auf die Mimik und Gestik ankommt. Auch sieht der Zuschauer in dieser Einstellung, wohin die Figur schaut, und kann daraus Schlüsse über den Fortgang der Handlung ziehen. In deutschen Filmproduktionen werden traditionell die Begriffe "nahe Einer" oder "Zweier" verwendet.
Sie wird auch als "Talking-Head" oder "Talking-Head Shot" bezeichnet. Sie wird bei Nachrichten- und Sportsendungen sowie Dokumentationen verwendet. Dabei sitzt die Person etwa 3–4 Meter vor der Kamera und blickt direkt in die Linse. In Dokumentationen spricht die Person dann reflektierend über die gezeigten Ereignisse. Dafür werden nur eine Kamera und wenige Leuchtmittel benötigt.
Großaufnahme.
Der Kopf der Figur und ein Teil der Schultern werden abgebildet. Oft sind Teile des gefilmten Objekts (Hüte usw.) abgeschnitten. Die Mimik steht hier deutlich im Vordergrund. Die Einstellungsgröße kann verwendet werden, um Gefühle im Stadium ihrer Entstehung zu zeigen oder Handlungen, die nur mit den Händen vorgenommen werden.
Detail.
Es wird nur ein Ausschnitt des Gesamtbildes gezeigt, beispielsweise nur die Augen oder der Mund eines Menschen oder andere wichtige Details der Szene, wie etwa die Worte, die auf einem Computer getippt werden.
Die Aufmerksamkeit des Zuschauers wird auf einen kleinen Bildausschnitt gelenkt. Die intensive Bildwirkung vermittelt Intimität oder erzeugt auch eine abstoßende Wirkung.
Italienisch.
Besondere Art der Detailaufnahme, bei der nur die Augen des Protagonisten gezeigt werden. Ein bekanntes Beispiel ist in Sergio Leones Western "C'era una volta il West" "(Spiel mir das Lied vom Tod)" in den Szenen des Duells zwischen Henry Fonda und Charles Bronson zu sehen.
Bedeutungen der Einstellungen.
Jede Einstellungsform eignet sich für bestimmte Zwecke besonders gut. Eine wichtige Informationsquelle ist aber auch der Wechsel der Einstellungen. An ihr lassen sich stilistische Merkmale und auch die Handschrift des Regisseurs erkennen. Auch verschiedene Filmtraditionen und -kulturen verwenden traditionell sehr unterschiedliche Wechsel in den Einstellungen.
Actionfilme oder Dokumentarfilme weisen oft einen hohen Anteil "long shots" auf, weil für diese Filme Mimik und nonverbale Ausdrucksformen weniger wichtig sind, sondern gesamte Vorgänge eingefangen werden. Auch quasidokumentarische Filme enthalten oft viele totale Einstellungen und verraten hiermit ihre Herkunft aus dem Dokumentarfilm. Filme, die Beziehungen der Figuren und das Gefühl in den Vordergrund stellen, enthalten viele Nahe Einstellungen. |
1246 | 22254 | https://de.wikipedia.org/wiki?curid=1246 | Erbium | Erbium ist ein chemisches Element mit dem Elementsymbol Er und der Ordnungszahl 68. Im Periodensystem steht es in der Gruppe der Lanthanoide und zählt damit auch zu den Metallen der Seltenen Erden. Der Name leitet sich von der Grube Ytterby bei Stockholm ab, wie auch der von Ytterbium, Terbium und Yttrium.
Geschichte.
Erbium wurde 1843 von Carl Gustav Mosander entdeckt. Allerdings handelte es sich bei dem vermeintlich reinen Oxid um eine Mischung der Oxide aus Erbium, Scandium, Holmium, Thulium und Ytterbium.
Um die spätere Aufklärung machten sich die Chemiker Marc Delafontaine und Nils Johan Berlin verdient. Reines Erbiumoxid stellten 1905 der französische Chemiker Georges Urbain und der amerikanische Chemiker Charles James her.
Vorkommen.
Erbium ist ein seltenes Metall (3,5 ppm), das in der Natur nicht in reiner Form, sondern vor allem in dem Mineral Monazit vorkommt.
Gewinnung und Darstellung.
Nach einer aufwändigen Abtrennung der anderen Erbiumbegleiter wird das Oxid mit Fluorwasserstoff zum Erbiumfluorid umgesetzt. Anschließend wird mit Calcium unter Bildung von Calciumfluorid zum metallischen Erbium reduziert. Die Abtrennung verbleibender Calciumreste und Verunreinigungen erfolgt in einer zusätzlichen Umschmelzung im Vakuum.
Eigenschaften.
Physikalische Eigenschaften.
Das silberweiß glänzende Metall der Seltenen Erden ist schmiedbar, aber auch ziemlich spröde.
Chemische Eigenschaften.
In Luft läuft Erbium grau an, ist dann aber recht beständig. Bei höheren Temperaturen verbrennt es zum Sesquioxid Er2O3. Mit Wasser reagiert es unter Wasserstoffentwicklung zum Hydroxid. In Mineralsäuren löst es sich unter Bildung von Wasserstoff auf.
In seinen Verbindungen liegt es in der Oxidationsstufe +3 vor, die Er3+-Kationen bilden in Wasser rosafarbene Lösungen. Feste Salze sind ebenfalls rosa gefärbt.
Verwendung.
Erbium-dotierte Lichtwellenleiter werden für optische Verstärker verwendet, die in der Lage sind, ein Lichtsignal zu verstärken, ohne es zuvor in ein elektrisches Signal zu wandeln. Gold als Wirtsmaterial dotiert mit einigen hundert ppm Erbium wird als Sensormaterial magnetischer Kalorimeter zur hochauflösenden Teilchendetektion in der Physik und Technik verwendet.
Erbium wird neben anderen Selten-Erd-Elementen wie Neodym oder Holmium zur Dotierung von Laserkristallen in Festkörperlasern eingesetzt (Er:YAG-Laser, siehe auch ). Der Er:YAG-Laser wird hauptsächlich in der Humanmedizin eingesetzt. Er hat eine Wellenlänge von 2940 nm und damit eine extrem hohe Absorption im Gewebewasser von ca. 12000 pro cm.
Als reiner Beta-Strahler wird 169Er in der Nuklearmedizin zur Therapie bei der Radiosynoviorthese eingesetzt.
Viele seiner Verbindungen, wie Erbiumchlorid, sind rosa gefärbt und werden deshalb in der Töpferei und Glasbläserei eingesetzt. |
1247 | 141348 | https://de.wikipedia.org/wiki?curid=1247 | Einsteinium | Einsteinium ist ein ausschließlich künstlich erzeugtes chemisches Element mit dem Elementsymbol "Es" und der Ordnungszahl 99. Im Periodensystem steht es in der Gruppe der Actinoide (7. Periode, f-Block) und zählt zu den Transuranen. Einsteinium ist ein radioaktives Metall, welches nur mit hohem Aufwand in gerade noch wägbaren Mengen herstellbar ist. Es wurde 1952 nach dem Test der ersten amerikanischen Wasserstoffbombe entdeckt und Albert Einstein zu Ehren benannt, der jedoch persönlich mit der Entdeckung bzw. Forschung an Einsteinium nichts zu tun hatte. Es entsteht in sehr geringen Mengen in Kernreaktoren. Das Metall wie auch seine Verbindungen werden in geringen Mengen in erster Linie zu Studienzwecken gewonnen.
Geschichte.
Einsteinium wurde zusammen mit Fermium nach dem Test der ersten amerikanischen Wasserstoffbombe, Ivy Mike, am 1. November 1952 auf dem Eniwetok-Atoll gefunden. Erste Proben erhielt man auf Filterpapieren, die man beim Durchfliegen durch die Explosionswolke mitführte. Größere Mengen isolierte man später aus Korallen. Aus Gründen der militärischen Geheimhaltung wurden die Ergebnisse zunächst nicht publiziert.
Eine erste Untersuchung der Explosionsüberreste hatte die Entstehung eines neuen Plutoniumisotops 244Pu aufgezeigt, dies konnte nur durch die Aufnahme von sechs Neutronen durch einen Uran-238-Kern und zwei folgende β-Zerfälle entstanden sein.
Zu der Zeit nahm man an, dass die Absorption von Neutronen durch einen schweren Kern ein seltener Vorgang wäre. Die Identifizierung von 244Pu ließ jedoch den Schluss zu, dass Urankerne viele Neutronen einfangen können, was zu neuen Elementen führt.
Die Trennung der gelösten Actinoid-Ionen erfolgte in Gegenwart eines Citronensäure/Ammoniumcitrat-Puffers im schwach sauren Medium (pH ≈ 3,5) mit Ionenaustauschern bei erhöhter Temperatur. Element 99 (Einsteinium) wurde schnell nachgewiesen; man fand zuerst das Isotop 253Es, einen hochenergetischen α-Strahler (6,6 MeV). Es entsteht durch Einfangen von 15 Neutronen aus 238U, gefolgt von sieben β-Zerfällen.
Diese Bildung durch fortgesetzten Neutroneneinfang war möglich, weil im Moment der Detonation die Neutronenflussdichte so hoch war, dass die meisten der zwischenzeitlich gebildeten – radioaktiven – Atomkerne bis zum jeweils nächsten Neutroneneinfang noch nicht zerfallen waren. Bei sehr hohem Neutronenfluss steigt also die Massenzahl stark an, ohne dass sich die Ordnungszahl ändert. Erst anschließend zerfallen die entstandenen instabilen Nuklide über viele β-Zerfälle zu stabilen oder instabilen Nukliden mit hoher Ordnungszahl:
Im September 1953 war noch nicht abzusehen, wann die Ergebnisse der Teams in Berkeley, Argonne und Los Alamos veröffentlicht werden könnten. Man entschied sich dazu, die neuen Elemente durch Beschussexperimente herzustellen; gleichzeitig versicherte man sich, dass diese Ergebnisse nicht unter Geheimhaltung fallen würden und somit veröffentlicht werden konnten. Einsteiniumisotope wurden kurz danach am University of California Radiation Laboratory durch Beschuss von Uran (238U) mit Stickstoff (14N) hergestellt. Dabei merkte man an, dass es Forschungen zu diesem Element gebe, die bislang noch unter Geheimhaltung stehen. Isotope der beiden neu entdeckten Elemente wurden durch Bestrahlung des Plutoniumisotops 239Pu erzeugt, die Ergebnisse wurden in fünf kurz aufeinander folgenden Publikationen veröffentlicht. Die letzten Reaktionen ausgehend von Californium sind:
Das Team in Berkeley war zudem besorgt, dass eine andere Forschergruppe die leichteren Isotope des Elements 100 durch Ionenbeschuss entdecken und veröffentlichen könnte, bevor sie ihre unter Geheimhaltung stehende Forschung hätten veröffentlichen können. Denn im ausgehenden Jahr 1953 sowie zu Anfang des Jahres 1954 beschoss eine Arbeitsgruppe des Nobel-Instituts für Physik in Stockholm Urankerne mit Sauerstoffkernen; es bildete sich das Isotop mit der Massenzahl 250 des Elements 100 (250Fm).
Das Team in Berkeley veröffentlichte schon einige Ergebnisse der chemischen Eigenschaften beider Elemente. Schließlich wurden die Ergebnisse der thermonuklearen Explosion im Jahr 1955 freigegeben und anschließend publiziert.
Letztlich war die Priorität des Berkeley-Teams allgemein anerkannt, da ihre fünf Publikationen der schwedischen Publikation vorausgingen, und sie sich auf die zuvor noch geheimen Ergebnisse der thermonuklearen Explosion von 1952 stützen konnten. Damit war das Vorrecht verbunden, den neuen Elementen den Namen zu geben. Sie entschieden sich, diese fortan nach berühmten, bereits verstorbenen Wissenschaftlern zu benennen. Man war sich schnell einig, die Namen zu Ehren von Albert Einstein und Enrico Fermi zu vergeben, die beide erst vor kurzem verstorben waren: „We suggest for the name for the element with the atomic number 99, einsteinium (symbol E) after Albert Einstein and for the name for the element with atomic number 100, fermium (symbol Fm), after Enrico Fermi.“ Die Bekanntgabe für die beiden neu entdeckten Elemente "Einsteinium" und "Fermium" erfolgte durch Albert Ghiorso auf der 1. Genfer Atomkonferenz, die vom 8. bis 20. August 1955 stattfand. Das Elementsymbol für Einsteinium wurde später von "E" auf "Es" geändert.
Isotope.
Sämtliche bisher bekannten 17 Nuklide und 3 Kernisomere sind radioaktiv und instabil. Die bekannten Massenzahlen reichen von 241 bis 258. Die längste Halbwertszeit hat das Isotop 252Es mit 471,7 Tagen, so dass es auf der Erde keine natürlichen Vorkommen mehr geben kann. 254Es hat eine Halbwertzeit von 275,7 Tagen, 255Es von 39,8 Tagen und 253Es von 20,47 Tagen. Alle weiteren radioaktiven Isotope haben Halbwertszeiten unterhalb von 40 Stunden, bei der Mehrzahl von ihnen liegt diese unter 30 Minuten. Von den 3 Kernisomeren ist 254"m"Es das stabilste mit t½ = 39,3 Stunden.
"→ Liste der Einsteiniumisotope"
Gewinnung und Darstellung.
Einsteinium wird durch Beschuss von leichteren Actinoiden mit Neutronen in einem Kernreaktor erzeugt. Die Hauptquelle ist der 85 MW High-Flux-Isotope Reactor am Oak Ridge National Laboratory in Tennessee, USA, der auf die Herstellung von Transcuriumelementen (Z > 96) eingerichtet ist.
Im Jahr 1961 wurde genügend Einsteinium synthetisiert, um eine wägbare Menge des Isotops 253Es zu erhalten. Diese Probe wog etwa 0,01 mg und wurde zur Herstellung von Mendelevium eingesetzt. Weiteres Einsteinium wurde am Oak Ridge National Laboratory durch Beschuss von 239Pu mit Neutronen hergestellt. Ungefähr 3 Milligramm wurden in einer vierjährigen Dauerbestrahlung aus einem Kilogramm Plutonium und anschließender Trennung erhalten.
Gewinnung von Einsteiniumisotopen.
Geringe Mengen an Einsteinium und Fermium wurden aus Plutonium isoliert und abgetrennt, welches mit Neutronen bestrahlt wurde. Vier Einsteiniumisotope wurden gefunden (mit Angabe der damals gemessenen Halbwertszeiten):
Zwei Fermiumisotope wurden gefunden:
Durch Beschuss von Uran mit fünffach ionisierten Stickstoff- und sechsfach ionisierten Sauerstoffatomen wurden gleichfalls Einsteinium- und Fermiumisotope erzeugt.
Das Isotop 248Es wurde beim Beschuss von 249Cf mit Deuterium identifiziert. Es zerfällt hauptsächlich durch Elektroneneinfang (ε) mit einer Halbwertszeit von 25 ± 5 Minuten aber auch durch die Aussendung von α-Teilchen (6,87 ± 0,02 MeV). Das Verhältnis (ε / α) von ∼ 400 konnte durch die Menge des durch Elektroneneinfang entstandenen 248Cf identifiziert werden.
Die Isotope 249Es, 250Es, 251Es und 252Es wurden durch Beschuss von 249Bk mit α-Teilchen erzeugt. Dabei können 4 bis 1 Neutronen den Kern verlassen, so dass die Bildung von vier unterschiedlichen Isotopen möglich ist.
Obwohl das Isotop 252Es die längste Halbwertszeit ausweist, ist das Isotop 253Es leichter zugänglich und wird überwiegend für die Bestimmung der chemischen Eigenschaften herangezogen. Es wurde durch Bestrahlung von 100 bis 200 μg 252Cf mit thermischen Neutronen erhalten (Flussdichte: 2 bis 5×1014 Neutronen × cm−2 s−1, Zeitraum: 500 bis 900 h). Zur Trennung wurde Ammonium-α-hydroxyisobutyrat verwendet.
Darstellung elementaren Einsteiniums.
Einsteinium erhält man durch Reduktion von Einsteinium(III)-fluorid mit Lithium oder Einsteinium(III)-oxid mit Lanthan.
Eigenschaften.
Im Periodensystem steht das Einsteinium mit der Ordnungszahl 99 in der Reihe der Actinoide, sein Vorgänger ist das Californium, das nachfolgende Element ist das Fermium. Sein Analogon in der Reihe der Lanthanoide ist das Holmium.
Physikalische Eigenschaften.
Einsteinium ist ein radioaktives Metall mit einem Schmelzpunkt von 860 °C, einem Siedepunkt von 996 °C und einer Dichte von 8,84 g/cm3. Es kristallisiert im kubischen Kristallsystem in der mit dem Gitterparameter "a" = 575 pm, was einem kubisch flächenzentrierten Gitter (f.c.c.) beziehungsweise einer kubisch dichtesten Kugelpackung mit der Stapelfolge ABC entspricht. Die Radioaktivität ist derart stark, dass dadurch das Metallgitter zerstört wird. Das Metall ist divalent und besitzt eine merklich hohe Flüchtigkeit.
Chemische Eigenschaften.
Einsteinium ist wie alle Actinoide sehr reaktionsfähig. In wässriger Lösung ist die dreiwertige Oxidationsstufe am beständigsten, jedoch kennt man auch zwei- und vierwertige Verbindungen. Zweiwertige Verbindungen konnten bereits als Feststoffe dargestellt werden; der vierwertige Zustand konnte bereits beim chemischen Transport in Tracermengen postuliert werden, eine endgültige Bestätigung steht aber noch aus. Wässrige Lösungen mit Es3+-Ionen haben eine blassrosa Farbe.
Sicherheitshinweise.
Einstufungen nach der CLP-Verordnung liegen nicht vor, weil diese nur die chemische Gefährlichkeit umfassen und eine völlig untergeordnete Rolle gegenüber den auf der Radioaktivität beruhenden Gefahren spielen. Auch Letzteres gilt nur, wenn es sich um eine dafür relevante Stoffmenge handelt.
Verwendung.
Einsteinium findet vor allem Anwendung bei der Erzeugung höherer Transurane und Transactinoide. Ansonsten werden das Metall wie auch seine Verbindungen in erster Linie in geringen Mengen zu Studienzwecken gewonnen.
Verbindungen.
"→ Kategorie: "
Die Untersuchung von Einsteiniumverbindungen ist durch mehrere Faktoren begrenzt:
Oxide.
Einsteinium(III)-oxid (Es2O3) wurde durch Glühen des entsprechenden Nitrats in Submikrogramm-Mengen erhalten. Der Gitterparameter des kubisch-raumzentrierten Kristalls beträgt 1076,6(6) pm. Es sind ferner noch eine monokline und eine hexagonale Lanthan(III)-oxid-Struktur bekannt.
Oxihalogenide.
Bekannt sind die Oxihalogenide Einsteinium(III)-oxichlorid (EsOCl), Einsteinium(III)-oxibromid (EsOBr) und Einsteinium(III)-oxiiodid (EsOI). Einsteinium(III)-oxichlorid besitzt eine tetragonale Struktur vom PbFCl-Typ.
Halogenide.
Halogenide sind für die Oxidationsstufen +2 und +3 bekannt. Die stabilste Stufe +3 ist für sämtliche Verbindungen von Fluor bis Iod bekannt und auch in wässriger Lösung stabil.
Einsteinium(III)-fluorid (EsF3) kann durch Ausfällung aus Einsteinium(III)-chlorid-Lösungen mit Fluorid dargestellt werden, als auch aus Einsteinium(III)-oxid durch Umsetzung mit ClF3 oder F2 bei 1–2 Atmosphären Druck und 300–400 °C. Die Kristallstruktur konnte nicht bestimmt werden, es wird aber davon ausgegangen, dass sie wie bei Berkelium(III)-fluorid (BkF3) und Californium(III)-fluorid (CfF3) dem LaF3-Typ entspricht.
Einsteinium(III)-chlorid (EsCl3) ist ein orangefarbener Feststoff und bildet eine hexagonale Struktur vom UCl3-Typ, wobei das Es-Atom 9-fach koordiniert ist.
Einsteinium(III)-bromid (EsBr3) ist ein weißgelber Feststoff und bildet eine monokline Struktur vom AlCl3-Typ.
Einsteinium(III)-iodid (EsI3) ist ein bernsteinfarbener Feststoff und bildet eine hexagonale Struktur vom BiI3-Typ.
Die zweiwertigen Verbindungen des Einsteiniums werden durch Reduktion der dreiwertigen Halogenide mit Wasserstoff dargestellt.
Von Einsteinium(II)-chlorid (EsCl2), Einsteinium(II)-bromid (EsBr2) und Einsteinium(II)-iodid (EsI2) sind keine näheren kristallographischen Daten bekannt, wohl aber Messwerte von Absorptionsbanden. |
1248 | 2458679 | https://de.wikipedia.org/wiki?curid=1248 | Europium | Europium ist ein chemisches Element mit dem Elementsymbol Eu und der Ordnungszahl 63. Im Periodensystem steht es in der Gruppe der Lanthanoide und zählt damit auch zu den Metallen der Seltenen Erden. Nur Europium und Americium sind nach einem Erdteil benannte Elemente.
Wie die anderen Lanthanoide ist Europium ein silberglänzendes Schwermetall. Die Eigenschaften des Europiums folgen nicht der Lanthanoidenkontraktion. Aufgrund seiner Elektronenkonfiguration weist das Element eine deutlich geringere Dichte sowie einen niedrigeren Schmelz- und Siedepunkt auf als die benachbarten Elemente. Es ist das chemisch reaktivste Seltenerdmetall. Nach ersten Hinweisen auf das Element durch William Crookes und Paul Émile Lecoq de Boisbaudran konnte 1896 Eugène-Anatole Demarçay das Element zunächst spektroskopisch nachweisen und dann isolieren.
Europium hat eine hohe technische Bedeutung in Leuchtstoffen, wie sie etwa in Kathodenstrahlröhrenbildschirmen, welche früher für Computermonitore und Fernseher verwendet wurden, in Leuchtstofflampen sowie in Plasmabildschirmen eingesetzt werden. Sowohl der rote als auch der blaue Leuchtstoff in diesen Bildschirmen und Leuchtmitteln sind Substanzen, die mit Europium dotiert sind und dadurch Fluoreszenz in dem entsprechenden Spektralbereich zeigen.
Geschichte.
Einen ersten Hinweis auf das später Europium genannte Element fand 1885 William Crookes. Bei der Untersuchung von Fluoreszenzspektren von Samarium-Yttrium-Mischungen konnte er Signale einer ungewöhnlichen orangefarbenen Spektrallinie messen, die in Mischungen der Elemente stärker war als in den reinen Stoffen. Diese auf ein unbekanntes Element hindeutende Spektrallinie nannte er „anormale Linie“, das hypothetische Element Sδ. Eine weitere Entdeckung auf dem Weg zum unbekannten Element machte 1892 Paul Émile Lecoq de Boisbaudran, als er im Funkenspektrum von Samarium neben der anormalen Linie Crookes auch drei bislang unbekannte blaue Spektrallinien entdeckte. 1896 postulierte Eugène-Anatole Demarçay anhand von Ultraviolett-Spektren die Existenz eines bislang unbekannten Elements zwischen Samarium und Gadolinium, wobei er im Jahr 1900 erkannte, dass dieses Element gleich dem von Crookes und Boisbaudran vermuteten sein muss. 1901 gelang es Demarçay, dieses durch fraktionierte Kristallisation der Samarium/Europium-Magnesium-Nitrat-Doppelsalze zu isolieren. Er nannte das Element nach dem Kontinent Europa "Europium". In Analogie zum Europium benannten Glenn T. Seaborg, Ralph A. James und Leon O. Morgan 1948 das sich im Periodensystem direkt unter dem Europium befindende Actinoid ebenfalls nach einem Kontinent "Americium".
Die erste wichtige technische Anwendung des Elements war die Produktion von mit Europium dotiertem Yttriumvanadat. Dieser 1964 von Albert K. Levine und Frank C. Palilla entdeckte rote Leuchtstoff spielte bald eine wichtige Rolle bei der Entwicklung des Farbfernsehens. Für diese Anwendung wurde daraufhin das erste Bergwerk für die Gewinnung von Seltenen Erden, das seit 1954 im kalifornischen Mountain Pass betrieben wurde, stark ausgebaut.
Vorkommen.
Europium ist auf der Erde ein seltenes Element, die Häufigkeit in der kontinentalen Erdkruste beträgt etwa 2 ppm.
Europium kommt als Nebenbestandteil in verschiedenen Lanthanoid-Mineralen vor, Minerale mit Europium als Hauptbestandteil sind unbekannt. Das Element ist sowohl in Ceriterden wie Monazit und Bastnäsit als auch in Yttererden wie Xenotim enthalten, der Anteil an Europium beträgt in der Regel zwischen 0,1 und 0,2 %. Das für die Gewinnung von Europium wichtigste Vorkommen war bis 1985 das Bastnäsiterz in Mountain Pass, Kalifornien, danach gewannen chinesische Bergwerke – vor allem das Erzvorkommen in Bayan Obo – große Bedeutung.
In manchen magmatischen Gesteinen ist die Konzentration an Europium höher oder geringer, als nach dem mit Chondriten als Standard bestimmten relativen Häufigkeitsverhältnis der Seltenerdmetalle zu erwarten wäre. Dieses Phänomen wird als Europiumanomalie bezeichnet und beruht darauf, dass unter reduzierenden Bedingungen in Magma Eu3+ zu Eu2+ reduziert werden kann. Dieses besitzt einen größeren Ionenradius als dreiwertiges Europium und wird darum leicht in bestimmte Minerale, etwa an Stelle von Strontium oder Calcium in Kalifeldspat und Plagioklas eingebaut, welche dadurch eine "positive" Europiumanomalie aufweisen. Diese Minerale kristallisieren aus der Magmaschmelze und werden dadurch abgetrennt, während dreiwertiges Europium in der Restschmelze gelöst bleibt. Für den Einbau in mafische Gesteine wie Pyroxen und Olivin anstelle von Eisen, Magnesium und Calcium ist das Eu2+-Ion dagegen zu groß und es kommt zu einer "negativen" Europiumanomalie. Außer durch Kristallisation von Plagioklas kann eine Europiumanomalie auch beim Aufschmelzen von Gesteinen entstehen. Da der Verteilungskoeffizient zwischen Kristall und Schmelze etwa 10-fach größer als für die anderen Seltenerdelemente ist, wird beim teilweisen Aufschmelzen eines Plagioklas-reichen Gesteins nur wenig Europium in die Schmelze abgegeben und es resultiert beim Wiedererstarren ein Gestein mit negativer Europiumanomalie. Die Europiumanomalie ist ein Indikator für den Fraktionierungsgrad eines magmatischen Gesteins.
Eine ausgeprägte Europiumanomalie wurde in Mondgestein gefunden, wobei die Plagioklas-reichen Felsen des Mondhochlandes eine positive (erhöhte Europiumgehalte), die in Kratern und Maria gefundenen Basaltgesteine eine negative Europiumanomalie aufweisen. Dies lässt Rückschlüsse auf die geologische Geschichte des Mondes zu. Dabei wird angenommen, dass die Hochländer mit ihren Anorthositen vor etwa 4,6–4,4 Milliarden Jahren aus dem Mondmantel differenzierten und dieser somit aus Europium-verarmten Olivin-Pyroxen-Gesteinen besteht. Die jüngeren Basalte in den Maria, die aus basaltischen Teilschmelzen dieses Mantels bestehen, sind darum so arm an Europium.
Gewinnung und Darstellung.
Aufgrund der Ähnlichkeit zu den Begleitmetallen und der geringen Konzentration in den Erzen ist die Abtrennung von den anderen Lanthanoiden schwierig, gleichzeitig aber wegen der Verwendung des Elements technisch besonders wichtig. Nach dem Aufschluss der Ausgangsmaterialien wie Monazit oder Bastnäsit mit Schwefelsäure oder Natronlauge sind verschiedene Wege zur Abtrennung möglich. Neben dem Ionenaustausch wird vor allem ein Verfahren eingesetzt, das auf Flüssig-Flüssig-Extraktion und der Reduktion von Eu3+ zu Eu2+ beruht. Dabei wird bei Bastnäsit als Ausgangsmaterial zunächst das Cer in Form von Cer(IV)-oxid abgetrennt und die verbleibenden Seltenen Erden in Salzsäure gelöst. Daraufhin werden mit Hilfe einer Mischung von DEHPA (Di(2-ethylhexyl)phosphorsäure) und Kerosin in Flüssig-Flüssig-Extraktion Europium, Gadolinium und Samarium von den übrigen Seltenerdmetallen getrennt. Die Trennung dieser drei Elemente erfolgt über die Reduktion des Europiums zu Eu2+ und Fällung als schwerlösliches Europium(II)-sulfat, während die anderen Ionen in Lösung bleiben.
Metallisches Europium kann durch Reaktion von Europium(III)-oxid mit Lanthan oder Mischmetall gewonnen werden. Wird diese Reaktion im Vakuum durchgeführt, destilliert Europium ab und kann so von anderen Metallen und Verunreinigungen getrennt werden:
2010 wurden etwa 600 Tonnen Europium produziert und 500 Tonnen verbraucht (jeweils gerechnet als Europiumoxid). Durch den steigenden Bedarf an Europium ist jedoch zu befürchten, dass mittelfristig die Nachfrage das Angebot übersteigt und es zu einer Verknappung kommen wird. Daher wird an einer Ausweitung der Europiumproduktion, insbesondere durch Eröffnung weiterer Minen wie der im australischen Mount Weld und einer Wiedereröffnung der "Mountain Pass Mine" gearbeitet. Durch die hohe Nachfrage nach Europium ist auch der Preis des Elements stark gestiegen. Lag er 2002 noch bei 240 US-Dollar pro Kilogramm, stieg er 2011 auf bis zu 1830 Dollar pro Kilogramm (jeweils 99 % Reinheit).
Eigenschaften.
Physikalische Eigenschaften.
Europium ist wie die anderen Lanthanoide ein silberglänzendes weiches Schwermetall. Es besitzt mit 5,245 g/cm3 eine ungewöhnlich niedrige Dichte, die deutlich niedriger als diejenige der benachbarten Lanthanoide wie Samarium oder Gadolinium und geringer als die des Lanthans ist. Vergleichbares gilt auch für den verhältnismäßig niedrigen Schmelzpunkt von 826 °C und den Siedepunkt von 1440 °C (Gadolinium: Schmelzpunkt 1312 °C, Siedepunkt 3000 °C). Diese Werte stehen der sonst geltenden Lanthanoidenkontraktion entgegen und werden durch die Elektronenkonfiguration [Xe] 4f7 6s2 des Europiums verursacht. Durch die halb gefüllte f-Schale stehen nur die zwei Valenzelektronen (6s2) für metallische Bindungen zur Verfügung; es kommt daher zu geringeren Bindungskräften und zu einem deutlich größeren Metallatomradius. Vergleichbares ist auch bei Ytterbium zu beobachten. Bei diesem Element stehen durch eine vollständig gefüllte f-Schale ebenfalls nur zwei Valenzelektronen für metallische Bindungen zur Verfügung.
Europium kristallisiert unter Normalbedingungen in einem kubisch-raumzentrierten Gitter mit dem Gitterparameter a = 455 pm. Neben dieser Struktur sind noch zwei weitere Hochdruckmodifikationen bekannt. Dabei entspricht die Reihenfolge der Modifikationen bei steigendem Druck wie bei Ytterbium nicht derjenigen der übrigen Lanthanoide. So ist weder eine Europiummodifikation in doppelt-hexagonaler Struktur noch in Samarium-Struktur bekannt. Der erste Phasenübergang im Metall findet bei 12,5 GPa statt, oberhalb dieses Druckes kristallisiert Europium in einer hexagonal-dichtesten Struktur mit den Gitterparametern a = 241 pm und c = 545 pm. Oberhalb von 18 GPa wurde mit Eu-III eine weitere, der hexagonal-dichtesten Kugelpackung ähnliche Struktur gefunden.
Bei hohen Drücken von mindestens 34 GPa ändert sich die Elektronenkonfiguration des Europiums im Metall von zwei- auf dreiwertig. Dies ermöglicht auch eine Supraleitfähigkeit des Elements, die bei einem Druck von etwa 80 GPa und einer Temperatur von etwa 1,8 K auftritt.
Europiumionen, die in geeignete Wirtsgitter eingebaut sind, zeigen eine ausgeprägte Fluoreszenz. Dabei ist die abgestrahlte Wellenlänge von der Oxidationsstufe abhängig. Eu3+ fluoresziert weitgehend unabhängig vom Wirtsgitter zwischen 613 und 618 nm, was einer intensiv roten Farbe entspricht. Das Maximum der Emission von Eu2+ ist dagegen stärker vom Wirtsgitter abhängig und liegt beispielsweise bei Bariummagnesiumaluminat mit 447 nm im blauen, bei Strontiumaluminat (SrAl2O4:Eu2+) mit 520 nm im grünen Spektralbereich.
Chemische Eigenschaften.
Europium ist ein typisches unedles Metall und reagiert mit den meisten Nichtmetallen. Es ist das reaktivste der Lanthanoide und reagiert schnell mit Sauerstoff. Wird es auf etwa 180 °C erhitzt, entzündet es sich an der Luft spontan und verbrennt zu Europium(III)-oxid.
Auch mit den Halogenen Fluor, Chlor, Brom und Iod reagiert Europium zu den Trihalogeniden. Bei der Reaktion mit Wasserstoff bilden sich nichtstöchiometrische Hydridphasen, wobei der Wasserstoff in die Lücken der Kugelpackung des Metalls eintritt.
Europium löst sich in Wasser langsam, in Säuren schnell unter Bildung von Wasserstoff und des farblosen Eu3+-Ions. Das ebenfalls farblose Eu2+-Ion lässt sich durch elektrolytische Reduktion an Kathoden in wässriger Lösung gewinnen. Es ist das einzige zweiwertige Lanthanoid-Ion, das in wässriger Lösung stabil ist. Europium löst sich in Ammoniak, wobei sich wie bei Alkalimetallen eine blaue Lösung bildet, in der solvatisierte Elektronen vorliegen.
Das Eu3+-Kation gehört neben u. a. Sm3+, Tb3+ und Dy3+ zu den Lanthanoid-Kationen, die in einem geeigneten Komplex bei Absorption bestimmter Wellenlängen Licht im sichtbaren Bereich emittieren kann. Das dreiwertige Europium-Kation ist in einer wässrigen Lösung farblos, werden aber organische Liganden mit einem ausgedehnten π-Elektronensystem koordiniert sorgt der "Antenneneffekt" dafür, dass die lumineszenten Eigenschaften des Zentralteilchens stark steigen. So leiten die π-Elektronen des Ligandens die absorbierte Energie des einfallenden Lichtes (ca. 355 nm) zu den 5d-Elektronen des Eu3+, wodurch diese in das 4f-Orbital gelangen und beim Zurückfallen Licht im sichtbaren Bereich (bei ca. 610 nm) emittieren.
Isotope.
Es sind insgesamt 38 Isotope und weitere 13 Kernisomere des Europiums zwischen 130Eu und 167Eu bekannt. Von diesen ist eines, 153Eu, stabil, ein weiteres, 151Eu, galt lange Zeit als stabil; es wurden 2007 jedoch Hinweise darauf gefunden, dass es mit einer Halbwertszeit von mindestens 1,7 Trillionen Jahren als Alphastrahler zerfällt. Diese beiden Isotope kommen in der Natur vor, wobei 153Eu mit einem Anteil von 52,2 % an der natürlichen Isotopenzusammensetzung das häufigere ist, der Anteil an 151Eu beträgt dementsprechend 47,8 %.
Mehrere Europiumisotope wie 152Eu, 154Eu und 155Eu entstehen bei Kernspaltungen von Uran und Plutonium. Dabei ist 155Eu mit einem Anteil von etwa 0,03 % an der Gesamtmenge der Spaltprodukte das häufigste Europiumisotop unter den Spaltprodukten. Es konnte unter anderem im Rongelap-Atoll drei Jahre nach der Kontaminierung durch den Castle-Bravo-Atomwaffentest nachgewiesen werden.
Verwendung.
Europium wird vor allem als Dotierungsmittel für die Produktion von Leuchtstoffen eingesetzt, die etwa in Kathodenstrahlröhrenbildschirmen, welche früher hauptsächlich für Computerbildschirme und Fernseher verwendet wurden sowie für Flugzeuginstrumente benötigt werden, und in Kompaktleuchtstofflampen Verwendung finden. Es werden Leuchtstoffe sowohl mit zwei- als auch dreiwertigem Europium für verschiedene Farben verwendet. Für rote Leuchtstoffe wird vor allem mit Europium dotiertes Yttriumoxid (Y2O3:Eu3+), früher wurden auch Yttriumoxysulfid oder als erster wichtiger roter Leuchtstoff Yttriumvanadat:Eu3+ genutzt. Eu2+ wird meist als blauer Leuchtstoff in Verbindungen wie Strontiumchlorophosphat (Sr5(PO4)3Cl:Eu2+, Strontiumchloroapatit SCAP) und Bariummagnesiumaluminat (BaMgAl11O17:Eu2+, BAM) eingesetzt. Plasmabildschirme erfordern Leuchtstoffe, die die vom Edelgas-Plasma emittierte VUV-Strahlung in sichtbares Licht umwandeln. Hierfür werden sowohl für das blaue als auch rote Spektrum europiumdotierte Leuchtstoffe genutzt – für blaues Licht BAM, für rotes (Y,Gd)BO3:Eu3+.
In Quecksilberhochdrucklampen, die etwa in der Straßenbeleuchtung eingesetzt werden, wird europiumdotiertes Yttriumvanadat auf das Glas aufgebracht, damit das Licht weiß und natürlicher erscheint.
Europium kann auf Grund seiner Neutronenabsorption in Steuerstäben für Kernreaktoren verwendet werden. Europiumhaltige Steuerstäbe wurden unter anderem in verschiedenen sowjetischen Versuchsreaktoren wie BOR-60 und BN-600 erprobt.
Als EuropiumHexaBorid wird es auch als Beschichtung für die Herstellung von Oxidkathoden zur Glühemission angeboten.
Bei Euro-Banknoten wird die Europium-Fluoreszenz gegen Fälschungen verwendet.
Diese Eigenschaft kann auch in der Fluoreszenzspektroskopie ausgenutzt werden. Dazu wird das Europium beispielsweise in einem geeigneten Komplex gebunden, der an der gewünschten Stelle, etwa mit einem bestimmten Protein, bevorzugt reagiert und sich dort anreichert.
Biologische Bedeutung und Toxizität.
Europium kommt nur in minimalen Mengen im Körper vor und hat keine biologische Bedeutung. Auch durch Pflanzenwurzeln kann das Element nicht aufgenommen werden.
Lösliche Europiumverbindungen sind leicht giftig; so wurde für Europium(III)-chlorid ein LD50-Wert von 550 mg/kg für intraperitoneale und 5000 mg/kg für orale Gabe an Mäusen ermittelt. Es konnte keine chronische Toxizität festgestellt werden, was möglicherweise mit der geringen Aufnahme von Europium im Darm und der schnellen Umwandlung von löslichem Europiumchlorid zu unlöslichem Europiumoxid unter basischen Bedingungen zusammenhängt. Unlösliche Europiumverbindungen gelten als weitgehend ungiftig, wie in einer Studie mit Europium(III)-hydroxid-Nanopartikeln an Mäusen ermittelt wurde.
Bei Europium(III)-hydroxid-Nanopartikeln (nicht jedoch bei amorphem Europium(III)-hydroxid) wurde eine pro-angiogenetische Wirkung festgestellt, sie fördern "in vitro" die Zellproliferation von Endothelzellen, "in vivo" an Hühnereiern wurde eine vermehrte Bildung von kleinen Blutgefäßen beobachtet. Ein möglicher Mechanismus für diese Beobachtung ist die Bildung von reaktiven Sauerstoffspezies und die Aktivierung von MAP-Kinasen durch diese Nanopartikel.
Verbindungen.
Es sind Verbindungen in den Oxidationsstufen +2 und +3 bekannt, wobei wie bei allen Lanthanoiden zwar die dreiwertige Stufe die stabilere, die zweiwertige jedoch ebenfalls ungewöhnlich stabil ist und daher eine Vielzahl von Eu(II)-Verbindungen existieren. Die Ionenradien unterscheiden sich je nach Oxidationsstufe, wobei Eu2+-Ionen größer als Eu3+-Ionen sind. Mit der Koordinationszahl sechs betragen sie 131 pm für Eu2+ und 108,7 pm für Eu3+. Der "effektive Ionenradius" (der als Bezugsgröße ein mit 140 pm um 14 pm größeres O2−-Ion verwendet) beträgt dementsprechend 117 pm bzw. 94,7 pm für die Koordinationszahl sechs. In höheren Koordinationszahlen sind die Ionenradien größer, so beträgt er für Eu2+ in der Koordinationszahl acht 139 pm.
Sauerstoffverbindungen.
Europium(III)-oxid, Eu2O3, ist die technisch wichtigste Europiumverbindung und dient als Ausgangsmaterial zur Herstellung anderer Europiumverbindungen sowie als Dotierungsmittel für Fluoreszenzfarbstoffe wie Y2O3:Eu3+, das eine besonders intensive rote Fluoreszenz bei einem Europium(III)-oxid-Gehalt von etwa 10 % zeigt. Es kristallisiert wie die anderen Lanthanoidoxide in der kubischen Lanthanoid-C-Struktur.
Europium(II)-oxid, EuO, ist ein violett-schwarzer ferromagnetischer Feststoff mit einer Curie-Temperatur von 70 K, der in einer Natriumchlorid-Struktur kristallisiert. Es lässt sich durch Reduktion von Europium(III)-oxid mit Europium gewinnen und ist das einzige zweiwertige Oxid der Lanthanoide, das unter Normalbedingungen stabil ist. Neben diesen beiden Oxiden ist auch das gemischtvalente Oxid Europium(II,III)-oxid, Eu3O4, bekannt.
Weitere Europiumverbindungen.
Ähnliche Eigenschaften wie EuO haben auch die Eu-Chalkogenide (also -Sulfide, -Selenide und -Telluride) sowie ihre ungeordneten Legierungen. Eu1-xSrxS ist z. B. für x=0 ein Ferromagnet, der für formula_3 zu einem isolierenden Spinglas wird, das u. a. wegen seines nichtmetallischen Verhaltens für Computersimulationen besonders geeignet ist.
Mit den Halogenen Fluor, Chlor, Brom und Iod reagiert Europium zu den Trihalogeniden. Diese zersetzen sich beim Erhitzen zu den Dihalogeniden und elementaren Halogenen.
In einer äquimolaren Lösung aus Europium(III)-acetat und Chrom(VI)-oxid kann auch Europium(III)-chromat erstellt werden.
Europium bildet metallorganische Verbindungen. Anders als bei den anderen Lanthanoiden lässt sich aber keine Cyclopentadienylverbindung des dreiwertigen Europiums synthetisieren. Bekannt ist zwar eine Verbindung, die neben drei Molekülen Cyclopentadienyl zusätzlich ein Molekül Tetrahydrofuran enthält, dieses ist jedoch stark an das Europium gebunden und lässt sich durch Erhitzen oder im Vakuum nicht entfernen, da die Verbindung sich vorher zersetzt. Dagegen sind das Europiumdicyclopentadienyl (Cp)2Eu(II) und weitere bekannte Derivate stabil. Vom zweiwertigen Europium sind auch Alkinyl-Europium-Verbindungen bekannt.
Einen Überblick über Europiumverbindungen bietet die . |
1249 | 684707 | https://de.wikipedia.org/wiki?curid=1249 | Eisen | Eisen ist ein chemisches Element mit dem Symbol Fe () und der Ordnungszahl 26. Es gehört zu den Übergangsmetallen, die im Periodensystem die 8. Nebengruppe (Eisen-Platin-Gruppe), nach der neuen Zählung die Gruppe 8 (Eisengruppe) bilden. Eisen ist, auf den Massenanteil (ppmw) bezogen, nach Sauerstoff, Silicium und Aluminium das vierthäufigste Element in der Erdkruste und nach Aluminium das häufigste Metall.
Auf der Erde kommt es, außer in verschiedenen Erzen und Eisenmineralien, in Form einer Legierung in Eisenmeteoriten vor. Aus diesen wurden schon vor der eigentlichen Eisenzeit, teilweise schon 3000 Jahre vor unserer Zeitrechnung, Kultgegenstände, Werkzeuge oder Waffen hergestellt. Heute werden vor allem die Eisenerze Magnetit, Hämatit und Siderit abgebaut.
Chemisch reines Eisen ist ein silberweißes, verhältnismäßig weiches, dehnbares, recht reaktionsfreudiges Metall. Es wird als ferromagnetisches Material von Magneten angezogen und kann eigene Magnetfelder ausbilden. Reines Eisen wird in der Praxis relativ selten verwendet, aber es geht mit etwa 80 anderen Elementen Legierungen ein, deren wichtigste Stahl und Gusseisen sind. Diese besitzen für viele Industriezweige wie die Automobilindustrie, den Maschinenbau, das Bau- und Transportwesen und die Energieerzeugung eine unersetzliche wirtschaftliche und technische Bedeutung.
Eisen ist ein essentielles Spurenelement für fast alle Lebewesen. Bei Tieren ist es ein Bestandteil des Blutes in Form von Hämoglobin in den roten Blutkörperchen und auch für die Bildung von Proteinen und Enzymen von Bedeutung.
Begriffsverwendung und Wortherkunft.
Neben dem chemischen Element als Reineisen wurden früher auch die praktisch viel bedeutsameren Eisenlegierungen meist als „Eisen“ bezeichnet (z. B. Schmiedeeisen). Im 20. Jahrhundert setzte sich für schmiedbare Eisenlegierungen mit einem Kohlenstoffanteil unter 2 Massenprozent die Bezeichnung „Stahl“ durch. Bei größerem Kohlenstoffanteil gilt weiterhin die Bezeichnung „Gusseisen“.
Bis in das 21. Jahrhundert wurde von Sprachwissenschaftlern (wie zum Beispiel Rudolf Thurneysen oder Stefan Schumacher) angenommen, das keltische und germanische Wort für Eisen (keltisch *"isarnon", germanisch *"isarna") sei aus dem Illyrischen entlehnt worden. Auch wurde wegen des Gegensatzes zur weicheren Bronze eine Verwandtschaft von *"isarnon" zu lateinisch "ira" „Zorn, Heftigkeit“ vertreten. Das neuhochdeutsche Wort "Eisen" (von mittelhochdeutsch "īsen", und zu "īsīn" „eisern“) wird über althochdeutsch "īsa(r)n", aus urgermanisch *"īsarnan" oder *"eisarna-", und dieses aus gallisch *"īsarnon" hergeleitet;. *"isarnan" und "isarnon" setzen sich außer im deutschen "Eisen" auch in den übrigen germanischen Sprachen (englisch "iron", nordfriesisch "joorn", westfriesisch "izer", niederländisch "IJzer") sowie in keltischen Sprachen fort (bretonisch "houarn", kymr. "haearn", irisches und schottisches Gälisch "iarann", Manx "yiarn"). Deswegen werden seit Ende des 20. Jahrhunderts auch andere Entlehnungswege als möglich angenommen.
Geschichte.
Die ältere Kulturperiode der Bronzezeit ging nur sehr allmählich in die jüngere Eisenzeit über. Bei manchen Völkern, wie zum Beispiel aus dem Gebiet des heutigen Indiens, denen leicht verhüttbare Eisenerze zur Verfügung standen, ist eine zeitliche Trennung kaum vorhanden. Archäologen und Wissenschaftler für Technikgeschichte nehmen an, dass sich die Metallurgie von Eisen nur langsam gegen Bronze durchsetzte. So sind die als Nebenprodukt der Kupfer- und Bronzeherstellung in einfachen Rennöfen zufällig entstehenden Eisenschlacken durch den hohen Kohlenstoff- und Schwefelanteil spröde. Das direkt in solchen Öfen aus Eisenerzen ab etwa 2000 v. Chr. erzeugte Eisen ist recht weich, rostet leicht und ist damit Zinnbronze in den Eigenschaften unterlegen. Die Vorteile des Eisens gegenüber der Bronze lagen vor allem in der einfacheren Verarbeitung, weil nur ein Rohstoff benötigt wird. Erst mit der Verbreitung des Aufkohlens zum Stahl (zum Beispiel um 1000 v. Chr. in Zypern) wurde es zum überlegenen Werkstoff. Belege für die Nutzung von Eisen in den verschiedenen Kulturen durch archäologische Funde sind gegenüber den Funden von Bronze relativ selten. Zum einen wurde Eisen in den ältesten Perioden der Geschichte nur in geringem Umfang genutzt, zum anderen neigt Eisen an feuchter Luft, im Wasser und in der nassen Erde zur Korrosion, wodurch viele Gegenstände nicht erhalten blieben oder stark korrodierte Werkzeuge häufig wieder eingeschmolzen wurden. Nur besondere Umstände oder große Abmessungen des Gegenstandes verhinderten den Verlust solcher Stücke, so dass aus der Bronzezeit nur etwa 150 Eisenartefakte erhalten geblieben sind.
Früheste Nutzung von Meteoriteneisen.
Bevor Menschen in diversen Kulturkreisen lernten, Eisen aus Erz zu gewinnen, nutzten sie das bereits vor der eigentlichen „Eisenzeit“ bekannte und an seinem spezifischen Nickelgehalt von etwa 5 bis 18 % erkennbare Meteoreisen oder auch "Meteoriteneisen". Wegen seiner Seltenheit war dieses „Himmelseisen“ (altägyptisch: bj-n-pt = „Eisen des Himmels“) wertvoll und wurde vorwiegend zu Kultgegenständen und Schmuck verarbeitet. So wurden im Alten Ägypten in zwei Gräbern aus vordynastischer Zeit Schmuckperlen aus Meteoreisen mit einem Nickelgehalt von etwa 7,5 % gefunden, die auf etwa 3200 v. Chr. datiert sind. Ebenso konnte die schon früh geäußerte Vermutung bestätigt werden, dass ein als Grabbeigabe bei der Mumie des Pharao Tutanchamun gefundener Dolch von etwa 1350 v. Chr. aus Meteoreisen gefertigt worden war. Die ältesten bekannten Funde aus Meteoreisen stammen aus Mesopotamien, das von den dort lebenden Sumerern als „urudu-an-bar“ (= "Kupfer des Himmels") bezeichnet wurde. Unter anderem wurde in der Stadt Ur ein Dolch mit einer Klinge aus Meteoreisen (10,8 % Nickel) und goldbelegtem Griff entdeckt, dessen Herstellung auf eine Zeit um 3100 v. Chr. datiert ist.
Eisenerzeugung aus Erz.
Zu den Anfängen der Eisenverhüttung siehe
Mittelmeerraum und Kleinasien.
Die Nutzung von nickelfreiem (also terrestrischem) Eisen muss in Mesopotamien ebenfalls schon früh erfolgt sein. Als Beleg dafür dient ein nickelfreier Eisendolch mit Bronzegriff aus der Zeit zwischen 3000 und 2700 v. Chr., der in den Ruinen von Ešnunna bei Tell Asmar im heutigen Irak gefunden wurde. Aus den Aufzeichnungen der Hethiter im Archiv von Boğazkale (ehemals "Boğazköy") in Zentralanatolien geht hervor, dass Eisen bereits zur Zeit von König Anitta (etwa 1800 v. Chr.) bekannt war und die Verhüttung von Eisen mindestens seit etwa 1300 v. Chr. erfolgte. Zwischen 1600 und 1200 v. Chr. spielte die Eisentechnologie des Hethitischen Reiches eine Pionierrolle und gilt als ein wichtiger Faktor für dessen Aufstieg. Die Hethiter stellten aus dem Eisen, das anfänglich mit bis zum achtfachen Gewicht in Gold aufgewogen wurde, zunächst vorwiegend Schmuck her. In der späten Hethiterzeit war Eisen schon so weit verbreitet, dass es in Inventarlisten nicht mehr mit den Edelmetallen, sondern zusammen mit Kupfer geführt wurde. Einzelstücke aus terrestrischem Eisen aus der Mittleren und Späten Bronzezeit fanden sich aber nicht nur bei den Hethitern, sondern auch in Griechenland und Zypern, in Jordanien, Libanon, Israel und Ägypten. Ab 1200 v. Chr. wurde in der Levante Stahl produziert, das heißt Eisen mit erhöhtem Kohlenstoffanteil.
Der Beginn der Eisenzeit wird für den Nahen Osten im Allgemeinen auf das Jahr 1200 v. Chr. festgesetzt – nicht weil Eisen ab diesem Zeitpunkt eine nennenswerte Rolle spielte, sondern weil innerhalb kürzester Zeit die Kulturen der Bronzezeit kollabierten. Die ersten Jahrhunderte der Eisenzeit sind in dieser Region ein „dunkles Zeitalter“, in dem viele Städte zerstört wurden, der Fernhandel zusammenbrach und die Metallproduktion nahezu zum Erliegen kam. Erst ab etwa 700 v. Chr., als sich die Kulturen wieder vom Zusammenbruch zu erholen begannen, kam Eisen wieder häufiger zum Einsatz. Seit 1200 v. Chr. ist in dieser Region der nach der Stadt Damaskus genannte Damaszener Stahl oder Schmelzdamast bekannt, der einen sehr hohen Kohlenstoffgehalt von etwa 1,5 % und beim Polieren ein charakteristisches Muster aufweist. Dieser Werkstoff ist jedoch nicht nur im Nahen Osten, sondern bereits früher in anderen Regionen bekannt, so zum Beispiel in Südindien, wo er spätestens seit 300 v. Chr. hergestellt wird.
Im alten Ägypten ist die Verhüttung von Eisen erst seit dem 6. Jahrhundert v. Chr. nachgewiesen. Gleichwohl wurde bereits im Alten Reich Meteoriteneisen vor allem zur Herstellung von Amuletten und Modellwerkzeugen für das Mundöffnungsritual verwendet. Ein Eisenfund in einem Grab bei Abydos aus der 6. Dynastie (2347–2216 v. Chr.) ließ sich zwar als nickelfrei und damit terrestrischen Ursprungs bestimmen; sein früherer Verwendungszweck konnte jedoch nicht ermittelt werden, da das Stück völlig verrostet war. Ein 1837 in den Fugen der Cheops-Pyramide gefundenes Eisenmesser, das zunächst in die 4. Dynastie datiert wurde, erwies sich hingegen als modernes Stück.
Auch die Chalyber zählten zu den Völkern des Mittelmeerraums und Kleinasiens, die gute Kenntnisse über die Nutzung des Eisens als Hüttenwerkstoff gewonnen hatten. Ihr Name lebte in dem griechischen Wort für Stahl ("chalybs") weiter, im Gegensatz zum gewöhnlichen Eisen ("sideros"). Früheste Spuren von Eisenverhüttung auf griechischem Gebiet fanden sich in Form von Eisenschlacke aus der Zeit um 2000 v. Chr. in Agia Triada auf Kreta.
In Gerar (Palästina) war die Eisenverhüttung etwa ab 1000 v. Chr. bekannt (belegt durch Eisenschmelzöfen und örtlich hergestellte Ackerbaugeräte.)
Europa.
Zu den ältesten europäischen Stücken gehören die eisernen Zelte und Speere, die Graf Gozzadini 1853 in etruskischen Gräbern bei Bologna entdeckt hat. Sie stammen aus dem 9. bis 10. Jahrhundert vor Christus. In Mitteleuropa allgemein wird die vorrömische Eisenzeit üblicherweise in Hallstattzeit (800–450 v. Chr.) und Latènezeit (ab 450 v. Chr.) unterteilt, wobei erste Eisenobjekte in der späten Bronzezeit aufgetaucht waren.
Einer der ältesten bekannten Eisenfunde in Deutschland ist ein eiserner Niet als Verbindung zwischen bronzener Lanzenspitze und hölzernem Schaft, der in Helle (Ostprignitz) gefunden wurde und etwa aus der Zeit um 800 v. Chr. stammt. Im deutschsprachigen Raum markiert die erst etwa 300 Jahre später im gesamten keltischen Kulturkreis beginnende La-Tène-Zeit eine erste Hochkultur mit zahlreichen Eisenverhüttungsplätzen und Eisenfunden (zum Beispiel im Siegerland und in Teltow). In Norddeutschland blieben in der Hallstattzeit die bronzezeitlichen Kulturen bestehen. Südlich der Alpen gab es hingegen mit den Etruskern eine Hochkultur, die große Mengen an Bronze und Eisen herstellte und deren Produkte bis nach Mitteleuropa kamen. Sie bauten unter anderem einen Eisenskarn auf Elba ab.
Vom frühen zweiten Jahrtausend vor Christus bis ins 18. Jahrhundert waren Rennöfen beziehungsweise Rennwerke mit angeschlossenen Schmieden in Europa weit verbreitet. Dies waren einfache, häufig in den Boden eingelassene mit Holzkohle betriebene Herde von einigen Dezimetern Durchmesser und ebensolcher Höhe. Flüssiges Roheisen entstand mit diesem Verfahren nicht, da ein Rennofen nur Temperaturen zwischen 1000 und 1200 °C erreichen konnte, der Schmelzpunkt von reinem Eisen jedoch bei 1538 °C liegt (Schmelzpunkt von reinem Zementit, Fe3C: 1250 °C). Die Rennöfen waren bis ins späte Mittelalter die einzige Methode, um schmiedbares Eisen herzustellen. Bereits in der Zeit um die Geburt Christi erreichte die Eisenproduktion teilweise industrielle Ausmaße. So wird zum Beispiel die Gesamtzahl von vorhandenen Öfen, der in mehreren Zentren im Weichselbogen errichteten Eisenhütten, auf eine Größenordnung von 100.000 bis 200.000 geschätzt. Das Gebiet erstreckt sich von wenigen Kilometern westlich von Warschau bis in das Bergland östlich Kielce. Eine systematische Erforschung des Gebietes ergab, dass die Eisenherstellung zwischen 150 vor und 150 nach Christus ihre höchste Betriebsintensität gehabt haben muss. In Katalonien wurden ab dem 8. Jahrhundert und im Hochmittelalter in vielen Gegenden von Mitteleuropa zunehmend Rennöfen mit von Wasserrädern betriebenen Blasebälgen gebaut, die die Glut mit Sauerstoff versorgten. Diese weiterentwickelten und größeren Öfen wurden „Stücköfen“ oder „Wolfsöfen“ genannt und mussten daher an Wasserläufen gebaut werden. Sie erreichten auch deutlich höhere Temperaturen, die in einem Teil des Ofens den Schmelzpunkt von Eisen überschreiten konnten. Ab diesem Zeitpunkt erlaubte das „Frischen“ eine Verringerung des Kohlenstoffgehalts im Roh- oder Gusseisen. Die frühesten Gusseisenstücke aus ersten einfachen Hochöfen wurden in Schweden (Lapphyttan und Vinarhyttan) entdeckt und auf 1150 bis 1300 datiert. Die ab dem 13. Jahrhundert eingesetzten Floßöfen erlaubten ein kontinuierliches Schmelzen. Mit der gegossenen Kanonenkugel (ab 1400) verbreitete sich die Gusseisenverarbeitung schnell wie die Feldzüge über ganz Europa.
Da die schwindenden Wälder in Europa den wachsenden Bedarf an Holzkohle für die Eisenerzeugung nicht mehr decken konnten, wurde nach Alternativen gesucht. Als Erstem gelang 1709 Abraham Darby in Großbritannien der Einsatz von Kohle (genauer dem Kohleprodukt Koks) als Alternative. In Deutschland wurde erst 1796 ein rein auf Koks ausgelegter Hochofen in Betrieb genommen. Diese Umstellung, zusammen mit der Erfindung der Dampfmaschine, gilt als Beginn der industriellen Revolution. Die Hüttenwerke produzierten Gusseisen und Schmiedeeisen. Mit der Einführung des Puddelverfahrens um 1784 konnte die bisher übliche Holzkohle durch die günstigere Steinkohle ersetzt werden.
Eisennutzung und Funde außerhalb Europas und Kleinasiens.
Auch in Afrika gab es eine sehr alte Tradition der Eisenproduktion, die vor etwa 3000 Jahren begann. Die afrikanischen Metallurgen waren sehr experimentierfreudig und innovativ, die Konstruktionsweisen und Formen der Öfen weisen eine Vielfalt auf, die auf anderen Kontinenten nicht zu finden ist. Bis auf wenige Ausnahmen – nämlich Mauretanien und Niger – gab es an den meisten Fundorten südlich der Sahara keine Kupfer- oder Bronzezeit, die der Eisenverhüttung vorausging: Auf das Neolithikum folgte
direkt die Eisenzeit. Den ältesten bekannten Schmelzofen in Afrika, der im Termit-Massiv im Niger entdeckt wurde, datierten Archäologen auf 800 v. Chr. Weitere Fundstätten für die Eisenverarbeitung wurden zum Beispiel in Walalde im Senegal, in der Zentralafrikanischen Republik, in Ruanda, in Taruga, der Region um Nsukka und am Nordrand des Mandaragebirges im Grenzgebiet zwischen Nigeria und Kamerun entdeckt.
Ab dem 7. Jahrhundert v. Chr. war Eisen außer bei den Kulturen im Nahen Osten und Teilen Europas auch in vielen weiteren Regionen bekannt: so in Indien und Sri Lanka, in China, in Osteuropa bei den Skythen und auch südlich der Sahara in Afrika. In Kolchis, das heutige westliche Georgien, war im 7. Jahrhundert ein wichtiger Eisenproduzent. Dort wurden etwa 400 Öfen gefunden, in denen Hämatit und Magnetit verhüttet wurden.
In China wurden die ersten Erfahrungen mit Eisen an Meteoriteneisen gewonnen. Erste archäologische Spuren von Schmiedeeisen finden sich im Nordwesten, nahe Xinjiang, aus dem 8. vorchristlichen Jahrhundert. Es wird vermutet, dass diese Produkte, die mit den Methoden des Nahen Ostens erstellt wurden, durch Handel nach China gelangt sind. Das änderte sich in der späten Zhou-Zeit im 5. Jahrhundert v. Chr. mit einer massenhaften Produktion von Gusseisen in Hochöfen im Staat Wu, der im Südosten Chinas lag. Die Verhüttung von Eisen in Zentralchina ist mindestens seit der Han-Dynastie (206 v. Chr. bis 222 n. Chr.) belegt. China entwickelte die Technologie kontinuierlich weiter und blieb ein sehr innovatives Zentrum der Metallurgie.
In den Gräbern von Turan, einer Region, die sich über den Osten Irans, den Süden Afghanistans und den Südwesten Pakistans zog, fanden sich eiserne Gegenstände und größere Eisenlager in den Ruinen von Khorsabad, welches 612 v. Chr. zerstört wurde. Entdeckt wurden von Victor Place Ringe und Kettenteile zusammen mit etwa 160.000 kg Eisenbarren. Layard stieß bei seinen Ausgrabungen in Nimrud auf eiserne Waffen wie Helme, Speere und Dolche.<ref name="DOI10.2307/4199639">David Stronach: "Metal Objects from the 1957 Excavations at Nimrud." In: "Iraq." Band 20, 1958, S. 169–181, .</ref> Berühmt ist die Eiserne Säule in Delhi, ein sieben Meter hoher schmiedeeiserner Pfeiler aus dem 4./5. Jahrhundert.
In Australien und den umliegenden besiedelten Inseln Polynesiens war dagegen die Nutzung von Eisen bis zur Entdeckung durch europäische Forscher unbekannt. Die ansonsten hohe Kultur der Inkas und Aztekens in Mittel- und Südamerika verarbeitete ebenfalls Gold, Silber, Kupfer und Bronze in guter Qualität und mit großem Geschick, Eisen jedoch nur in geringen Mengen und nur Meteoreisen. In Nordamerika wurde 1621 in North Carolina mit dem Bau der ersten Eisenhütte begonnen.
Spätere Entwicklung.
Die Mitte des 18. Jahrhunderts beginnende industrielle Revolution zog eine rasche Erfindung von Maschinen und deren Einsatz nach sich. Dadurch stieg nicht nur die Nachfrage nach Rohstoffen wie Eisen rapide, auch der Einsatz von Maschinen im Bergbau, in der Verhüttung und weiteren Bereichen nahm zu. Wenige Jahrzehnte später gab es die ersten Spinnmaschinen, Eisenbahnen und Schiffe aus Eisen. Noch Ende des 18. Jahrhunderts entstanden die ersten Brücken aus Gusseisen. Im 19. Jahrhundert wurde eine Reihe neuer Stahlherstellungs- und Verarbeitungsverfahren entwickelt und eingesetzt. 1810 wurde die Konservendose aus Blech patentiert. 1814 nahm Berzelius das Eisen als Ferrum in seine Atomgewichtstabelle mit auf. 1834 erfand in Clausthal Julius Albert das Drahtseil, das Hanfseile und Eisenketten ersetzte. 1845 wurde im Saarland das erste Walzwerk zur Herstellung von Eisenbahnschienen in Betrieb genommen. Im Jahr 1855 wurden zur Stahlherstellung das Bessemer-, 1864 das Siemens-Martin- und 1879 das Thomas-Verfahren entwickelt. In London wurde für die erste Weltausstellung im Jahr 1851 der Kristallpalast gebaut, ein riesiges Ausstellungsgebäude aus Gusseisen und Glas. 1859 produzierte Alfred Krupp erstmals Geschütze aus Stahl. Generell besitzen Firmen der Stahlindustrie, wie in Deutschland Krupp, Thyssen und Gutehoffnungshütte (heute MAN), seit dieser Zeit eine große wirtschaftliche Bedeutung. Für die Weltausstellung 1889 in Paris wurde der Eiffelturm und für die Weltausstellung 1958 wurde mit dem Atomium die milliardenfache Vergrößerung der kristallinen Elementarzelle des Eisens errichtet. Bereits 1912 erlangte Eisen im Gemisch mit anderen Metallen als Katalysator bei der Synthese von Ammoniak im Haber-Bosch-Verfahren eine große industrielle Bedeutung. Auch bei der 1921 entwickelten Fischer-Tropsch-Synthese von Kohlenwasserstoffen aus Synthesegas spielen Eisenkatalysatoren eine wichtige Rolle. Bis 1925 stieg die jährliche Welterzeugung von Stahl auf rund 100 Millionen Tonnen und in den folgenden 50 Jahren auf rund 700 Millionen Tonnen. Nach 2010 überschritt sie den Wert von 1,5 Milliarden Tonnen. In Deutschland betrug die Produktion von Rohstahl im Jahr 2020 etwa 35 Millionen Tonnen.
Der Preis für Stahl variiert je nach Art des Stahls und den Marktbedingungen, Angebot und Nachfrage stark. So stieg der reale Preis im Ersten Weltkrieg von rund 300 $/t auf 941 $/t im Juli 1917 und fiel gegen Ende des Krieges auf etwa 450 $/t. Nach einem Anstieg durch die beiden Ölpreiskrisen in den 1970er Jahren sank der Preis um 1982 wieder auf dieses Niveau. Infolge einer steigenden Stahlnachfrage stieg der Preis in der Folgezeit wieder, erreichte 1990 etwa 600 $/t und im Juli 2008 einen Rekordwert von fast 1.280 $/t. Als Folge der Weltfinanzkrise und deren Auswirkung in Europa sank der Preis im März 2009 erneut auf einen Wert unter 450 $/t, stieg jedoch schnell wieder auf über 720 $/t im Juli 2011. Nach einem Rückgang der Preise infolge der COVID-19-Pandemie stieg der Preis 2022 teilweise auf 1500 $/t.
Eisenverbindungen.
Neben Eisen selbst sind auch seine Verbindungen von historischer Bedeutung. Schwefelkies (Pyrit und Markasit, Eisen(II)-disulfid) wurde zum Funkenschlagen in steinzeitlichen Schlagfeuerzeugen verwendet, die in Europa vor etwa 40.000 Jahren aufkamen. Natürliche Eisenoxidpigmente sind aufgrund ihrer Farbechtheit in Höhlenmalereien von 35.000 v. Chr. nachweisbar. Mit einer Weltjahresproduktion von über 500.000 t an synthetischen und 100.000 t an natürlichen Produkten in den 2010er Jahren stellen sie die mit Abstand wichtigste Gruppe der Buntpigmente dar. Sie sind preisgünstige anorganische Farbstoffe und finden breite Anwendung vor allem in Baustoffen und Beschichtungsmitteln. Auch der Einsatz von Eisenpräparaten als Arzneistoff ist schon seit der Antike (zum Beispiel zur Heilung von Iphiklos) beschrieben. Neben Eisenoxidpigmenten hatten auch Eisenblaupigmente als Metallkomplexe eine wirtschaftliche Bedeutung. Diese weisen hohe Färbekraft und hohe Licht- und Wetterbeständigkeit auf und waren Bestandteil blauer Lacke und Anstrichfarben. Eisenblau wurde um 1700 in Berlin von Johann Jacob Diesbach als Niederschlag bei einer Fällungsreaktion beobachtet und von A. Milori im frühen 19. Jahrhundert industriell hergestellt. Pigmente dieser Gruppe gewannen rasch an Bedeutung, bevor sie diese ab etwa 1970 an Phthalocyanin-Blau verloren haben. Auch das erstmals 1752 von Pierre-Joseph Macquer aus Berliner Blau und Kalilauge hergestellte gelbe Blutlaugensalz hatte bis zum Ende des 19. Jahrhunderts eine große wirtschaftliche Bedeutung. Auch das 1851 entdeckte Eisenpentacarbonyl erlangte kurzfristig eine wichtige Rolle. Nachdem es sich als sehr wirksames Antiklopfmittel für Ottomotoren erwiesen hatte, baute BASF 1925 eine große Produktionsanlage. Als die Verbindung kurz darauf durch Bleialkyle als Antiklopfmittel ersetzt wurde, verlor sie an Bedeutung und wurde nur noch zur Herstellung von Eisenpulver zum Beispiel für die Pulvermetallurgie eingesetzt. Das Mitte des 20. Jahrhunderts entdeckte Ferrocen und seine Derivate wurden aufgrund ihrer Eigenschaften in der Grundlagenforschung untersucht und in der Katalyse, der Sensorik und der Medizin eingesetzt.
Vorkommen.
Eisen steht in der Reihe der "relativen Elementhäufigkeit bezogen auf Silicium" im Universum mit 8,7 · 105 Atomen je 1 · 106 Siliciumatomen an 9. Stelle. Die Fusion von Elementen in Sternen endet beim Eisen (genauer bei 56Fe), da bei der Fusion höherer Elemente keine Energie mehr frei wird (siehe Nukleosynthese), die Elementisotope instabil sind oder kein einfacher Syntheseprozess existiert. Eisen selbst entsteht vor allem beim Siliciumbrennen in schweren Sternen. Massereiche Sterne mit einer Masse größer als dem Achtfachen der Sonnenmasse fusionieren in ihrem Kern fast alle leichteren Elemente zu Eisen. Schwerere Elemente entstehen endotherm bei Supernovaexplosionen, die auch für das Verstreuen der im Stern entstandenen Materie verantwortlich sind. Die Kruste von Neutronensternen besteht hauptsächlich aus Eisenkernen. In der Photosphäre unserer Sonne sind 0,16 % Eisen enthalten.
Viele Planeten, darunter die Gesteinsplaneten und die Metallosilikatplaneten (wie zum Beispiel Merkur, Venus und die Erde) besitzen einen Eisenkern. Bei den hypothetischen Eisenplaneten fehlt der darüber liegende Erdmantel zum großen Teil oder vollständig, wodurch Eisen einen hohen Anteil an der Gesamtmasse des Planeten hat. Auch bei anderen astronomischen Objekten, wie zum Beispiel Monden, einigen Asteroiden und Eisenmeteoriten, ist ein hoher Eisenanteil normal. So wird beim Erdmond davon ausgegangen, dass dessen Kern vorwiegend aus Eisen besteht. Auch das weite Areale der Mondoberfläche bedeckende Regolith enthält im geringen Prozentbereich Eisen in Form von Eisen(II)-oxid.
Auf der Erde steht Eisen in der Reihe der "Elementhäufigkeit nach dem Massenanteil" an 2. Stelle in der gesamten Erde (28,8 %), an 4. Stelle in der Erdhülle (4,70 %) und an 4. Stelle in der kontinentalen Erdkruste (5,63 %); im Meerwasser ist es nur zu 0,002 mg/L enthalten. Eisen ist zusammen mit Nickel wahrscheinlich der Hauptbestandteil des Erdkerns. Vermutlich angetrieben von thermischen Kräften erzeugen Konvektionsströmungen von flüssigem Eisen im äußeren Kern das Erdmagnetfeld.
Das meiste Eisen in der Erdkruste ist mit verschiedenen anderen Elementen verbunden und bildet mehrere hundert verschiedene Eisenmineralien. Eine wichtige und wirtschaftlich bedeutsame Klasse sind die Eisenoxidmineralien wie Hämatit (Fe2O3), Magnetit (Fe3O4) und Siderit (FeCO3), Limonit (Fe2O3·n H2O) und Goethit (FeO·OH), die die Haupterze des Eisens sind. Viele magmatische Gesteine enthalten auch das Sulfidmineral Pyrrhotin und das mit ihm verwachsene Nickel-Eisen-Mineral Pentlandit. Während der Verwitterung neigt Eisen dazu, aus Sulfidablagerungen als Sulfat und aus Silicatablagerungen als Hydrogencarbonat herauszulösen. Beide werden in wässriger Lösung oxidiert und fallen in Form von Eisen(III)-oxid bei leicht erhöhtem pH-Wert aus.
Große Eisenvorkommen sind Bändererze, eine Art Gestein, das aus wiederholten dünnen Schichten von Eisenoxiden besteht, die sich mit Bändern aus eisenarmem Schiefer und Kieselgestein (Chert) abwechseln. Die Bändererze wurden hauptsächlich in der Zeit zwischen vor 3700 Millionen Jahren und vor 1800 Millionen Jahren abgelagert (die jüngsten entstanden vor 350 Millionen Jahren), durch Reaktion von Eisen mit dem durch cyanobakterielle Photosynthese entstehenden Sauerstoff.
Materialien, die fein gemahlene Eisen(III)-oxide oder -oxidhydroxide wie Ocker enthalten, werden seit vorgeschichtlicher Zeit als gelbe (Ocker), rote (Hämatit), braune (Umbra) und schwarze (Magnetit) Pigmente verwendet. Sie tragen auch zur Farbe verschiedener Gesteine und Tone bei, einschließlich ganzer geologischer Formationen wie der Painted Hills in Oregon und des Buntsandsteins. Durch Eisensandstein in Deutschland und Bath Stone in Großbritannien sind Eisenverbindungen für die gelbliche Farbe vieler historischer Gebäude und Skulpturen verantwortlich. Die sprichwörtliche rote Farbe der Marsoberfläche stammt von einem eisenoxidreichen Regolith.
Im Eisensulfidmineral Pyrit (FeS2) sind erhebliche Eisenmengen enthalten. Es dient jedoch hauptsächlich zur Produktion von Schwefelsäure, wobei die bei der Produktion entstehenden Kiesabbrände einen hohen Eisengehalt besitzen. Es ist nur mit modernen Verfahren, möglich diese zur Eisengewinnung zu nutzen, da hierzu Reste des Schwefels entfernt werden müssen, die das Eisen brüchig werden lassen. Aus diesem Grund und weil Eisenerze so verbreitet sind, konzentriert sich die Eisenproduktion anstelle von Pyrit auf Erze mit sehr hohem Eisengehalt.
Das langlebige Eisenisotop Fe60 kann unter anderem in Tiefseesedimenten nachgewiesen werden. Wissenschaftler erklären dies mit dem Eintrag des durch Supernovas entstandenen Isotops durch Mikrometeorite auf die Erde. Die Verteilung und Häufigkeit der Isotope kann zur Datierung der Sedimente und indirekt der kosmischen Ereignisse verwendet werden.
Eisen in Erzen.
Die ersten Vorkommen, die abgebaut wurden, waren Raseneisenstein und offenliegende Erze. Heute werden vor allem Magnetit (Fe3O4), Hämatit und Siderit abgebaut. Die größten Eisenerzvorkommen finden sich in den sogenannten "Banded Iron Formations" (BIF, gebändertes Eisenerz oder Bändererz), die auch als Takonit oder Itabirit bezeichnet werden und Eisen hauptsächlich in den Mineralen Hämatit und Magnetit (durch sekundäre Prozesse entstanden) enthalten.
Eisen als Mineral.
Selten kommt Eisen in der Natur auch gediegen vor, meist in Form kleiner Bläschen oder Verdickungen im umgebenden Gestein, aber auch als massige Mineral-Aggregate mit bis zu 25 t Gewicht, und ist deshalb als Mineral anerkannt. Die International Mineralogical Association (IMA) führt es gemäß der Systematik der Minerale nach Strunz (9. Auflage) unter der System-Nr. „1.AE.05“ (Elemente – Metalle und intermetallische Verbindungen – Eisen-Chrom-Familie) (8. Auflage: "I/A.04a" bzw. nachfolgende Lapis-Systematik nach Weiß: "I/A.07"). Die im englischsprachigen Raum ebenfalls geläufige Systematik der Minerale nach Dana führt das Element-Mineral unter der System-Nr. „01.01.11.00“.
Weltweit sind bisher rund 2000 Fundorte für gediegen Eisen dokumentiert (Stand: 2022), wobei die überwiegende Mehrheit aus meteoritischen Eisenfunden der Varietät Kamacit besteht.
Eisen kristallisiert im kubischen Kristallsystem, hat je nach Bildungsbedingungen und Reinheitsgrad eine Mohshärte zwischen 4 und 5 und eine stahlgraue bis schwarze Farbe ("Eisenschwarz"). Auch die Strichfarbe ist grau.
Wegen der Reaktion mit Wasser und Sauerstoff (Rosten) ist gediegen Eisen nicht stabil. Es tritt daher in Legierung mit Nickel entweder als Kamacit (4 bis 7,5 % Ni) oder Taenit (20 bis 50 % Ni) nur in Eisenmeteoriten auf sowie in Basalten, in denen es manchmal zu einer Reduktion von eisenhaltigen Mineralen kommt. Eisen mit geringeren Nickelanteilen gelten als Varietät desselben und sind unter der Bezeichnung "Josephinit" bekannt, diese Bezeichnung ist auch ein Synonym des Minerals Awaruit (Ni3Fe).
Eisenerze hingegen sind vergleichsweise häufig zu finden; wichtige Beispiele sind die Minerale Magnetit ("Magneteisenstein", Fe3O4), Hämatit ("Roteisenstein", Fe2O3), Pyrrhotin ("Magnetkies", FeS), Pyrit ("Eisenkies", FeS2), Siderit ("Eisenspat", FeCO3) und das als Gestein geltende Limonit ("Brauneisenstein", Fe2O3·n H2O). Das Sedimentgestein "Eisen-Oolith", manchmal als "Eisenstein" bezeichnet, besteht aus Eisenhydroxidmineralien, verkittet mit tonigen oder kalkigen Bindemitteln. Industriell weniger von Interesse, doch in der Natur ziemlich häufig anzutreffen sind die Minerale Chlorit, Glaukonit und Pyrit. Im Jahr 2023 waren insgesamt 1424 Eisenminerale bekannt.
Eisen in Lebensmitteln.
Viele Lebensmittel enthalten Eisen in Spuren. So enthält Hafer (entspelzt) 58 mg/kg, Gerste (entspelzt) und Roggen 28 mg/kg, Weizen 33 mg/kg, Kakao (schwach entölt) 125 mg/kg, Spinat 38 mg/kg, Kartoffel 5 mg/kg, Petersilie 55 mg/kg, Rote Bete 9 mg/kg, Apfel 2 bis 9 mg/kg, Rindfleisch 21 mg/kg, Rinderleber 70 mg/kg, Rinderniere 11 mg/kg, Schweineleber 154 mg/kg, Schweinefleisch 18 mg/kg, Schweinenieren 100 mg/kg, Schweineblut 550 mg/l, Rinderblut 500 mg/l, Kuhmilch 0,5 mg/l und Eigelb 60 bis 120 mg/l.
Förderung.
Die Volksrepublik China ist mit 888 Millionen Tonnen (67,8 %) das im Jahr 2020 bei weitem bedeutendste Herstellerland für Roheisen, gefolgt von Indien mit 68 Millionen Tonnen (5,2 %), Japan mit 62 Millionen Tonnen (4,7 %) und Russland mit 52 Millionen Tonnen (4,0 %). Die vier Staaten hatten zusammen einen Anteil von 81,7 % an der Weltproduktion von 1310 Millionen Tonnen. In Europa waren weitere wichtige Produzenten die Ukraine, Deutschland und Frankreich.
Weltweit wurden 2020 etwa 2,5 Milliarden Tonnen Eisenerz abgebaut. Bedeutende Eisenerzlieferanten waren Australien, gefolgt von Brasilien, der Volksrepublik China, Indien und Russland. Zusammen hatten sie einen Anteil von 79,5 % an der Weltförderung. Zusätzlich wird aus Schrott noch neues Eisen hergestellt.
Gewinnung und Darstellung.
Erzgewinnung und -verarbeitung.
Eisenerz wird hauptsächlich im Tagebau und seltener im Tiefbau (Untertagebau, wie im Eisenerzbergwerk Kiruna) gewonnen. Dort, wo die als abbauwürdig erkannten Eisenerzlagerstätten offen zutage treten, kann das Erz im weniger aufwändigen Tagebau gewonnen werden. Der Großteil des Eisenerzes wird in Brasilien, Australien, China, Indien, den USA und Russland abgebaut.
Diese Länder verdrängten die ursprünglich bedeutendsten Eisenerz-Förderländer wie Frankreich, Schweden und Deutschland, dessen letzte Eisenerzgrube in der Oberpfalz 1987 geschlossen wurde.
Aus technologisch-wirtschaftlichen Gründen sollten die zur Verarbeitung in Hochöfen eingesetzten Erze in chemischer und physikalischer Sicht gleichmäßige Eigenschaften besitzen. Demnach müssen die beim Abbau gewonnenen groben Erze gebrochen, gemahlen und gesiebt und die zu feinen Erze stückig gemacht werden. Das wird als Erzvorbereitung bezeichnet. Ungleichmäßigkeiten der Erze eines Abbauortes oder verschiedener Abbauorte werden durch Mischen der Erze auf sogenannten Mischbetten ausgeglichen. Nur ein kleiner Teil der Erze kann als Stückerz direkt im Hochofen eingesetzt werden. Der Hauptanteil der Eisenerze liegt als Feinerz vor und muss für den Einsatz im Hochofen stückig gemacht werden, da das feine Erz die Luftzufuhr (Wind) im Hochofen sehr beeinträchtigen oder verhindern würde. Die wichtigsten Verfahren dafür sind Sinterung und Pelletierung. In Deutschland werden die Erze vorwiegend durch Sintern stückig gemacht. In anderen Ländern, beispielsweise in den USA, wird mehr pelletiert, wobei die bei der Aufbereitung anfallende Korngröße entscheidend für die Auswahl des Verfahrens ist. Das Sintern erfordert eine Korngröße von mehr als 2 mm, während noch feiner aufgemahlene Erze pelletiert werden.
In den Sinteranlagen werden gröbere Erzkörner nach ihrer Größe sortiert und gesintert. Kleine Erzkörner müssen dazu gemeinsam mit Kalkzuschlagsstoffen auf mit Gas unterfeuerte, motorisch angetriebene Wanderroste (Rost-Förderbänder) aufgebracht und durch starke Erhitzung angeschmolzen und dadurch „zusammengebacken“ (gesintert) werden. Sehr feines Erz wird pulverfein aufgemahlen, was oft bereits zur Abtrennung von Gangart nötig ist. Dann wird es mit Kalkstein, feinkörnigem Koks (Koksgrus) und Wasser intensiv vermischt und auf einen motorisch angetriebenen Wanderrost aufgegeben. Durch den Wanderrost werden von unten Gase abgesaugt. Von oben wird angezündet und eine Brennfront wandert von oben nach unten durch die Mischung, die dabei kurz angeschmolzen (gesintert) wird. Beim Pelletieren wird mit Bindemitteln, Zuschlägen und Wasser eine Mischung erzeugt, die auf Pelletiertellern zu Kügelchen (Grünpellets) von 8 bis 18 mm Durchmesser gerollt wird. Diese werden mit Gasbefeuerung bei 1000 °C auf einem Wanderrost, in Schachtöfen oder Drehrohröfen zu Pellets gebrannt. Sinter ist nicht gut transportierbar und wird deshalb im Hüttenwerk erzeugt, Pelletanlagen werden meist in der Nähe der Erzgruben betrieben.
Eisenherstellung.
Zur Herstellung von Eisen müssen die in Form von Eisenoxide oder -Sulfide vorliegenden Erze chemisch reduziert werden. Zur Herstellung von Roheisen in Hochöfen werden diesen aufbereiteten Erze (Sinter oder Pellets) mit einer Beimischung von Zuschlägen zugeführt. Daneben wird eine hohe Menge Energie benötigt, die meist durch Koks oder alternativ auch Erdgas oder Wasserstoff bereitgestellt wird. Zu Beginn der Eisenverhüttung mit Steinkohlenkoks waren zur Gewinnung einer Tonne Roheisen etwa 8 t Koks oder etwa 5 t Holzkohle erforderlich. Durch das um 1830 eingeführte Vorwärmen der Luft konnte der Koksverbrauch auf etwa 5 t pro Tonne Roheisen gesenkt werden. Um 1950 wurden in der Bundesrepublik Deutschland noch etwa 950 kg Koks pro Tonne Roheisen benötigt, was bis 1975 auf etwa 450 kg sank. In Japan wurde zu dieser Zeit der theoretische Mindestbedarf von 350–400 kg pro Tonne Roheisen fast erreicht. Bei den Direktreduktionverfahren werden die Eisenerze, im Gegensatz zur Hochofenroute, „direkt“, also ohne Schmelzprozess und damit bei geringeren Temperaturen, zu festem Eisenschwamm reduziert, in dem die Begleitelemente der Erze noch enthalten sind. Im Verbund mit dem Einschmelzen des Eisenschwamms im Lichtbogenofen stellt die Direktreduktion eine energiesparendere Verfahrensalternative zur Hochofenroute dar.
Eisenerzeugung im Hochofen.
Das Eisen wird durch chemische Reduktion des Eisenoxids der oxidischen Eisenerze (oder sulfidischer Eisenerze nach ihrer Röstung mit Luftsauerstoff) und Kohlenstoff (Koks) gewonnen. Die Roheisenerzeugung erfolgt nahezu ausschließlich in hohen Gebläse-Schachtöfen (Hochöfen). Lediglich in Ländern mit billigen Wasserkraftwerken und teurer Kohle spielt die Erzeugung in elektrischen Öfen eine begrenzte Rolle. Koks und Erz werden im Hochofen abwechselnd in Lagen oben in den Ofen hineingeschüttet. Dazu sind oberhalb des Ofengefäßes in der Regel zwei Bunker angeordnet, die als Gasschleusen zwischen dem Ofengefäß und der Umgebung dienen. Ganz oben befindet sich innerhalb des Ofengefäßes eine Drehschurre, mit der das Material spiralförmig flächig auf der Beschickungsoberfläche verteilt wird. Die Kokslagen halten im unteren Bereich des Ofens, wenn das Erz plastisch wird, die Durchströmbarkeit der Schüttung mit Prozessgas aufrecht (Koksfenster).
Der Einsatz sinkt im Ofenschacht ab und wird dabei durch das etwa 1600 bis 2200 °C (an der Einblasstelle) heiße, aus Kohlenstoffmonoxid und Stickstoff bestehende aufsteigende Prozessgas getrocknet, aufgeheizt, die Eisenoxide reduziert und schließlich geschmolzen (Redoxreaktion). Das Prozessgas wird erzeugt, indem unten in den Ofen durch Blasformen (wassergekühlte Kupferdüsen) auf etwa 900 bis 1300 °C vorgeheizte Luft eingeblasen wird. Der Sauerstoff der Luft verbrennt mit Koks zu Kohlenstoffmonoxid. Der gesamte Vorgang dauert etwa acht Stunden.
In der Temperaturzone zwischen 500 und 900 °C findet die so genannte „Indirekte Reduktion“ statt. Über drei Stufen reagieren die verschiedenen Eisenoxide jeweils mit Kohlenstoffmonoxid oder Wasserstoff, bis schließlich metallisches Eisen vorliegt:
<chem>3Fe2O3 + CO -> 2Fe3O4 + CO2</chem> oder <chem>3Fe2O3 + H2 -> 2Fe3O4 + H2O</chem>
Aus Hämatit entsteht der stärker eisenhaltige Magnetit.
<chem>Fe3O4 + CO -> 3FeO + CO2</chem> oder <chem>Fe3O4 + H2 -> 3FeO + H2O</chem>
Aus Magnetit entsteht Wüstit.
<chem>FeO + CO -> Fe + CO2</chem> oder <chem>FeO + H2 -> Fe + H2O</chem>
Aus Wüstit entsteht metallisches Eisen, das sich unten im Hochofen ansammelt.
Im Temperaturbereich von 900 bis 1600 °C findet zusätzlich eine „direkte Reduktion“ mit Kohlenstoff statt:
<chem>3Fe2O3 + C -> 2Fe3O4 + CO</chem>
<chem>Fe3O4 + C -> 3FeO + CO</chem>
<chem>FeO + C -> Fe + CO</chem>
Das aus dem Hochofen kommende Gichtgas wird vom mitgeführten Staub befreit und dient zum Betrieb der für das Hochofenverfahren erforderlichen Winderhitzer, Gebläse, Pumpen, Beleuchtungs-, Gasreinigungs- und Transportvorrichtungen. Der Überschuss wird für den Stahlwerksbetrieb oder sonstige industrielle Zwecke verwendet.
Der Ofen erzeugt neben dem flüssigen Eisen auch flüssige Schlacke. Da der Schmelzpunkt eines Gemisches von SiO2 und Al2O3 zu hoch ist, um eine bei 1450 °C flüssige Schlacke zu bilden, dienen Zuschläge der Erzeugung von leichter schmelzbaren Calcium-aluminium-silicate zur Schmelzpunktserniedrigung. Handelt es sich zum Beispiel um Tonerde- und Kieselsäure-haltige Gangarten, was meist der Fall ist, so werden dementsprechend kalkhaltige, das heißt basische Bestandteile (zum Beispiel Kalkstein, Dolomit) zugeschlagen. Im Falle kalkhaltiger Gangarten werden umgekehrt Tonerde- und Kieselsäure-haltige, das heißt saure Zuschläge (zum Beispiel Feldspat, Tonschiefer) zugegeben. Das Eisen und die Schlacke ist im Hochofen miteinander vermischt, hat eine Temperatur von etwa 1450 °C und wird durch ein Stichloch abgezogen, das etwa alle zwei Stunden durch Anbohren geöffnet und jeweils nach etwa einer Stunde durch Verstopfen mit einer keramischen Masse verschlossen wird. Eisen und Schlacke werden außerhalb des Ofens getrennt. Das Eisen wird in Transportpfannen gefüllt und ins Stahlwerk gebracht.
Das Eisen ist bei 1450 °C flüssig, da durch den im Eisen gelösten Kohlenstoff eine Schmelzpunktserniedrigung erfolgt. Die Schlacke wird mit Wasser verdüst. Dabei erstarrt sie durch das Abschrecken als feinkörniges Glas (Schlackensand). Dieser Schlackensand wird fein gemahlen und als Betonzusatzstoff (Füller) verwendet. Im gesamten Herstellungsprozess entsteht je nach Verfahren im Hochofen pro Tonne Eisen zwischen 300 und 1000 kg Schlacke.
Erz und Koks enthalten als Hauptverunreinigung Siliciumdioxid (Quarzsand, Silicate) SiO2 und Aluminiumoxid Al2O3. Ein kleiner Teil des Siliciumdioxids wird zu Silicium reduziert, das im Eisen gelöst wird. Der Rest bildet zusammen mit dem Aluminiumoxid die Schlacke (Calcium-Aluminiumsilikate).
Das Eisen des Hochofens (Roheisen) hat nur einen Eisengehalt von etwa 95 %. Es enthält 0,5 bis 6 % Mangan, sowie für die meisten Anwendungen zu viel Kohlenstoff (2,5 bis 4 %), Schwefel (0,01 bis 0,05 %), Silicium (0,5 bis 3 %) und Phosphor (0 bis 2 %). Üblicherweise wird daher im Stahlwerk zunächst durch Einblasen von Calciumcarbid, Magnesium oder Calciumoxid reduzierend entschwefelt, wobei eine optimale Entschwefelung vor allem eine Voraussetzung für die Herstellung von Gusseisen mit Kugelgraphit ist. Kühlt Roheisen sehr langsam ab, zum Beispiel in Sandformen („Masselbetten“), so scheidet sich der gelöste Kohlenstoff als Graphit aus und „graues Roheisen“ (graue Bruchfläche, Schmelztemperatur etwa 1200 °C) wird erhalten. Mitbedingung dafür ist auch ein Überwiegen des Siliciumgehalts gegenüber dem Mangangehalt (> 2 % Si; <0,2 % Mn). Bei rascherer Abkühlung, zum Beispiel in Eisenschalen („Kokillen“), verbleibt der Kohlenstoff als Eisencarbid im Roheisen, so dass ein „weißes Roheisen“ (weißer Bruchfläche, Schmelztemperatur etwa 1100 °C, dient überwiegend zur Herstellung von Stahl) entsteht. Hier ist ein Überwiegen des Mangangehalts (< 0,5 % Si; > 4 % Mn) mitbedingend, der der Graphitausscheidung entgegenwirkt.
Eisenerzeugung ohne Hochofen.
Hochöfen haben einen großen Material- und Energiebedarf, der bei ungünstigen Rohstoff- und Energiebedingungen nicht immer bereitgestellt werden kann. Aufgrund dessen und wegen Umweltbelangen wurden alternative Verfahren zur Verarbeitung von Eisen entwickelt. Bei diesen sollen die vorhandenen Eisenerze ohne oder nur mit geringem Einsatz von Koks oder alternativ mit Steinkohle, Braunkohle, Erdöl oder Erdgas reduziert werden. Bei der überwiegenden Anzahl der als „Direkte Eisenreduktion“ bezeichneten Verfahren fällt das erzeugte Roheisen in fester, poriger Form an, das als Eisenschwamm oder „direktes“ Eisen bezeichnet wird und für die Stahlerzeugung geeignet ist.
Zwei Hauptreaktionen umfassen den direkten Reduktionsprozess: Bei der Verwendung von Methan (Erdgas) und Sauerstoff (alternativ Wasserdampf oder Kohlenstoffdioxid) wird dieses teilweise oxidiert (mit Wärme und einem Katalysator):
<chem>2CH4 + O2 -> 2CO + 4H2</chem>
Das Eisenerz wird dann in einem Ofen mit diesen Gasen behandelt, wobei fester Eisenschwamm entsteht:
<chem>Fe2O3 + CO + 2H2 -> 2Fe + CO2 + 2H2O</chem>
Siliciumdioxid wird wie oben beschrieben durch Zugabe eines Kalksteinflussmittels entfernt.
Es gibt eine Reihe von bekannten Direktreduktionsverfahren. Diese unterscheiden sich unter anderem nach dem jeweiligen Reduktionsgefäß.
Bei der Eisenerzeugung im Schachtofen wurde zuerst das Wiberg-Verfahren um 1918 in Schweden entwickelt. Später folgten das in den 1970er Jahren entwickelte Purofer-Verfahren in Oberhausen und das Midland-Ross-Verfahren/Midrex-Verfahren, das von der Midland-Ross-Corporation in Cleveland, Ohio entwickelt wurde. Allen drei Verfahren nutzen einen mehr oder weniger kurzen Schachtofen und als Einsatzstoffe eisenreiche Stückerze, Sinter oder Pellets, die vorgewärmt und am Ofenkopf eingebracht werden. Am Ofengrund wird ein 1000 °C heißes Reduktionsgasgemisch aus Kohlenstoffmonoxid (CO), Wasserstoff (H2), Kohlenstoffdioxid (CO2), Wasser (H2O) und ggf. Methan (CH4) eingeblasen. Das Midrex-Verfahren ist auf einen externen Reformer angewiesen, in dem Methan in Wasserstoff und Kohlenstoffmonoxid umgewandelt wird. Das moderne Energiron-Verfahren (eine Weiterentwicklung vom HYL-Verfahren) ist eine Gemeinschaftsentwicklung der italienischen Anlagenhersteller Tenova und Danieli. Bei Energiron-Verfahren gibt es keinen eigenen Reformer, sondern einen Prozessgaserhitzer. Die eigentliche Umwandlung des Erdgases findet nicht extern, sondern unter Druck (6–8 Bar) autokatalytisch direkt am Eisenerz im Schachtofen statt. Der dafür nötige Sauerstoff stammt aus dem Eisenerz. Der erzeugte Eisenschwamm hat eine Reinheit von 85 bis 95 %. Eine leicht veränderte Variante ist das ab 1981 verwendete Corex-Verfahren.
Für die Eisenerzeugung in der Retorte wurde 1908 von Sven Emil Sieurin in Höganäs Schweden das Höganäs-Verfahren und 1957 das HyL-Verfahren bei der Gesellschaft Hojalata-y-Lamina S.A. in Monterry, Mexiko entwickelt. Bei diesen werden sehr reiche Eisenerzkonzentrate in keramischen Retorten oder Muffeln eingebracht und entweder mit feinkörniger Kohle, Koksgrus und Kalkstein oder mit Erdgas reduziert. Der erzeugte Eisenschwamm hat eine Reinheit von 80 bis 95 % und wird entweder zur Herstellung von Sonderstählen oder als Eisenpulver für die Pulvermetallurgie genutzt.
Bei der Eisenerzeugung in Drehgefäßen oder im Drehrohrofen kommen Verfahren wie das 1930 entwickelte Krupp-Rennverfahren oder Weiterentwicklungen wie das Krupp-Eisenschwammverfahren, das 1964 von der Republic Steel Corporation und der National Lead Corporation gemeinsam mit der Steel Company of Canada und der Lurgi Gesellschaft für Chemie und Hüttenwesen entwickelte SL/RN-Verfahren zum Einsatz. Eingebracht werden hier Stückerz oder Pellets zusammen mit Kalkstein oder Dolomit in bis zu 110 m lange Drehrohröfen, die mit Braunkohle, Koksofengas oder Heizöl auf bis zu 1050 °C aufgeheizt werden. Erzeugt wird Eisenschwamm mit einer Reinheit von 85 bis über 90 %. Eine Variante davon ist das bei der Stora Kopparbergs bergslag in Schweden entwickelte Dored-Verfahren (Domnarf-Reduktions-Verfahren). Bei diesem wird vorgewärmtes Eisenerz wird mit Kohle oder Koks auf einem Roheisensumpf in einen Drehrohrofen eingebracht. Durch Einblasen von reinem Sauerstoff wird das im Reduktionsgas enthaltene Kohlenstoffmonoxid zu Kohlenstoffdioxid verbrannt und der Drehrohrofen auf etwa 1300 bis 1350 °C aufgeheizt und so flüssiges Roheisen erzeugt.
Bei der Eisenerzeugung im Wirbelschichtreaktor wird Eisenschwamm aus feinkörnigen Eisenerzen erzeugt, das entweder mit eingeblasenem Wasserstoff, Erdgas oder Raffinerierestgas aufgewirbelt und reduziert wird. Dafür kommen zum Beispiel das Finex-Verfahren, das von der Hydrocarbon Research Inc. (USA) entwickelte H-Iron-Verfahren oder das ab 1955 von der Esso Research & Engineering Company (einer Tochterfirma der Standard Oil Company), New York entwickelte FIOR-Verfahren (Fluid Iron Ore Reduction) zum Einsatz.
Zur Eisenerzeugung im Elektroofen ohne Vorwärmung und Vorreduktion der Einsatzstoffe im Niederschachtofen kommen das 1925 entwickelte Tysland-Hole-Verfahren und das Demag-Verfahren zum Einsatz. Das Elektrokemisk-Verfahren und Strategic-Udy-Verfahren benötigen dagegen die Vorwärmung und Vorreduktion des Erzes durch Drehrohröfen. Die Eisenerzeugung in Elektroöfen lohnt nur, wenn Strom in ausreichender Menge und kostengünstig bereitgestellt werden kann. Je nach Güte von Eisenerz und Kohlenstoffträger liegt der Energieverbrauch zwischen 2000 und 2500 kWh pro Tonne Roheisen.
Weltweit sind nach dem Jahr 2000 nur das Midrex und Energiron-Direktreduktionverfahren von wirtschaftlicher Bedeutung.
Thermitreaktion.
Die Zündung eines Gemisches aus Aluminiumpulver und Eisen(III)-oxid liefert über die Thermitreaktion flüssiges metallisches Eisen:
<chem>Fe2O3 + 2Al -> 2Fe + Al2O3</chem>
Die Reaktion hat zur Eisengewinnung aus Erz keine Bedeutung, unter anderem, weil das erforderliche Aluminium eine erhebliche Menge an Elektroenergie für seine Herstellung benötigt. Das aluminothermische Schweißen nutzt die bei der Reduktion des Eisenoxids mittels Aluminium übrigbleibende Energie des flüssigen Eisens zum Schmelzschweißen unter anderem von Eisenbahnschienen.
Stahlproduktion.
Im γ-Eisen ist Kohlenstoff bis maximal 2,06 % löslich, Stahl enthält 0 bis 2 % Kohlenstoff, er ist schmied- und walzbar, jedoch erst ab 0,5 % Kohlenstoff ist er härtbar. Liegt der Wert darunter, handelt es sich um nicht härtbaren Stahl oder Schmiedeeisen.
Zur Stahlerzeugung wurden verschiedene Verfahren entwickelt, darunter Pfützenöfen, Bessemer-Konverter, Öfen mit offener Feuerstelle, Sauerstoffbasisöfen und Lichtbogenöfen. In allen Fällen besteht das Ziel darin, einen Teil oder den gesamten Kohlenstoff zusammen mit anderen Verunreinigungen zu oxidieren. Andererseits können andere Metalle zugesetzt werden, um legierte Stähle herzustellen.
Je nach Verfahren wird dabei die eventuell entstandene Entschwefelungsschlacke abgezogen oder abgestochen und das Roheisen dann zur Herstellung von Stahl in einem Konverter (Sauerstoffblasverfahren, Windfrischverfahren wie das Thomas-Verfahren, Herdfrischverfahren wie das Siemens-Martin-Verfahren) unter Zusatz von Branntkalk und einblasen von Luft oder Sauerstoff oxidierend verblasen. Dabei wird Silicium zu Siliciumdioxid und Kohlenstoff zu Kohlenstoffdioxid verbrannt. Der Phosphor wird als Calciumphosphat gebunden. Das flüssige Eisen hat danach eine Temperatur von etwa 1600 °C. Es enthält soviel Sauerstoff, dass beim Erstarren aus verbliebenem Kohlenstoff Kohlenstoffmonoxidblasen entstehen. Beim heute meist verwendeten Stranggießen ist dies unerwünscht. Beim Abstechen des Stahls aus dem Konverter in die Gießpfanne wird daher Aluminium zugegeben, um den Sauerstoff als Aluminiumoxid zu binden. Bei hohen Anforderungen an die Qualität des Stahls folgen auf den Konverterprozess noch weitere Verfahrensschritte, wie zum Beispiel eine Vakuumbehandlung (Sekundärmetallurgie).
Alternativ kann Roheisen auch mit anderen Verfahren wie dem Puddelprozess oder Tempern sowie Schmiedeeisen (handelsübliches reines Eisen) durch Zementation zu Stahl (mit bis zu 2 % Kohlenstoff) verarbeitet werden.
Eigenschaften.
Physikalische Eigenschaften.
Chemisch reines Eisen ist ein silberweißes, verhältnismäßig weiches, dehnbares, recht reaktionsfreudiges Metall mit einer Dichte von 7,873 g/cm³, welches bei 1539 ± 1 °C schmilzt (hochreines Eisen in Helium bei Atmosphärendruck) und bei 3070 °C siedet. Technisch reines Eisen schmilzt bei 1534 ± 2 °C. Der aus dem Dampfdruck berechnete Siedepunkt von hochreinem Eisen wird bei technisch reinem Eisen mit 2860 °C deutlich niedriger angegeben, wobei die in der Literatur angegebenen Werte teilweise deutlich voneinander abweichen. Im Vakuum unterhalb eines Druckes von 10–5 mmHg sublimiert Eisen zwischen 1100 und 1200 °C.
Das durchschnittliche Eisenatom hat etwa die 55-fache Masse eines Wasserstoffatoms. Der Atomkern des Eisenisotops 56Fe weist einen der größten Massendefekte und damit eine der höchsten Bindungsenergien pro Nukleon aller Atomkerne auf. Deshalb wird es als Endstufe bei der Energieerzeugung durch Kernfusion in den Sternen betrachtet. Den absolut höchsten Massendefekt hat jedoch 62Ni, gefolgt von 58Fe, und erst auf dem dritten Platz folgt 56Fe.
Bei Raumtemperatur ist die einzig stabile allotrope Modifikation des reinen Eisens das Ferrit oder α-Eisen. Diese Modifikation kristallisiert in einer kubisch-raumzentrierten Kristallstruktur (Wolfram-Typ) in der mit dem Gitterparameter a = 286,6 pm sowie zwei Formeleinheiten pro Elementarzelle. Diese Modifikation ist unterhalb von 910 °C stabil. Oberhalb dieser Temperatur wandelt es sich in die γ-Modifikation oder Austenit um. Diese besitzt eine kubisch-flächenzentrierte Struktur (Kupfer-Typ) mit der Raumgruppe und dem Gitterparameter a = 364,7 pm. Sie weißt auch eine geringfügig höhere Dichte als α-Eisen auf. Eine dritte Strukturänderung erfolgt bei 1390 °C, oberhalb dieser Temperatur bis zum Schmelzpunkt bei 1539 °C ist wieder das kubisch-raumzentrierte δ-Ferrit stabil. Bei hohem Druck finden ebenfalls Phasenübergänge statt: bei Drücken von mehr als etwa 10 bis 15 GPa und Temperaturen von höchstens einigen hundert Grad Celsius wandelt sich α-Eisen in ε-Eisen, dessen Kristallgitter eine hexagonal dichteste Kugelpackung (hcp) ist, um; bei höheren Temperaturen bis hin zum Schmelzpunkt findet eine entsprechende Umwandlung von γ-Eisen zu ε-Eisen statt, wobei der Druck des Phasenübergangs mit der Temperatur steigt. Darüber hinaus gibt es möglicherweise einen weiteren Phasenübergang von ε-Eisen nach β-Eisen, der bei etwa 50 GPa und mehr als 1500 K liegt; die Existenz dieser β-Phase ist umstritten, und auch zu ihrer Kristallstruktur gibt es verschiedene Befunde, unter anderem eine orthorhombische oder eine doppelte hcp-Struktur. Diese Umwandlungen wird die „Polymorphie des Eisens“ genannt.
Das Fehlen einer β-Phase in der Standard-Nomenklatur der Eisenallotrope rührt daher, dass früher angenommen wurde, dass die Änderung des Magnetismus am Curiepunkt bei 766 °C von Ferro- auf Paramagnetismus mit einer Strukturänderung einhergeht und somit eine weitere Modifikation zwischen 766 und 910 °C existiert, die als β-Modifikation oder β-Eisen bezeichnet wurde. Dies stellte sich jedoch nach genaueren Messungen als falsch heraus.
Die Löslichkeit von Kohlenstoff in α-Eisen ist sehr gering und beträgt maximal 0,018 % bei 738 °C, wie aus dem Eisen-Kohlenstoff-Diagramm hervorgeht. Wesentlich mehr Kohlenstoff (bis zu 2,1 % bei 1153 °C) vermag sich in γ-Eisen zu lösen. In geschmolzenem Eisen beträgt die Löslichkeit von Kohlenstoff bei 1153 °C etwa 4,3 %, wobei diese mit steigender Temperatur noch zunimmt. Kühlt eine solche Eisenschmelze mit einem Kohlenstoffgehalt von über 4,3 % ab, scheidet sich aus ihr der überschüssige Kohlenstoff je nach Abkühlgeschwindigkeit als Graphit oder Zementit aus.
Der Schmelzpunkt des Eisens ist experimentell nur für Drücke von bis zu etwa 50 GPa gut bestimmt. Bei höheren Drücken liefern verschiedene experimentelle Techniken stark unterschiedliche Ergebnisse. So lokalisieren verschiedene Studien den γ-ε-Tripelpunkt bei Drücken, die sich um mehrere Dutzend Gigapascal unterscheiden, und liegen bei den Schmelztemperaturen unter hohem Druck um 1000 K und mehr auseinander. Im Allgemeinen ergeben molekulardynamische Modellrechnungen und Schockexperimente höhere Temperaturen und steilere Schmelzkurven als statische Experimente in Diamantstempelzellen.
Das Spektrum von Eisen zeigt Spektrallinien in allen Spektralbereichen. In der Astronomie, genauer in der Röntgenastronomie, sind die im Röntgenbereich liegenden starken Emissionslinien von neutralem Eisen von großem Interesse. Astronomen beobachten sie in aktiven galaktischen Kernen, Röntgendoppelsternen, Supernovae und Schwarzen Löchern.
Magnetische Eigenschaften.
Als Übergangsmetall besitzt Eisen in jedem Atom ein permanentes magnetisches Moment. Unterhalb seines Curie-Punktes von 770 °C wechselt α-Eisen von paramagnetisch zu ferromagnetisch: Die Spins der beiden ungepaarten Elektronen in jedem Atom richten sich im Allgemeinen nach den Spins seiner Nachbarn aus, wodurch ein magnetisches Gesamtfeld entsteht. Dies geschieht, weil die Orbitale dieser beiden Elektronen (d"z"2 und d"x"2 − "y"2) nicht auf benachbarte Atome im Gitter zeigen und daher nicht an der Metallbindung beteiligt sind.
In Abwesenheit einer externen Magnetfeldquelle werden die Atome spontan in magnetische Domänen mit einem Durchmesser von etwa 10 Mikrometern aufgeteilt. Dies sind durch Blochwände begrenzte Kristallbereichen (Weissschen Bezirken). Wegen der regellosen Orientierung dieser magnetischen Domänen ist äußerlich kein Moment spürbar. Somit hat ein makroskopisches Stück reinen α-Eisens ein Gesamtmagnetfeld von nahezu Null.
Eine andere Möglichkeit stellt die antiparallele Anordnung der Momente in Eisenlegierungen unterhalb der Néel-Temperatur TN dar (Antiferromagnetismus). Hier kompensieren sich die Momente bereits auf atomarer Ebene. Während im para- und antiferromagnetischen Zustand durch technisch übliche äußere Magnetfelder keine nennenswerte Polarisierung zu erreichen ist, gelingt dies im ferromagnetischen Zustand leicht durch Wanderung der Blochwände und Drehung der Polarisationsrichtung der Domänen.
Das Anlegen eines externen Magnetfelds bewirkt, dass die Domänen, die in der gleichen allgemeinen Richtung magnetisiert sind, auf Kosten benachbarter Domänen wachsen, die in andere Richtungen weisen, wodurch das externe Feld verstärkt wird. Dieser Effekt wird in Elektrogeräten ausgenutzt, die Magnetfelder kanalisieren müssen, wie zum Beispiel elektrischen Transformatoren, Magnetaufzeichnungsköpfen und Elektromotoren. Verunreinigungen, Gitterfehler oder Korn- und Partikelgrenzen können die Domänen an den neuen Positionen „fixieren“, so dass der Effekt auch nach dem Entfernen des äußeren Feldes bestehen bleibt und das Eisenobjekt somit zu einem Dauermagneten wird. Dieser Magnetismus verliert sich bei reinem α-Eisens bei Entfernung des äußeren magnetischen Feldes wieder, ist also nur temporär. Dagegen besitzt kohlenstoffhaltiges Eisen, besonders Stahl, einen permanenten Magnetismus, der nach Entfernung des magnetischen Feldes erhalten bleibt.
Ein ähnliches Verhalten zeigen einige Eisenverbindungen wie die Ferrite und das Mineral Magnetit, eine kristalline Form des gemischten Eisen(II,III)-oxids (obwohl der atomare Mechanismus, der Ferrimagnetismus, etwas anders ist). Magnetitstücke mit natürlicher Dauermagnetisierung (Magneteisensteine) waren die frühesten Kompasse für die Navigation. Magnetitteilchen wurden ausgiebig in magnetischen Aufzeichnungsmedien wie Kernspeichern, Magnetbändern, Disketten und Platten verwendet, bis sie durch Material auf Kobaltbasis ersetzt wurden.
Chemische Eigenschaften.
Eisen ist beständig an trockener Luft, in luft- und kohlenstoffdioxidfreiem Wasser, in Laugen, in trockenem Chlor sowie in konzentrierter Schwefelsäure, konzentrierter Salpetersäure und basischen Agenzien (außer heißer Natronlauge) mit einem pH-Wert größer als 9. Diese Beständigkeit rührt von der Anwesenheit einer zusammenhängenden Oxid-Schutzhaut her. An Luft entsteht bei Raumtemperatur auf frisch poliertem Eisen in wenigen Minuten eine etwa 2 nm dicke Oxidschicht, die nach fünf Tagen auf etwa 6 nm angewachsen ist. Das Wachstum dieser Schichten erfolgt bei einigen Legierungen, wie auf chromhaltigen Stählen, sehr viel langsamer. In nichtoxidierenden Säuren wie Salzsäure sowie verdünnter Schwefel- oder Salpetersäure löst sich Eisen rasch unter Entwicklung von Wasserstoff.
Auch von Wasser wird es oberhalb von 500 °C, ebenso von heißen Laugen in umkehrbarer Reaktion zersetzt:
Konzentrierte Natronlauge greift Eisen auch unter Luftabschluss an, dieses geht dabei unter Hydroxoferrat(II)-Bildung in Lösung. An feuchter Luft und in Wasser, das Sauerstoff oder Kohlenstoffdioxid enthält, wird Eisen leicht unter Bildung von Eisenoxidhydrat ("Rosten") oxidiert. Da die dabei entstehende Oxidschicht weich und porös ist, kann der Rostvorgang ungehindert fortschreiten. Besonders aggressiv verhält sich elektrolythaltiges Meerwasser oder SO2-haltiges Wasser in Industriegebieten. Wird Eisen an trockener Luft erhitzt, so bildet sich eine dünne Schicht von Eisen(II,III)-oxid (Fe3O4, "Eisenhammerschlag"), die stark gefärbt ist ("Anlassen"). Sehr fein verteiltes, "pyrophores" Eisen reagiert schon bei Raumtemperatur mit Sauerstoff aus der Luft unter Feuererscheinung. Brennende Stahlwolle reagiert in feuchtem Chlor-Gas kräftig unter Bildung von braunen Eisen(III)-chlorid-Dämpfen. Wird ein Gemisch aus Eisen- und Schwefelpulver (im Gewichtsverhältnis 7:4) erhitzt, so entsteht vorwiegend Eisen(II)-sulfid. Auch mit weiteren Nichtmetallen wie Phosphor, Silicium, Schwefel und Kohlenstoff bildet Eisen bei erhöhter Temperatur Phosphide, Silicide, Sulfide oder Carbide. Eisen bildet mit Wasserstoff keine unter Normalbedingungen stabilen binären Hydride, wirkt aber als Hydrierungskatalysator. Es bildet jedoch ternäre Hydride oder Donoraddukte.
Geruch des Eisens.
Reines Eisen ist geruchlos. Der typische, als metallisch klassifizierte Geruch, wenn Eisengegenstände berührt werden, entsteht durch eine chemische Reaktion von Stoffen des Schweißes und des Fetts der Haut mit den sich dabei bildenden zweiwertigen Eisenionen.
Einer der wichtigsten Duftträger ist 1-Octen-3-on, das noch in großer Verdünnung pilzartig-metallisch riecht. Dieser macht etwa ein Drittel des Geruchs aus. Der Rest sind andere Aldehyde und Ketone. Vorstufe der Geruchsstoffe sind Lipidperoxide. Diese entstehen, wenn Hautfette durch bestimmte Enzyme oder nichtenzymatische Prozesse (zum Beispiel UV-Anteil des Lichts) oxidiert werden. Diese Lipidperoxide werden dann durch die zweiwertigen Eisenionen zersetzt, wobei die Duftstoffe gebildet werden. Die zweiwertigen Eisenionen entstehen durch Korrosion des Eisens bei Berührung mit dem Handschweiß, der korrosive organische Säuren und Chloride enthält.
Beim Verreiben von Blut auf der Haut entsteht ein ähnlicher Geruch, da Blut ebenfalls Eisen(II)-ionen enthält und diese durch ähnliche Reaktionen Geruchsstoffe bilden.
Von stark verrosteten Gegenständen (unter anderem Bildung von Eisen(III)-Verbindungen) geht bei Berührung kein metallischer Geruch aus, wie die Alltagserfahrung lehrt. In Übereinstimmung hiermit steht die Beobachtung, dass die Zersetzung von Lipidperoxiden nicht durch Eisen(III)-Ionen katalysiert wird.
Gefahrstoffkennzeichnung.
Während Eisen in massiver Form kein Gefahrstoff ist, können Eisenpulver brennbar, in feinst verteilter Form pyrophor sein. Entsprechend müssen solche Pulver mit einer zusätzlichen Gefahrstoffkennzeichnung versehen werden.
Isotope.
Eisen hat 27 Isotope und zwei Kernisomere, von denen vier natürlich vorkommende, stabile Isotope sind. Sie haben die relativen Häufigkeiten: 54Fe (5,8 %), 56Fe (91,7 %), 57Fe (2,2 %) und 58Fe (0,3 %). Das Isotop 60Fe hat eine Halbwertszeit von 2,62 Millionen Jahren, 55Fe von 2,737 Jahren und das Isotop 59Fe eine von 44,495 Tagen. Die restlichen Isotope und die beiden Kernisomere haben Halbwertszeiten zwischen weniger als 150 ns und 8,275 Stunden. Die Existenz von 60Fe zu Beginn der Entstehung des Planetensystems konnte durch den Nachweis einer Korrelation zwischen den Häufigkeiten von 60Ni, dem Zerfallsprodukt von 60Fe, und den Häufigkeiten der stabilen Fe-Isotope in einigen Phasen mancher Meteorite (beispielsweise in den Meteoriten "Semarkona" und "Chervony Kut") nachgewiesen werden. Möglicherweise spielte die freigesetzte Energie beim radioaktiven Zerfall von 60Fe, neben der atomaren Zerfallsenergie des ebenfalls vorhandenen radioaktiven 26Al, eine Rolle beim Aufschmelzen und der Differenzierung der Asteroiden direkt nach ihrer Bildung vor etwa 4,6 Milliarden Jahren. Heute ist das ursprünglich vorhanden gewesene 60Fe in 60Ni zerfallen. Die Verteilung von Nickel- und Eisenisotopen in Meteoriten erlaubt es, die Isotopen- und Elementehäufigkeit bei der Bildung des Sonnensystems zu messen und die vor und während der Bildung des Sonnensystems vorherrschenden Bedingungen zu erschließen.
Von den stabilen Eisenisotopen besitzt nur 57Fe einen von null verschiedenen Kernspin. Es ist damit für die Mößbauerspektroskopie geeignet.
Verwendung.
Eisen ist mit 95 % Gewichtsanteil an genutzten Metallen das weltweit meistverwendete. Der Grund dafür liegt in seiner weiten Verfügbarkeit, welche es recht preiswert macht, und der hervorragenden Eigenschaften seiner Legierungen, die sie für viele Bereiche in der Technik zu einem Grundwerkstoff machen.
Der größte Teil des aus Roheisen produzierten Eisens ist der Hauptbestandteil von Stahl und Gusseisen. Roheisen enthält vier bis fünf Prozent Kohlenstoff sowie unterschiedliche Anteile an Schwefel, Phosphor und Silicium. Es ist ein Zwischenprodukt in der Herstellung von Gusseisen und Stahl. Gusseisen enthält über 2,06 % Kohlenstoff und weitere Legierungselemente, wie beispielsweise Silicium und Mangan, die die Gießbarkeit verbessern. Gusseisen ist sehr hart und spröde. Es lässt sich gewöhnlich nicht plastisch verformen (schmieden), aber sehr gut gießen wegen des vergleichsweise niedrigen Schmelzpunktes und der dünnflüssigen Schmelze. Stahl enthält maximal 2,06 % Kohlenstoff. Im Gegensatz zu Gusseisen ist er schmiedbar. Durch Legieren, sowie eine geeignete Kombination von thermischer Behandlung (siehe Härten) und plastischer Formung (Kaltwalzen) können die mechanischen Eigenschaften des Stahls in weiten Grenzen variiert werden. Stahl besitzt eine hervorragende Festigkeit und Zähigkeit beim Eingehen von Legierungen mit anderen Metallen wie Chrom, Molybdän und Nickel. Es wird bei der Herstellung von Landfahrzeugen, Schiffen und im gesamten Baubereich (Stahlbetonbau, Stahlbau) eingesetzt. Weitere Einsatzgebiete sind Verpackungen (Dosen, Gebinde, Behälter, Eimer, Band), Rohrleitungen, Druckbehälter, Gasflaschen und Federn. Industriell sind verschiedene Stähle verbreitet; in Deutschland sind etwa 7.500 Sorten genormt.
Chemisch reines Eisen besitzt im Gegensatz zum kohlenstoffhaltigen Eisen nur eine untergeordnete technische Bedeutung. Es wird etwa als Material für Katalysatoren, wie dem Haber-Bosch-Verfahren in der Ammoniak-Synthese oder der Fischer-Tropsch-Synthese, genutzt.
Eisen ist (neben Cobalt und Nickel) eines jener drei ferromagnetischen Metalle, die mit ihrer Eigenschaft den großtechnischen Einsatz des Elektromagnetismus unter anderem in Generatoren, Transformatoren, Drosseln, Relais und Elektromotoren ermöglichen. Es wird rein oder unter anderem mit Silicium, Aluminium, Kobalt oder Nickel (siehe Mu-Metall) legiert und dient als weichmagnetisches Kernmaterial zur Führung von Magnetfeldern, zur Abschirmung von Magnetfeldern oder zur Erhöhung der Induktivität. Es wird hierzu massiv und in Form von Pulver (Pulverkerne), vor allem aber als Elektroblech produziert.
Eisenpulver wird in der Chemie (zum Beispiel als Katalysator) verwendet und dient in entsprechenden Tonband-Typen zur magnetischen Datenaufzeichnung. Eisendraht diente zur Datenaufzeichnung im Drahttongerät und wird unter anderem zur Herstellung von Drahtseilen verwendet.
In der Medizin werden eisenhaltige Präparate als Antianämika eingesetzt, kausal in der Behandlung von Eisenmangelanämien und additiv in der Behandlung von durch andere Ursachen hervorgerufenen Anämien. Viele Verbindungen des Eisens dienen als chemische Reagenzien und Pigmente (zum Beispiel Eisenoxidpigmente).
Die Eigenschaft feiner Eisenspäne leicht Feuer zu fangen, wurde seit der Eisenzeit zum Schlagen von Funken mit dem Schlagfeuerzeug genutzt. Solche Feuerzeuge aus Feuerstahl, Feuerstein und Zunder waren in Europa und vielen anderen Regionen bis zur Einführung der Streichhölzer ab ca. 1830 die übliche Methode Feuer zu machen. Auch die steinzeitlichen Pyrit-Feuerzeuge verwenden eine Eisenverbindung, die sich unter Schlag entzündet: Eisen(II)-disulfid.
Eisen wurde in der Alchemie verwendet, wo es mit dem Zeichen „♂“ für den Planeten Mars und für Männlichkeit assoziiert wurde.
Biologische Bedeutung.
Bestandteil von Lebewesen.
Eisen ist ein essentielles Spurenelement für fast alle Lebewesen, bei Tieren vor allem für die Blutbildung.
In pflanzlichen Organismen beeinflusst es die Photosynthese sowie die Bildung von Chlorophyllen und Kohlenhydraten, da in Pflanzen eisenhaltige Enzyme an der Photosynthese, der Chlorophyll- und Kohlenhydratbildung beteiligt sind. In Pflanzen kommt Eisen fast ausschließlich in Form von freien anorganischen Eisenionen vor. In der Nitrogenase (Stickstofffixierung) ist Eisen neben Molybdän ebenfalls enthalten. Es gibt Pflanzen, die aus kalkhaltigen Böden Eisenionen durch Phyto-Siderophore (eisenkomplexierende Verbindung) in Kombination mit lokaler Freisetzung von Wasserstoffionen bioverfügbar machen, dabei wird Fe3+ zu Fe2+ reduziert und anschließend komplexiert. In Pflanzen wird das Eisen, ähnlich wie in der Leber, an Phytoferritine gebunden. Bei Pflanzen ist es für die Chlorophyllsynthese unbedingt notwendig. Das Absinken des Eisen-Gehaltes in Pflanzen unter ein kritisches Minimum führt zum Erbleichen und Gelbwerden der grünen Pflanzenteile (Chlorose).
Auch in Pilzen (zum Beispiel als Ferrichrom, ein Siderophor mit wachstumsfördernden Eigenschaften), Bakterien (in Streptomyces wird das Ferrioxamin B gebildet) und Meereswürmern (in ihnen und in Lingula kommt das Nichthäm-Eisenprotein Hämerythrin vor) spielen Eisenverbindungen eine wichtige Rolle.
Im Körper von Menschen und Tieren liegt es oxidiert als Eisen2+ und Eisen3+ vor. Als Zentralatom des Kofaktors Häm "b" in Hämoglobin, Myoglobin und Cytochromen ist es bei vielen Tieren und beim Menschen für Sauerstofftransport und -speicherung sowie für die Elektronenübertragung verantwortlich. In diesen Proteinen ist es von einem planaren Porphyrinring umgeben.
Weiter ist Eisen Bestandteil von Eisen-Schwefel-Komplexen (so genannte Eisen-Schwefel-Cluster) in vielen Enzymen, beispielsweise Nitrogenasen, Hydrogenasen oder den Komplexen der Atmungskette. Als dritte wichtige Klasse der Eisenenzyme sind die so genannten Nicht-Häm-Eisenenzyme zu nennen, beispielsweise die Methan-Monooxygenase, Ribonukleotidreduktase und das Hämerythrin. Diese Proteine nehmen in verschiedenen Organismen Aufgaben wahr: Sauerstoffaktivierung, Sauerstofftransport, Redoxreaktionen und Hydrolysen. Ebenso wichtig ist dreiwertiges Eisen als Zentralion im Enzym Katalase, das in den Peroxisomen der Zellen das im Stoffwechsel entstehende Zellgift Wasserstoffperoxid abbaut. Eisenionen sind auch ein Katalysator bei der Oxidation organischer Verbindungen unter speziellen Bedingungen. Diese Fenton-Reaktion wird bei einem Überangebot an Eisen als eine der wesentlichen Quellen reaktiver Sauerstoffspezies in Zellen angesehen, welche eine Rolle bei verschiedenen Krankheiten und beim Altern spielen.
Die Speicherung des Eisens erfolgt intrazellulär in dem Enzym Ferritin (20 % Eisenanteil) und dessen Abbauprodukt Hämosiderin (37 % Eisenanteil). Transportiert wird Eisen durch Transferrin.
Der Mensch enthält 2,5 bis 4 g Eisen, davon finden sich 60 % (2,0 bis 2,5 g) im Hämoglobin der Erythrocyten, etwa 1 g in Leber und Knochenmark (Speicherproteine Ferritin und Hämosiderin), etwa 10 % bis 15 % im Myoglobin (etwa 400 mg Eisen), 250 mg in Enzymsystemen 0,1 bis 0,2 % Eisen in Transportproteine (zum Beispiel Schwefel-, Eisenproteine, Cytochrome) (Cytochrom: 0,1 % des Gesamteisens).
Externer Elektronendonor und -akzeptor.
Einige Bakterien nutzen Fe(III) als Elektronenakzeptor für die Atmungskette. Sie reduzieren es damit zu Fe(II), was eine Mobilisierung von Eisen bedeutet, da die meisten Fe(III)-Verbindungen schwer wasserlöslich sind, die meisten Fe(II)-Verbindungen aber gut wasserlöslich. Einige phototrophe Bakterien nutzen Fe(II) als Elektronendonator für die Reduktion von CO2.
Medizinische Bedeutung.
Eisenbedarf und Eisenmangel.
Eisen ist in der Oxidationsstufe Fe2+ und Fe3+ essenziell für alle Organismen. Der tägliche Bedarf beträgt für Männer 1 mg, für Frauen 2 mg. Aufgrund der ineffizienten Resorption muss die Zufuhr über die Nahrung bei Männern etwa 5 bis 9 mg und bei Frauen 14 bis 18 mg betragen. Ein Eisenmangel kann bei Schwangeren und Sportlern am ehesten auftreten. Aus der Muttermilch kann ein Säugling etwa 50 % des Eisens resorbieren, aus der Kuhmilch nur 20 %.
Vor allem Frauen vor den Wechseljahren können einen Eisenmangel aufweisen, wobei ein Grund dafür der erhöhte Bedarf aufgrund der Menstruation ist. In Deutschland ist eine Unterversorgung auf 2 % bei erwachsenen Männern beziehungsweise und 5 % der Frauen geschätzt worden. Frauen sollten circa 15 Milligramm Eisen pro Tag zuführen, während der Tagesbedarf eines erwachsenen Mannes nur etwa 10 Milligramm beträgt. Außerdem verlieren Frauen zusätzlich bei der Geburt eines Kindes circa 1000 Milligramm Eisen. Durch die gleichzeitige Einnahme von Vitamin C wird die Resorptionsquote von Eisen deutlich erhöht. Besonders reichhaltig ist Eisen in Blutwurst, Leber, Hülsenfrüchten und Vollkornbrot enthalten und nur gering in (Muskel-)Fleisch. Gleichzeitiger Verzehr von Milchprodukten, Kaffee oder schwarzem Tee hemmt jedoch die Eisenaufnahme.
Toxizität und Eisenüberladung.
Menschen.
Eisen ist ein wichtiges Spurenelement für den Menschen, kann jedoch bei Überdosierung schädlich wirken. Davon sind vor allem Menschen betroffen, die an Hämochromatose, einer Regulationsstörung der Eisenaufnahme im Darm, leiden. Das Eisen reichert sich im Verlauf der Krankheit in der Leber an und führt dort zu einer Siderose und weiteren Organschäden.
Weiterhin steht Eisen im Verdacht, Infektionskrankheiten, zum Beispiel Tuberkulose zu fördern, da die Erreger zur Vermehrung ebenfalls Eisen benötigen. Eine Überversorgung an Eisen führt zur erhöhten Anfälligkeit gegenüber Infektionskrankheiten (Tuberkulose, Salmonellose, AIDS, Yersiniose). Außerdem kommt es bei einigen neurodegenerativen Erkrankungen wie beispielsweise der Parkinson- oder der Alzheimer-Krankheit zu Eisenablagerungen in bestimmten Bereichen des Gehirns. Im Jahr 2014 war noch unklar, ob dies eine Ursache oder eine Folge der Erkrankung ist.
Daher sind Eisenpräparate oder andere eisenhaltige Nahrungsergänzungsmittel nur zu empfehlen, wenn ein ärztlich diagnostizierter Eisenmangel vorliegt.
Pflanzen.
Auch in pflanzlichen Organismen ist Eisen ein essentielles Spurenelement. Es beeinflusst die Photosynthese sowie die Bildung von Chlorophyll und Kohlenhydraten. Eisenüberladung kann sich jedoch in Form von Eisentoxizität bemerkbar machen. In Böden liegt es bei normalen pH-Werten als Fe(OH)3 vor. Bei geringem Sauerstoffgehalt des Bodens wird Eisen(III) durch Reduktion zum Eisen(II) reduziert. Dadurch wird das Eisen in eine lösliche, für Pflanzen verfügbare Form gebracht. Nimmt diese Verfügbarkeit unter anaeroben Bedingungen, zum Beispiel durch Bodenverdichtung, zu stark zu, können Pflanzenschäden durch Eisentoxizität auftreten, eine Erscheinung, die besonders in Reisanbaugebieten bekannt ist.
Nachweis.
Für Eisen existieren eine Reihe von Nachweismethoden. Neben spektralanalytischen Verfahren (Eisen liefert ein linienreiches Spektrum) sind vielfältige chemische Nachweisverfahren bekannt. Bei der Nachweisreaktion für Eisen-Ionen werden zunächst die beiden Kationen Fe2+ und Fe3+ unterschieden.
Eisennachweis mit Thioglycolsäure.
Mit Thioglycolsäure lassen sich Fe2+- und Fe3+-Ionen nachweisen:
Die erste Reaktion findet nur bei Anwesenheit von Fe3+-Ionen statt. Bei Anwesenheit von Fe2+- oder Fe3+-Ionen entsteht eine intensive Rotfärbung.
Eisennachweis mit Hexacyanoferraten.
Die Fe2+-Ionen lassen sich mit rotem Blutlaugensalz nachweisen:
Fe3+-Ionen lassen sich mit gelbem Blutlaugensalz nachweisen:
Bei beiden Nachweisreaktionen entsteht tiefblaues Berliner Blau, ein wichtiger Farbstoff. Es läuft keine Komplexbildungsreaktion ab, sondern lediglich ein Kationenaustausch.
Beide Pigmente sind weitgehend identisch, da zwischen ihnen ein chemisches Gleichgewicht besteht. Dabei geht Fe3+ in Fe2+ über und umgekehrt:
Die besonders intensive blaue Farbe des Komplexes entsteht durch Metall-Metall-Charge-Transfers zwischen den Eisen-Ionen. Es ist bemerkenswert, dass dieses bekannte Eisennachweisreagenz selbst Eisen enthält, welches durch die Cyanidionen chemisch gut maskiert wird (Innerorbitalkomplex) und somit die Grenzen der chemischen Analytik aufzeigt.
Eisennachweis mit Thiocyanaten.
Alternativ kann Eisen(III)-salze mit Thiocyanaten (Rhodaniden) nachgewiesen werden. Diese reagieren mit Eisen(III)-Ionen zu Eisen(III)-thiocyanat:
Es bildet sich das tiefrote Eisen(III)-thiocyanat (Fe(SCN)3), welches in Lösung bleibt.
Einige Begleitionen stören diesen Nachweis (zum Beispiel Co2+, Mo3+, Hg2+, Überschuss an Mineralsäuren), so dass unter Umständen ein Kationentrennungsgang durchgeführt werden muss.
Eisennachweis mit Dimethylglyoxim.
Eisen(II)-Ionen bilden mit Dimethylglyoxim einen planaren Komplex. Dazu wird zu einer (mit Weinsäure versetzte, ammoniakalisch gemachten) zu prüfenden Lösung einige Tropfen einer 1 %igen alkoholischen Dimethylglyoximlösung zugesetzt. Es bildet sich der intensiv rote Eisen(II)-Komplex. Die zugesetzte Weinsäure verhindert die Fällung von Eisenhydroxiden, sodass der sehr empfindliche Nachweis auch bei Anwesenheit von Fe(III)-Ionen ausführbar ist.
Eisennachweis mit 2,2′-Bipyridin- oder 1,10-Phenanthrolin.
Eisen(II)-Ionen bilden mit 2,2′-Bipyridin oder 1,10-Phenanthrolin in schwach saurer, neutraler oder ammoniakalischer Lösung rote Chelatkomplexe. Zum Nachweis von Eisen(III)-Ionen müssen diese vorher (zum Beispiel mit Hydroxylaminhydrochlorid) zu Eisen(II)-Ionen reduziert werden.
Verbindungen.
In seinen chemischen Verbindungen tritt Eisen hauptsächlich mit den Oxidationsstufen +2 (zum Beispiel Eisen(II)-chlorid), +3 (zum Beispiel Eisen(III)-fluorid), ferner +6 (zum Beispiel Bariumferrat(VI)) auf, doch existieren auch Verbindungen mit den Oxidationsstufen -2, -1 und 0 (zum Beispiel Eisenpentacarbonyl) sowie +1, +4 und +5. In keiner Verbindung tritt das Eisen in der seiner Nebengruppennummer VIII entsprechenden Oxidationsstufe auf. Seit 2016 sind Eisenverbindungen in der Oxidationsstufe +7 bekannt.
Oxide.
Eisen bildet mit Sauerstoff zweiwertige und dreiwertige Oxide. Da diese keine feste Schutzschicht bilden, oxidiert ein der Atmosphäre ausgesetzter Eisenkörper vollständig. Die poröse Oxidschicht verlangsamt den Oxidationsvorgang, kann ihn jedoch nicht verhindern, weshalb das Brünieren als schwacher Schutz vor Korrosion dient. Wenn Eisenkörper vor dem endgültigen Verrosten eingesammelt und dem Recycling zugeführt werden, sind verrostetes Eisen und verrosteter Stahl bei der Stahlerzeugung im Elektro-Schmelzofen ein begehrter und wertvoller Sauerstoffträger. Dieser Sauerstoff im Eisenschrott wirkt beim „Stahlkochen“ als Oxidationsmittel, um ungewünschte qualitätsmindernde Beimengungen (zum Beispiel Leichtmetalle) zu oxidieren.
"Eisen(III)-oxid" (Fe2O3) ist eine rote bis braune Substanz und entsteht durch Oxidation von Eisen im Sauerstoffüberschuss. In der Natur tritt es in Form der Minerale Hämatit und Maghemit auf. "Eisen(II,III)-oxid" (Fe3O4) entsteht auf natürlichem Wege durch vulkanische Vorgänge oder beim direkten Verbrennen von Eisen, zum Beispiel mit dem Schneidbrenner als Eisenhammerschlag und wird als Mineral als Magnetit bezeichnet. "Eisen(II)-oxid" (FeO) entsteht bei der Zersetzung von Eisen(II)-oxalat FeC2O4 bei 850 °C im Vakuum. Es ist schwarz und bis 560 °C instabil. Als Mineral Wüstit entsteht es meist aus der Umwandlung von Magnetit bei hohen Temperaturen. Daneben ist mit FeO2 noch ein weiteres Eisenoxid bekannt.<ref name="DOI10.1021/ic00100a039">Detlef Schroeder, Andreas Fiedler u. a.: "Generation and Characterization of the Anionic, Neutral, and Cationic Iron-Dioxygen Adducts [FeO2] in the Gas Phase." In: "Inorganic Chemistry." Band 33, 1994, S. 5094, .</ref>
Eisen(III)-hydroxidoxid (FeO(OH)) gehört zur Gruppe der Eisenhydroxide oder Eisen(III)-oxidhydrate, die sich im Grad ihrer Hydratation unterscheiden. Beim Erwärmen geht Eisen(III)-hydroxidoxid in Eisen(III)-oxid über. Die α-Form kommt in der Natur als Nadeleisenerz oder Goethit vor. Die y-Form kommt in der Natur als Rubinglimmer oder Lepidokrokit vor. In der α-Form hat es eine orthorhombische Kristallstruktur, .
Eisenoxide und Eisenhydroxide werden als Lebensmittelzusatzstoffe verwendet (E 172).
Salze.
Eisen bildet zweiwertige und dreiwertige Salze.
"Eisen(II)-chlorid" (FeCl2 · 6 H2O) wird zum Ausfällen von Sulfiden, Faulgasentschwefelung, Biogasentschwefelung, Chromatreduzierung und Phosphorelimination verwendet; dazu gehört die Simultanfällung. Es besitzt eine Kristallstruktur vom Cadmium(II)-chlorid-Typ mit der . "Eisen(II)-fluorid" ist in reinem Zustand ein weißer Feststoff, welcher in Wasser wenig löslich ist. Es besitzt eine Kristallstruktur vom Rutil-Typ, . "Eisen(II)-bromid" und "Eisen(II)-iodid" sind kristalline, hygroskopische Feststoffe, die eine trigonale Kristallstruktur vom Cadmium(II)-hydroxid-Typ mit der haben. "Eisen(II)-sulfat" (FeSO4 · 7 H2O) wird wegen seiner Farbe auch Grünsalz genannt, als Mineral Melanterit. Es wird wie Eisen(II)-chlorid verwendet, sowie bei getrocknetem Eisen(II)-sulfat als Chromatreduzierer speziell im Zement gegen die Chromatallergie.
Wasserfreies "Eisen(III)-chlorid" (FeCl3 · 6 H2O) ist eine schwarze, leicht stechend nach Salzsäure riechende Substanz. Als wasserfreie Verbindung ist es extrem hygroskopisch, entzieht also der Luft Wasser. Mit steigendem Wassergehalt nimmt die hygroskopische Natur ab und die Farbe verändert sich über rot-bräunlich bis hin zu gelblich. Eisen(III)-chlorid hat eine trigonale Kristallstruktur mit der . Es kann Kupfer oxidieren und lösen. Deshalb können wässrige Eisen(III)-chlorid-Lösungen zum schonenden Ätzen von Leiterplatten verwendet werden.
"Eisen(III)-nitrat" wird zum Gerben verwendet. In der Textilindustrie wird es als Beize für Baumwollstoffe und zum Schwarzfärben von Seide durch Abscheiden von Eisen(III)-hydroxid verwendet. Weiterhin wird es seit langem als Korrosionsinhibitor verwendet. In neuerer Zeit wird es, nicht immer erfolgreich, zur Reduktion der Schwefelwasserstoffkonzentration in druckführenden Abwasserleitungen verwendet. "Eisen(III)-sulfat" wird in Großkläranlagen zur Desodorierung und zur Ausfällung von Phosphaten (unter anderem bei der Wasseraufbereitung und der Industriewasserentsorgung) sowie in der Metallurgie als Beizmittel (zum Beispiel für Aluminium und Stahl) eingesetzt. In der Medizin ist eine blutstillende und adstringierende Wirkung bekannt.
Viele Eisensalze, wie zum Beispiel "Eisen(III)-chloridsulfat" (FeClSO4), werden unter anderem als Flockungsmittel und zur Phosphorelimination verwendet. Dazu gehören die Vorfällung, Simultanfällung, Nachfällung und Flockenfiltration sowie das Ausfällen von Sulfiden, Faulgasentschwefelung und Biogasentschwefelung.
Weitere Eisenverbindungen.
Daneben sind viel weitere Eisenverbindungen bekannt.
So tritt das auch Zementit genannte "Eisencarbid" (Fe3C) als metastabile Phase in Stahl und weißem Gusseisen auf. "Eisenpentacarbonyl" (Fe(CO)5), auch IPC (von en: "iron pentacarbonyl") genannt, entsteht unter Druck aus Eisen und Kohlenstoffmonoxid und bildet nach seiner Zersetzung neben Kohlenstoffmonoxid ein besonders reines Eisenpulver, das Carbonyleisen. Weitere Eisencarbonyle sind Dieisennonacarbonyl Fe2(CO)9 und Trieisendodecacarbonyl Fe3(CO)12. "Ferrocen" (Fe(C5H5)2) ist eine (Sandwichverbindung) aus der Stoffgruppe der Metallocene, dessen Derivate vielseitige Anwendungen im Bereich der Sensorik, der Katalyse und der Medizin finden.
"Berliner Blau" (Fe4[Fe(CN)6]3) ist ein lichtechtes, tiefblaues, anorganisches Pigment. Es wird aus einer Lösung von Eisen(III)-Salz und gelbem Blutlaugensalz hergestellt und findet Verwendung als Anstrichmittel und zum Tapetendruck sowie als Gegenmittel bei Vergiftungen mit radioaktivem Caesium oder Thallium. Es wird aufgrund seines feinen Korns und der daraus resultierenden Lasierfähigkeit sowie seiner großen Farbstärke bis heute für Aquarell-, Öl- und Druckfarben verwendet. |
1250 | 306970 | https://de.wikipedia.org/wiki?curid=1250 | Edelmetalle | Edelmetalle sind Metalle, die korrosionsbeständig sind, also in natürlicher Umgebung unter Einwirkung von Luft und Wasser dauerhaft chemisch stabil sind. Zu den Edelmetallen gehören im engeren Sinn Gold, Silber, Platin und Palladium.
Allgemeines.
Edelmetalle zählen zu den chemischen Elementen mit besonderen chemischen Eigenschaften, denn sie besitzen trotz ihrer geringen Härte Duktilität und sind außerordentlich beständig gegen Oxidation. Sie korrodieren bei Raumtemperatur an Luft und Wasser entweder gar nicht oder nur sehr langsam. Deshalb weisen sie eine geringe oder keine Abnutzung durch ständigen Gebrauch auf. Aufgrund ihrer Stabilität sind die klassischen Edelmetalle Gold und Silber seit der Antike zur Herstellung von Münzen, Schmuck, Artefakten oder Kunstgegenständen in Gebrauch. Platin wurde um 1890 erstmals industriell genutzt und ist ähnlich korrosionsbeständig wie Gold. Alle Edelmetalle und Halbedelmetalle zählen zu den Schwermetallen.
Die Unterscheidung und Abgrenzung zwischen Metallen und Edelmetallen hängt davon ab, ob eine naturwissenschaftlich-technische oder eine ökonomische Perspektive zugrunde gelegt wird. Die Chemie definiert Edelmetalle als Metalle, die nicht unter Wasserstoffbildung mit Wasser oder wässrigen Säurelösungen reagieren, also ein positiveres Normalpotenzial als Wasserstoff aufweisen. Kommt Silber mit (Spuren von) Schwefelwasserstoff in Berührung, wird ein Silbergegenstand nicht beschädigt, es bildet sich nur eine extrem dünne Schicht von schwarzem Silbersulfid. Auch von Salzsäure werden die Edelmetalle nicht angegriffen. Sie zeichnen sich ferner dadurch aus, dass viele ihrer Verbindungen thermisch nicht stabil sind. So werden Silberoxid und Quecksilberoxid beim Erhitzen in ihre Elemente zerlegt. Edelmetalle entstehen wie andere Elemente, die schwerer sind als Wasserstoff, durch Nukleosynthese. Aus diesem Grund kommen sie in der Natur oft gediegen vor. Je positiver das Normalpotenzial ist, umso edler ist das Metall. Das Begriffspaar „edel“ und „unedel“ ist somit relativ. Chemisch gesehen gehören auch Kupfer, Quecksilber oder Zinn zu den Edelmetallen, weil sie diese Eigenschaften aufweisen, werden jedoch ökonomisch zu den Halbedelmetallen gerechnet. Unstrittig ist, dass auch die sechs Platinmetalle Ruthenium, Rhodium, Palladium, Osmium, Iridium und Platin zu den Edelmetallen gehören, von denen ökonomisch lediglich Platin und Palladium als Edelmetall gelten.
International ist die Abgrenzung umstritten. In manchen Ländern gehört selbst Silber beispielsweise nicht zu den Edelmetallen. Quecksilber ist deutlich reaktiver als die klassischen Edelmetalle und gilt deshalb als Halbedelmetall.
Physikalische Perspektive vom Edelmetallcharakter.
Im physikalischen Sinn ist die Menge der Edelmetalle noch bedeutend kleiner; es sind nur Kupfer, Silber und Gold. Das Kriterium zur Klassifizierung ist die elektronische Bandstruktur. Die drei aufgeführten Metalle besitzen alle vollständig gefüllte d-Bänder, die damit nicht zur Leitfähigkeit und praktisch nicht zur Reaktivität beitragen. Für Platin gilt dies z. B. nicht. Zwei d-artige Bänder kreuzen das Fermi-Niveau. Das führt zu einem anderen chemischen Verhalten, weshalb Platin viel häufiger als Gold als Katalysator eingesetzt wird. Besonders auffällig ist der Unterschied bei der Herstellung reiner Metalloberflächen im Ultrahochvakuum. Während Gold vergleichsweise leicht zu präparieren ist und nach der Präparation lange rein bleibt, bindet sich an Platin oder auch Palladium sehr schnell Kohlenstoffmonoxid.
Chemische Perspektive vom Edelmetallcharakter.
Edelmetalle und Halbedelmetalle sind metallische Elemente (und eventuell gewisse Legierungen, wie korrosionsbeständige Stähle), deren Normalpotential positiv gegenüber der Wasserstoffelektrode ist, die also von verdünnten Säuren nicht angegriffen werden. Die Elemente, die in Betracht kommen, sind somit sortiert nach ihrem Normalpotential gegenüber der Standardwasserstoffelektrode:
Antimon zählt als Halbmetall nicht dazu, und bei Polonium ist es möglicherweise seine starke Radioaktivität und makroskopische Unverfügbarkeit (vor dem Bau von Kernreaktoren), wegen der man es klassisch nicht als Edelmetall angesehen hatte – heutzutage ist es aber in Gramm-Mengen verfügbar. Die Unterteilung, sprich Potentialgrenze, dieser Elemente in Edelmetalle und Halbedelmetalle ist ziemlich willkürlich und wird nicht einheitlich gehandhabt. Sie wird aber meistens zwischen Kupfer und Ruthenium gezogen, da ersteres prinzipiell durch feuchte Luft aufgrund der Redoxreaktion O2 + 2 H2O + 4 e− ⇄ 4 OH−(aq) mit einem Normalpotential von +0,4 V angegriffen werden kann.
Reaktionen der Edelmetalle.
Mit geeigneten aggressiven Chemikalien kann man alle Edelmetalle in Lösung bringen. Gold und einige Platinmetalle lösen sich zügig in Königswasser. Silber sowie die Halbedelmetalle reagieren lebhaft mit Salpetersäure. Im Bergbau werden Cyanidlösungen in Verbindung mit Luftsauerstoff verwendet, um Gold und Silber aus Gesteinen zu lösen. Der Angriff durch den Luftsauerstoff ist nur möglich, weil sich als Produkte stabile Cyanidokomplexe mit Gold und Silber bilden. Auch im Königswasser ist die Bildung stabiler Komplexverbindungen (Chlorokomplexe) mitentscheidend für die oxidierende Wirkung des Milieus.
Edelmetalle verhalten sich im Übrigen häufig gar nicht „edel“ gegenüber sehr elektropositiven Metallen, sondern bilden hier häufig und unter Energiefreisetzung Intermetallische Phasen.
Halbedelmetalle.
Im 19. und 20. Jahrhundert wurde die Theorie der Redoxreaktionen verbessert. Neue Reaktionswege wurden entdeckt. Des Weiteren entwickelte man die elektrochemische Methode der Potentiometrie, mit der man die Stärke von Reduktionsmitteln und Oxidationsmitteln messen und vergleichen konnte. Dies gestattete auch eine genauere Einteilung der Metalle nach ihrem edlen oder unedlen Charakter. Zu den Halbedelmetallen gehören demnach solche, die nicht unter Wasserstoffbildung mit wässrigen Lösungen nichtoxidierender Säuren wie Salzsäure oder verdünnte Schwefelsäure reagieren. Das liegt an ihrem Standardpotential, welches höher als dasjenige des Wasserstoffs ist. Diese Metalle sind auch gegen Luftsauerstoff weitgehend inert. Aus diesem Grund kommen sie in der Natur gelegentlich gediegen vor.
Metalle wie Bismut und Kupfer liegen mit ihrem Standardpotential deutlich näher am Wasserstoff als die klassischen Edelmetalle. An Luft korrodieren sie schneller, und in oxidierenden Säuren wie konzentrierter Schwefelsäure oder halbkonzentrierter (30-prozentiger) Salpetersäure lösen sie sich zügig.
Im chemischen Sinne sind Halbedelmetalle also alle Metalle, die in der elektrochemischen Spannungsreihe ein positives Standardpotential gegenüber Wasserstoff besitzen, ansonsten aber nicht so korrosionsbeständig wie klassische Edelmetalle sind. Nach dieser Definition ist auch das künstliche und radioaktive Technetium als halb-edel zu bezeichnen. Diese Halbedelmetalle nehmen eine Zwischenstellung zwischen den klassischen edlen und unedlen Metallen ein. Selbst Nickel und Zinn werden von einigen Autoren dazugezählt, obwohl ihr Standardpotential etwas unter dem von Wasserstoff liegt.
Edelmetallproduktion.
Die "Edelmetallproduktion" findet mittels Abbau und Gewinnung durch Bergbaugesellschaften statt. Diese liefern die Edelmetalle zwecks Weiterverarbeitung an die hierfür spezialisierte Industrie.
Goldmarkt – Weltmarktanteile der Goldförderung wichtiger Staaten 2020:
Weltmarktführer ist die Volksrepublik China, gefolgt von Australien und Russland.
Silbermarkt – Weltmarktanteile der Silberförderung wichtiger Staaten 2020:
Weltmarktführer ist Mexiko, gefolgt von China und Peru.
Edelmetallhandel.
Auf den Weltmärkten spielen Gold, Silber, Platin und Palladium eine bedeutende Rolle. Edelmetalle als Handelsobjekte gehören zum Gütermarkt und sind Luxusgüter. Marktteilnehmer beim Handel sind als Anbieter spezielle Handelsgesellschaften (wie die Degussa), Händler (Münzhandel), Juweliere oder Kreditinstitute (Münzen und Barren; auf Metallkonten auch nicht-physisch). Nachfrager sind die Industrie (Münzprägeanstalten, Schmuckhersteller) und Privathaushalte (Anleger, Sammler, Spekulanten). Edelmetalle gehören markttechnisch zu den Commodities und werden deshalb auch an Warenbörsen gehandelt. Generell kann noch unterschieden zwischen dem Primärmarkt, auf dem die Unternehmen des Bergbaus ihre Edelmetalle als Rohstoffe anbieten, und dem Sekundärmarkt, auf dem die weiterverarbeiteten Edelmetalle gehandelt werden.
Der traditionellste und bedeutendste Teilmarkt ist der Goldmarkt. Einziger Goldmarkt war bis März 1968 der London Bullion Market, wo täglich ein Goldfixing als international anerkannter Goldpreis ermittelt wurde. Er bestand aus fünf Handelshäusern als Anbieter, die das Goldfixing ermittelten. Nach der Freigabe des Goldpreises am 17. März 1968 durch den Goldpool der Zentralbanken etablierten sich Goldmärkte auch in Zürich, Paris, Frankfurt und Hongkong sowie an den Warenbörsen in New York (New York Mercantile Exchange) und Chicago (Chicago Mercantile Exchange). Der Preismechanismus des Goldmarktes funktionierte ab 7. Januar 1976 nach der Abschaffung des offiziellen Preises für Währungsgold vollständig wie auf jedem anderen Gütermarkt. In London ist nach wie vor der Interbankenhandel angesiedelt. Seit 2004 wird dort das Goldfixing alleine von der Barclays Bank durchgeführt.
Die Bedeutung und natürliche Knappheit der Edelmetalle aufgrund ihrer geringen Reichweite haben dazu geführt, dass sie auf dem Weltmarkt zu einem einheitlichen Weltmarktpreis gehandelt werden, der nach ihnen benannt wurde:
Selbst wenn es auf lokalen Edelmetallmärkten zu temporären Preisunterschieden kommen sollte, werden diese durch Arbitrage wieder ausgeglichen (Arbitragefreiheit). Der Goldpreis auf dem Goldmarkt wird in US-Dollar pro Feinunze angegeben. Im Regelfall besteht zwischen dem Gold und dem US-Dollar eine inverse Korrelation, so dass beide in entgegengesetzte Richtungen tendieren.
Wirtschaftliche Aspekte.
Ökonomisch betrachtet sind die Hauptkriterien der Edelmetalle ihre reichweitebedingte natürliche Knappheit und das daraus resultierende hohe Preisniveau, das sie seit jeher den Luxusgütern zuordnet. Gold-, Silber-, Palladium- oder Platinmünzen gehören zu den Kurantmünzen, da ihr Metallwert über dem aufgeprägten Nennwert (Münznominal) liegt. Selbst wenn Gold- oder Silbermünzen offiziell als gesetzliches Zahlungsmittel gelten (wie etwa der Eagle in den USA), gelangen sie nicht als solches in den Geldumlauf, sondern unterliegen der Hortung.
Auch auf dem Goldmarkt ist die Hortung besonders groß. Die als Währungsreserven von den Zentralbanken gehaltenen Goldreserven gelangen im Regelfall nicht als Angebot auf den Markt. Das ist auch bei Anlagegold der Fall, das als Sammlerobjekt oder der Kapitalanlage dient. Der bedeutendste Goldmarkt ist Zürich, der als Weltmarktführer über einen Weltmarktanteil von etwa 50 % verfügt, zumal hier Russland und Südafrika etwa 2/3 ihrer Goldproduktion verkaufen. London folgt mit einem Marktanteil von 46,3 %, danach folgen die New York Mercantile Exchange (42,0 %; hierin sind alle Commodities enthalten), Shanghai (5,1 %), Mumbai (2,8 %) und Tokio (2,7 %).
Die Handelsformen auf den Edelmetallmärkten entsprechen denen des Devisenhandels; möglich sind Kassageschäfte, Termingeschäfte, Optionen oder Swapgeschäfte. Goldswaps funktionieren beispielsweise so, dass Gold gegen Devisen unter der Bedingung als Kassageschäft verkauft wird, dass es als Terminkauf wieder zurückerworben werden kann. Als Finanzprodukt gibt es auch Goldzertifikate. Die Erfüllung der Handelsobjekte kann physisch in Barren () oder nicht-physisch durch Gutschrift auf einem Metallkonto () erfolgen. Kunden auf den Edelmetallmärkten sind reine Käufer (Schmuckindustrie; ), reine Verkäufer (Bergwerke; ) oder Händler (Münzhandel, Kreditinstitute).
Edelmetallmärkte (Insbesondere Gold- und Silbermarkt) sind im Vergleich zum Wertpapiermarkt dadurch gekennzeichnet, dass entweder eine physische oder eine nicht-physische Erfüllung möglich ist. Bei der physischen Erfüllung sind vom Verkäufer effektive Stücke (wie Goldbarren oder Silbermünzen) an den Käufer zu liefern, wobei es wegen des hohen Metallwerts ein besonderes Transportrisiko und ein hohes Lagerrisiko (Tresoranlagen) gibt. Das hohe Gewicht erhöht die Transportkosten. Diese Risiken können durch Transport- und Lagerversicherung gedeckt werden, die Versicherungsprämien sind Bestandteil des Kaufpreises.
Umgangssprache.
Die bei Olympischen Spielen und anderen Sportwettkämpfen vergebenen Sportmedaillen (Gold, Silber und Bronze) werden umgangssprachlich als „Edelmetalle“ bezeichnet. Dabei besteht die Goldmedaille zu 92,5 % aus Silber und ist mit 6 Gramm reinem Gold überzogen, während die Bronzemedaille (Legierung mindestens 60 % aus Kupfer) gar kein Edelmetall ist. |
1252 | 815279 | https://de.wikipedia.org/wiki?curid=1252 | Edelgase | Die Edelgase, auch inerte Gase oder Inertgase bilden eine Gruppe im Periodensystem der Elemente, die sieben Elemente umfasst: Helium, Neon, Argon, Krypton, Xenon, das radioaktive Radon sowie das künstlich erzeugte, ebenfalls radioaktive Oganesson. Die Gruppe wird systematisch auch "8. Hauptgruppe" oder nach der neueren Einteilung des Periodensystems "Gruppe 18" genannt und am rechten Rand des Periodensystems neben den Halogenen dargestellt.
Das einheitliche Hauptmerkmal sämtlicher Edelgasatome ist, dass sie für die energetisch höchsten Atomorbitale die Elektronenkonfiguration "s2" (Helium) bzw. "s2p6" aufweisen (Edelgaskonfiguration). Es gibt nur vollständig gefüllte Atomorbitale, die dazu führen, dass Edelgase nur unter extremen Bedingungen chemische Reaktionen eingehen; sie bilden auch miteinander keine Moleküle, sondern sind einatomig und bei Raumtemperatur Gase. Dieser geringen Reaktivität verdanken sie ihren Gruppennamen, der sich an die ebenfalls nur wenig reaktiven Edelmetalle anlehnt.
Helium ist das mit Abstand häufigste Edelgas. Auf der Erde kommt Argon am häufigsten vor; alle anderen zählen zu den seltenen Bestandteilen der Erde. Als Gase sind sie Bestandteile der Luft; in der Erdkruste findet man sie mit Ausnahme des Heliums, das in Erdgas enthalten ist, nur in sehr geringen Mengen. Entdeckt wurden sie – mit Ausnahme des erst 2006 hergestellten Oganessons – kurz nacheinander in den Jahren 1868 (Helium) bis 1900 (Radon). Die meisten Edelgase wurden erstmals vom britischen Chemiker William Ramsay isoliert.
Verwendung finden Edelgase vor allem als Schutzgas, z. B. in Glühlampen, wichtig sind sie als Füllgas von Gasentladungslampen, in denen sie in der für jedes Gas charakteristischen Farbe leuchten. Trotz der geringen Reaktivität sind von den schwereren Edelgasen, insbesondere Xenon, chemische Verbindungen bekannt. Deren wichtigste ist das starke Oxidationsmittel Xenon(II)-fluorid.
Geschichte.
Einen ersten Hinweis, dass in der Luft ein unreaktives Gas enthalten ist, fand 1783 Henry Cavendish. Er mischte Luft und Sauerstoff derart, dass die darin enthaltenen Elemente Stickstoff und Sauerstoff mit Hilfe von Reibungselektrizität komplett zu Stickoxiden reagierten. Dabei blieb ein nicht reagierender Rest zurück. Er erkannte jedoch nicht, dass es sich dabei um ein neues Gas – eine Mischung aus Argon und anderer Edelgase – handelte, und setzte seine Experimente nicht fort.
Als erstes Edelgas entdeckten 1868 Jules Janssen und Norman Lockyer das Helium unabhängig voneinander. Die beiden Astronomen beobachteten – Janssen in Indien, Lockyer in England – das Sonnenspektrum und entdeckten darin eine bislang unbekannte gelbe Spektrallinie bei einer Wellenlänge von 587,49 nm. Das neue Element wurde von Edward Frankland nach "" für die Sonne "Helium" genannt. Der erste Nachweis von Helium auf der Erde gelang 1892 Luigi Palmieri durch Spektralanalyse von Vesuv-Lava.
Cavendishs Experimente zur Untersuchung der Luft wurden ab 1888 von Lord Rayleigh fortgesetzt. Er bemerkte, dass „Stickstoff“, der aus der Luft gewonnen wurde, eine andere Dichte besitzt als aus der Zersetzung von Ammoniak gewonnener. Rayleigh vermutete daher, dass es einen noch unbekannten, reaktionsträgen Bestandteil der Luft geben müsse. Daher versuchten er und William Ramsay, durch Reaktion mit Magnesium den Stickstoff aus einer Luftprobe vollständig zu entfernen und dieses unbekannte Gas zu isolieren. Schließlich gelang ihnen 1894 spektroskopisch der Nachweis eines neuen Elementes, das sie nach dem griechischen "argos", „träge“, "Argon" benannten.
Nachdem die wichtigsten Eigenschaften von Helium und Argon bestimmt worden waren, konnte festgestellt werden, dass diese Gase im Gegensatz zu den anderen atmosphärischen Gasen einatomig sind. Dies wurde dadurch erkannt, dass das Verhältnis der molaren Wärmekapazität "C""p" bei konstantem Druck im Verhältnis zur Wärmekapazität "C""V" bei konstantem Volumen bei Edelgasen einen sehr hohen Wert von 1,67 (= "C""p"/"C""V") aufweist, während zwei- und mehratomige Gase deutlich kleinere Werte aufweisen. Daraufhin vermutete William Ramsay, dass es eine ganze Gruppe derartiger Gase geben müsse, die eine eigene Gruppe im Periodensystem bilden und er begann nach diesen zu suchen. 1898 gelang es ihm und Morris William Travers, durch fraktionierte Destillation von Luft, Neon, Krypton und Xenon zu isolieren.
Als letztes der natürlich vorkommenden Edelgase wurde 1900 von Friedrich Ernst Dorn als "Radium-Emanation" (Ausdünstung von Radium) das Radon entdeckt und mit dem Symbol Em bezeichnet. Dabei handelte es sich um das Isotop 222Rn. Weitere Radon-Isotope wurden von Ernest Rutherford und André-Louis Debierne gefunden und zunächst für eigene Elemente gehalten. Erst nachdem William Ramsay 1910 das Spektrum und weitere Eigenschaften bestimmte, erkannte er, dass es sich um ein einziges Element handelt. Er nannte dies zunächst "Niton" (Nt), seit 1934 wird der Name Radon verwendet. Oganesson, das letzte Element der Gruppe, konnte nach mehreren nicht erfolgreichen Versuchen erstmals 2002–2005 am Vereinigten Institut für Kernforschung in Dubna erzeugt werden.
Es wurden schon bald nach der Entdeckung Versuche unternommen, Verbindungen der Edelgase zu synthetisieren. 1894 versuchte Henri Moissan, eine Reaktion von Argon mit Fluor zu erreichen, scheiterte jedoch. Im Jahr 1924 behauptete A. von Antropoff, eine erste Kryptonverbindung in Form eines roten stabilen Feststoffes aus Krypton und Chlor synthetisiert zu haben. Später stellte sich jedoch heraus, dass in dieser Verbindung kein Krypton, sondern Stickstoffmonoxid und Chlorwasserstoff enthalten waren.
Mit Xenonhexafluoroplatinat wurde 1962 durch Neil Bartlett erstmals eine Xenonverbindung und damit die erste Edelgasverbindung überhaupt entdeckt. Nur wenige Monate nach dieser Entdeckung folgten im August 1962 nahezu zeitgleich die Synthese des Xenon(II)-fluorids durch Rudolf Hoppe und die des Xenon(IV)-fluorids durch eine Gruppe um die amerikanischen Chemiker C. L. Chernick und H. H. Claassen. Bald darauf konnte durch A. V. Grosse die erste Kryptonverbindung dargestellt werden, die er zunächst für "Kryptontetrafluorid" hielt, die jedoch nach weiteren Versuchen als Kryptondifluorid identifiziert wurde. Im Jahr 2000 wurde die erste Argonverbindung, das sehr instabile Argonfluorohydrid synthetisiert.
Vorkommen.
Edelgase finden sich vorwiegend in der Erdatmosphäre, in geringem Maße aber auch in der Erdkruste; ihre Häufigkeiten sind jedoch sehr unterschiedlich. Das mit Abstand häufigste ist Argon, das mit einem Volumenanteil von 0,934 % (9340 ppm) einen nennenswerten Anteil der gesamten Atmosphäre ausmacht. Alle anderen sind mit Anteilen unter 20 ppm sehr viel seltener, sie zählen daher zu den Spurengasen. Krypton, Xenon und Radon zählen zu den seltensten Elementen auf der Erde überhaupt. Helium ist außerdem Bestandteil von Erdgas, an dem es einen Anteil von bis zu 16 % am Volumen haben kann.
Ständig verlässt eine geringe Menge Helium auf Grund seiner niedrigen Dichte die Erdatmosphäre in den Weltraum und ständig werden auf der Erde Edelgase neu gebildet, was ihre Häufigkeiten und auch ihre Isotopenverhältnisse maßgeblich bestimmt. Argon, vor allem das Isotop 40Ar, wird durch Zerfall des Kaliumisotops 40K gebildet. Helium entsteht beim Alpha-Zerfall von schweren Elementen wie Uran oder Thorium (Alpha-Teilchen), Xenon beim seltenen Spontanzerfall von Uran. Das kurzlebige Radon-Isotop 222Rn mit einer Halbwertszeit von 3,8 Tagen ist das häufigste und ein Zwischenprodukt in der Zerfallsreihe von 238U. Andere, noch kurzlebigere Isotope sind ebenfalls Mitglieder der Zerfallsreihen von Uran-, Thorium- oder Neptuniumisotopen. Auf Grund dieser Zerfallsprozesse findet man die Edelgase auch in Gesteinen eingeschlossen. So findet sich Helium in vielen Uranerzen wie Uraninit und Argon im Basalt der ozeanischen Kruste, erst beim Schmelzen des umgebenden Gesteins gast es aus.
Die Häufigkeitsverteilung der Edelgase im Universum lässt sich großteils durch die Nukleosynthesewege erklären. Je schwerer ein Edelgas, desto seltener ist es. Helium, das sowohl durch primordiale Nukleosynthese gebildet wird, als auch durch stellare Nukleosynthese aus Wasserstoff entsteht, ist dabei nach Wasserstoff das zweithäufigste Element überhaupt. Auch Neon und Argon zählen zu den häufigsten Elementen im Universum. Krypton und Xenon, die nicht durch stellare Nukleosynthese entstehen und sich nur in seltenen Ereignissen wie Supernovae bilden, sind deutlich seltener. Bedingt durch ihren regelmäßigen Aufbau mit gerader Protonenzahl sind Edelgase gemäß der Harkinsschen Regel häufiger als viele ähnlich schwere Elemente.
Gewinnung.
Mit Ausnahme eines Großteils des Heliums und der radioaktiven Elemente erfolgt die Gewinnung der Edelgase ausschließlich aus der Luft. Sie fallen als Nebenprodukte bei der Gewinnung von Stickstoff und Sauerstoff im Linde-Verfahren an. In der Haupt-Rektifikationskolonne, in der Sauerstoff und Stickstoff getrennt werden, reichern sich die verschiedenen Edelgase an unterschiedlichen Stellen an. Sie können aber in eine eigene Kolonne überführt und dort von allen anderen Gasen getrennt werden. Während Argon leicht abgetrennt werden kann und nur von Stickstoff und Sauerstoff befreit werden muss, besteht bei Helium und Neon, aber auch bei Krypton und Xenon das Problem, dass diese sich zunächst zusammen anreichern und anschließend getrennt werden müssen. Dies kann über eine weitere Rektifikationskolonne oder auch durch unterschiedliche Adsorption der Gase an geeigneten Adsorptionsmedien erfolgen.
Helium wird zumindest seit 1980 überwiegend aus Erdgas gewonnen. Diese Heliumquelle wurde zuerst in den Vereinigten Staaten entdeckt, später auch in der Sowjetunion genutzt, heute in wenigen weiteren Ländern und Werken, so etwa in Algerien, dessen Ausbeute tiefkalt verflüssigt im 40-Fuß-Container nach Marseille und damit Europa verschifft wird. Von den anderen Bestandteilen des Erdgases kann es als Rohhelium entweder durch Ausfrieren aller anderen Gase oder durch Permeation an geeigneten Membranen getrennt werden. Anschließend muss das Helium noch durch Druckwechsel-Adsorption, chemische oder kryotechnische Verfahren von restlichen störenden Gasen wie Stickstoff oder Wasserstoff befreit werden.
Radon lässt sich auf Grund der kurzen Halbwertszeit nicht in größeren Mengen gewinnen. In kleinerem Maßstab dient Radium als Quelle, Radon entsteht beim Zerfall dieses Elements und gast aus einem entsprechenden Präparat aus. Oganesson konnte als künstliches Element in wenigen Atomen durch Beschuss von Californium mit Calcium-Atomen erzeugt werden.
Eigenschaften.
Physikalische Eigenschaften.
Alle Edelgase sind unter Normalbedingungen einatomige, farb- und geruchlose Gase. Sie kondensieren und erstarren erst bei sehr niedrigen Temperaturen, wobei die Schmelz- und Siedepunkte umso höher liegen, je größer die Atommasse ist. Der Siedepunkt des Heliums liegt mit 4,224 K (−268,926 °C) nur knapp über dem absoluten Nullpunkt, das schwerste Edelgas Radon siedet bei 211,9 K (−61,25 °C).
Helium besitzt die Besonderheit, dass es als einziges Element unter Atmosphärendruck und auch deutlich darüber nicht erstarrt. Stattdessen geht es bei 2,17 K in einen speziellen Aggregatzustand, die Suprafluidität, über. In diesem verliert die Flüssigkeit die innere Reibung und kann so beispielsweise über höhere Gefäßwände kriechen (Onnes-Effekt). Erst bei Drücken über 25,316 bar erstarrt Helium bei 0,775 K. Diese Temperaturen und Drücke gelten nur für das häufige Isotop 4He, das seltene zweite, leichtere stabile Isotop 3He hat dagegen deutlich andere Eigenschaften. Es wird erst bei Temperaturen unter 2,6 · 10−3 K suprafluid. Auch Schmelz-, Siede- und kritischer Punkt liegen bei anderen Temperaturen und Drücken.
Mit Ausnahme des Heliums, das im hexagonalen Kristallsystem kristallisiert, besitzen alle Edelgase eine kubisch-flächenzentrierte Kristallstruktur. Wie durch die steigenden Atomradien zu erwarten, wird der Gitterparameter "a" von Neon zu Radon immer größer.
Auch die Dichten der Edelgase korrelieren wie zu erwarten mit der Atommasse. Helium ist nach Wasserstoff das Gas mit der geringsten Dichte. Als einziges weiteres Edelgas hat Neon eine geringere Dichte als Luft, während Argon, Krypton, Xenon und Radon dichter sind. Radon ist mit einer Dichte von 9,73 kg/m3 eines der dichtesten Gase überhaupt.
Die Eigenschaften von Oganesson sind auf Grund der kurzen Halbwertszeit nicht experimentell ermittelbar. Nach theoretischen Überlegungen ist durch relativistische Effekte und die hohe Polarisierbarkeit des Oganesson-Atoms anzunehmen, dass Oganesson deutlich reaktiver ist als Radon. Auch ist es unwahrscheinlich, dass es bei Standardbedingungen gasförmig ist, durch Extrapolation kann ein Siedepunkt zwischen 320 und 380 K angenommen werden.
Atomare Eigenschaften.
Bei Edelgasen sind alle Elektronenschalen entweder vollständig mit Elektronen besetzt oder leer. Deshalb wird dieser Zustand auch Edelgaskonfiguration genannt. Helium ist dabei das einzige Edelgas, bei dem lediglich ein s-Orbital vollständig besetzt ist (da es kein 1p-Orbital gibt), bei allen anderen ist das äußerste besetzte Orbital ein p-Orbital. Nach den Gesetzen der Quantenmechanik ist dieser Zustand der Orbitale energetisch besonders günstig. Darum tendieren auch Atome anderer Elemente dazu, Edelgaskonfiguration zu erreichen, indem sie Elektronen abgeben oder aufnehmen (Edelgasregel).
Die Eigenschaften der Edelgase sind deutlich davon bestimmt, dass sie Edelgaskonfiguration nicht durch Abgabe oder Aufnahme von Elektronen, sondern bereits im neutralen, nicht-ionisierten Zustand erreichen. Edelgase liegen daher einatomig vor, besitzen eine hohe Ionisierungsenergie und reagieren fast nicht mit anderen Elementen oder Verbindungen.
Chemische Eigenschaften.
Trotz des Aufbaus der Edelgasatome sind die schweren Edelgase nicht völlig unreaktiv und können einige Verbindungen bilden. Verantwortlich hierfür sind der größere Abstand der Valenzelektronen vom Kern, wodurch die Ionisierungsenergie sinkt, sowie relativistische Effekte. Die größte Vielfalt an Verbindungen ist vom Xenon und nicht wie zu erwarten vom Radon bekannt, da bei diesem die starke Radioaktivität und kurze Halbwertszeit die Bildung von Verbindungen und deren Untersuchung erschwert.
Das einzige Element, das in der Lage ist, direkt mit Xenon, Radon und unter bestimmten Bedingungen auch Krypton zu reagieren, ist Fluor. Während das bei der Reaktion von Krypton und Fluor gebildete Krypton(II)-fluorid thermodynamisch instabil und daher nur bei tiefen Temperaturen synthetisierbar ist, sind die Xenon- und auch Radonfluoride auch bei Raumtemperatur stabil. Andere Elemente reagieren nicht mit Edelgasen, dennoch sind verschiedene weitere Verbindungen bekannt, die durch Reaktionen der Fluoride zugänglich sind.
Die Reaktivität und Stabilität von Verbindungen der leichten Edelgase Helium, Neon und Argon konnte mit Ausnahme einer bekannten Argonverbindung, HArF, nur theoretisch untersucht werden. Demnach gilt Neon als das am wenigsten reaktive Edelgas. So zeigte sich in Rechnungen, dass das Neonanalogon der einzigen in der Theorie stabilen Heliumverbindung HHeF nicht stabil sein sollte.
Aufgrund des Fehlens chemischer Verbindungen der Edelgase gab es lange Zeit auch keine Zahlenwerte ihrer Elektronegativitäten – bestimmt werden konnten davon bis jetzt nur die Werte der Pauling-Skala für die beiden Elemente Xenon (2,6) und Krypton (3,0), die damit in etwa denen der Halogene entsprechen. In den neueren Elektronegativitätsskalen nach Mulliken, Allred und Rochow dagegen lassen sich auch Zahlenwerte für die übrigen Edelgase berechnen, die in diesem Fall über die der Halogene hinausreichen. Bei Helium betragen sie beispielsweise 5,50 nach Allred-Rochow und 4,86 nach Mullikan.
Verwendung.
Edelgase werden auf Grund ihrer geringen Reaktivität, der niedrigen Schmelzpunkte und der charakteristischen Farben bei Gasentladungen genutzt. Vor allem Argon und Helium werden in größerem Maßstab verwendet, die anderen Edelgase können nur in geringeren Mengen produziert werden und sind daher teuer. Die geringe Reaktivität wird in der Verwendung als Inert- bzw. Schutzgas beispielsweise beim Schutzgasschweißen und in der Produktion von bestimmten Metallen wie Titan oder Tantal ausgenutzt. Dafür wird vorwiegend das Argon immer dann eingesetzt, wenn der billigere, aber reaktivere Stickstoff nicht verwendet werden kann.
Bei Gasentladungen gibt jedes Edelgas Licht einer charakteristischen Farbe ab. Bei Neon beispielsweise ist das emittierte Licht rot, bei Argon violett und bei Krypton oder Xenon blau. Dies wird in Gasentladungslampen ausgenutzt. Von besonderer Bedeutung ist dabei das Xenon, da das Spektrum einer Xenon-Gasentladungslampe annähernd dem des Tageslichtes entspricht. Es wird darum auch in Autoscheinwerfern als „Xenonlicht“ verwendet. Auch Leuchtröhren basieren auf diesem Prinzip, nach dem ersten verwendeten Leuchtgas Neon werden sie auch "Neonlampen" genannt. Dagegen nutzen die umgangssprachlich „Neonröhren“ genannten Leuchtstofflampen kein Edelgas, sondern Quecksilberdampf als Leuchtmittel. Auch Glühlampen werden mit Edelgasen, häufig Krypton oder Argon, gefüllt. Dadurch ist die effektive Abdampfrate des Glühfadens geringer, was eine höhere Temperatur und damit bessere Lichtausbeute ermöglicht.
Auf Grund der niedrigen Schmelz- und Siedepunkte sind Edelgase als Kühlmittel von Bedeutung. Hier spielt vor allem flüssiges Helium eine Rolle, da durch dieses besonders niedrige Temperaturen erreicht werden können. Dies ist beispielsweise für supraleitende Magnete wichtig, die etwa in der Kernspinresonanzspektroskopie eingesetzt werden. Müssen für eine Anwendung keine so niedrigen Temperaturen erreicht werden, wie sie flüssiges Helium bietet, können auch die höher siedenden Edelgase wie Neon verwendet werden.
Wie alle Gase wirken auch die Edelgase abhängig vom Druck durch Blockierung von Membranen in Nervenzellen narkotisierend. Die nötigen Drücke liegen aber bei Helium und Neon so hoch, dass sie nur im Labor erreicht werden können; für Neon liegt der notwendige Druck bei 110 bar. Da sie daher keinen Tiefenrausch verursachen können, werden diese beiden Gase gemischt mit Sauerstoff („Heliox“ und „Neox“), auch mit Sauerstoff und Stickstoff („Trimix“) als Atemgase beim Tauchen verwendet. Mit diesen ist es möglich, größere Tiefen zu erreichen als bei der Nutzung von Luft. Xenon wirkt dagegen schon bei Umgebungsdruck narkotisierend und kann daher anstelle von Distickstoffmonoxid als Inhalationsanästhetikum verwendet werden. Wegen des hohen Preises und der geringen Verfügbarkeit wird es jedoch nur selten verwendet.
Helium ist Füll- und Traggas für Gasballone und Zeppeline. Neben Helium kann auch Wasserstoff verwendet werden. Dieser ist zwar leichter und ermöglicht mehr Nutzlast, jedoch kann er mit dem Sauerstoff der Luft reagieren und brennen. Beim unreaktiven Helium besteht diese Gefahr nicht.
Entsprechend ihrer Häufigkeit und Verfügbarkeit werden Edelgase in unterschiedlichen Mengen produziert. So betrug 1998 die Menge des hergestellten Argons etwa 2 Milliarden m3, Helium wurde in einer Menge von rund 130 Millionen m3 isoliert. Die Weltjahresproduktion an Xenon wird dagegen für 1998 auf nur 5.000–7.000 m3 geschätzt (jeweils Normkubikmeter). Entsprechend unterschiedlich sind die Preise der Gase: Argon kostet etwa 15 Euro pro Kubikmeter (unter Standardbedingungen, Laborqualität), Xenon 10.000 Euro pro Kubikmeter (Stand 1999).
Verbindungen.
Xenonverbindungen.
Die größte Vielfalt an Edelgasverbindungen gibt es mit dem Xenon. Die wichtigsten und stabilsten sind dabei die Xenonfluoride Xenon(II)-fluorid, Xenon(IV)-fluorid und Xenon(VI)-fluorid, die durch Reaktion von Xenon und Fluor in unterschiedlichen Verhältnissen synthetisiert werden. Xenon(II)-fluorid ist die einzige Edelgasverbindung, die in geringen Mengen technisch genutzt wird, sie dient als starkes Oxidations- und Fluorierungsmittel in der organischen Chemie.
Mit Sauerstoff erreicht Xenon die höchste mögliche Oxidationsstufe +8. Diese wird in Xenon(VIII)-oxid und dem Oxifluorid Xenondifluoridtrioxid XeO3F2 sowie in Perxenaten der Form XeO4− erreicht. Weiterhin sind Xenon(VI)-oxid und die Oxifluoride XeO2F2 und XeOF4 in der Oxidationsstufe +6 sowie das Oxifluorid XeOF2 mit vierwertigem Xenon bekannt. Alle Xenonoxide und -oxifluoride sind instabil und vielfach explosiv. Auch Verbindungen des Xenons mit Stickstoff, Chlor und Kohlenstoff sind bekannt. Unter supersauren Bedingungen konnten auch Komplexe mit Metallen wie Gold oder Quecksilber synthetisiert werden.
Verbindungen anderer Edelgase.
Von den anderen Edelgasen sind Verbindungen nur in geringer Zahl bekannt. So sollten Radonverbindungen zwar thermodynamisch ähnlich stabil wie Xenonverbindungen sein, aufgrund der starken Radioaktivität und kurzen Halbwertszeit der Radon-Isotope ist ihre Synthese und exakte Charakterisierung aber außerordentlich schwierig. Vermutet wird die Existenz eines stabilen Radon(II)-fluorids, da Radon nach dem Durchleiten durch flüssiges Chlortrifluorid nicht mehr nachweisbar ist, somit reagiert haben muss. Löst man die Rückstände dieser Lösung in Wasser oder Säuren, bilden sich als Zersetzungsprodukte Sauerstoff und Fluorwasserstoff im gleichen Verhältnis wie bei Krypton- oder Xenondifluorid.
Alle bekannten Verbindungen leichterer Edelgase sind thermodynamisch instabil, zersetzen sich leicht und lassen sich deshalb, wenn überhaupt, nur bei tiefen Temperaturen synthetisieren. Die wichtigste und stabilste Kryptonverbindung ist Krypton(II)-fluorid, das zu den stärksten bekannten Oxidations- und Fluorierungsmitteln zählt. Krypton(II)-fluorid ist direkt aus den Elementen herstellbar und Ausgangsprodukt einer Reihe weiterer Kryptonverbindungen.
Während Helium- und Neonverbindungen weiterhin allein Gegenstand theoretischer Untersuchungen sind und Rechnungen ergaben, dass allenfalls eine Heliumverbindung (HHeF), dagegen keine einzige Neonverbindung stabil sein sollte, konnte eine erste Argonverbindung inzwischen tatsächlich synthetisiert werden: Durch Photolyse von Fluorwasserstoff in einer auf 7,5 K heruntergekühlten Argonmatrix konnte das sehr instabile Argonfluorohydrid gebildet werden, das schon bei Berührung zweier Moleküle oder Erwärmung über 27 K wieder in seine Bestandteile zerfällt.
Clathrate.
Argon, Krypton und Xenon bilden Clathrate, Einschlussverbindungen, bei denen das Edelgas physikalisch in einen umgebenden Feststoff eingeschlossen ist. Typische Beispiele hierfür sind Edelgas-Hydrate, bei denen die Gase in Eis eingeschlossen sind. Ein Argon-Hydrat bildet sich langsam erst bei −183 °C, Hydrate des Kryptons und Xenons schon bei −78 °C. Auch mit anderen Stoffen wie Hydrochinon sind Edelgas-Clathrate bekannt. |
1253 | 1765216 | https://de.wikipedia.org/wiki?curid=1253 | Elektron | Das Elektron ("IPA:" [], ; von „Bernstein“) ist ein negativ geladenes stabiles Elementarteilchen. Sein Symbol ist e−.
Elektronen sind Bestandteile von Atomen und damit von jeder Art gewöhnlicher Materie. Sie sind an den Atomkern gebunden und bilden die Elektronenhülle des Atoms. Die gesamte Chemie beruht im Wesentlichen auf den Eigenschaften und Wechselwirkungen dieser gebundenen Elektronen.
In Metallen ist ein Teil der Elektronen nahezu frei beweglich und bewirkt die hohe elektrische Leitfähigkeit metallischer Leiter. Dies ist die Grundlage der Elektrotechnik und der Elektronik. In Halbleitern ist die Zahl der beweglichen Elektronen und damit die elektrische Leitfähigkeit leicht zu beeinflussen, sowohl durch die Herstellung des Materials als auch später durch äußere Einflüsse wie Temperatur, elektrische Spannung, Lichteinfall etc. Dies ist die Grundlage der Halbleiterelektronik.
Aus jedem Material können bei starker Erhitzung oder durch Anlegen eines starken elektrischen Feldes Elektronen austreten (Glühemission, Feldemission). Als "freie Elektronen" können sie dann im Vakuum durch weitere Beschleunigung und Fokussierung zu einem Elektronenstrahl geformt werden. Dies hat die Entwicklung der Bildröhre (CRT) für Oszilloskope, Fernseher und Computermonitore ermöglicht. Weitere Anwendungen freier Elektronen sind z. B. die Röntgenröhre, das Elektronenmikroskop, das Elektronenstrahlschweißen, physikalische Grundlagenforschung mittels Teilchenbeschleunigern und die Erzeugung von Synchrotronstrahlung für Forschung und Technik.
In der β−-Radioaktivität wird beim Beta-Minus-Zerfall eines Atomkerns ein Elektron neu erzeugt und ausgesandt.
Der experimentelle Nachweis des Elektrons gelang erstmals Emil Wiechert im Jahre 1897 und wenig später Joseph John Thomson.
Entdeckung und Benennung des Elektrons.
Das Konzept einer Elementarladung, also einer kleinsten, unteilbaren Menge der elektrischen Ladung oder „Atom der Elektrizität“, wurde um die Mitte des 19. Jahrhunderts verschiedentlich vorgeschlagen, unter anderen von Richard Laming, Wilhelm Weber und Hermann von Helmholtz.
George Johnstone Stoney schlug 1874 die Existenz elektrischer Ladungsträger vor, die mit den Atomen verbunden sein sollten. Ausgehend von der Elektrolyse schätzte er die Größe von deren Ladung ab, erhielt allerdings einen um etwa den Faktor 20 zu niedrigen Wert. Beim Treffen der British Association for the Advancement of Science in Belfast schlug er vor, die Elementarladung als eine weitere fundamentale Naturkonstante zusammen mit der Gravitationskonstante und der Lichtgeschwindigkeit als Grundlage physikalischer Maßsysteme zu verwenden. Stoney prägte auch gemeinsam mit Helmholtz den Namen "electron". Der Name erinnert an das altgriechische Wort für den „Bernstein“, an dem elektrostatische Phänomene schon in der Antike untersucht wurden. In der deutschen Aussprache kann wahlweise auch die zweite oder dritte Silbe betont sein.
Später kam die alternative Bezeichnung Negatron (aus negative Ladung" und "Elektron, im Gegensatz zum Positron) auf, wird aber außer in der Beta-Spektroskopie kaum noch verwendet.
Emil Wiechert fand 1897 heraus, dass die Kathodenstrahlung aus negativ geladenen Teilchen besteht, die sehr viel leichter als ein Atom sind, stellte dann aber seine Forschungen hierzu ein. Im gleichen Jahr bestimmte Joseph John Thomson die Masse der Teilchen (er bezeichnete sie erst als "corpuscules") genauer und konnte nachweisen, dass es sich unabhängig vom Kathodenmaterial und vom Restgas in der Kathodenstrahlröhre immer um die gleiche Art von Teilchen handelt. In dieser Zeit wurde anhand des Zeeman-Effektes nachgewiesen, dass diese Teilchen auch im Atom vorkommen und dort die Lichtemission verursachen. Damit war das Elektron als Elementarteilchen identifiziert.
Die Elementarladung wurde erstmals 1909 durch Robert Millikan direkt gemessen.
Eigenschaften.
Stabilität.
Das Elektron ist das leichteste der elektrisch geladenen Elementarteilchen. Wenn die Erhaltungssätze für Ladung und Energie gelten – was aller physikalischen Erfahrung entspricht – müssen Elektronen daher stabil sein. In der Tat gibt es bisher keinerlei experimentellen Hinweis auf einen Elektronenzerfall.
Spin und magnetisches Moment.
Das Elektron gehört zu den Leptonen und hat wie alle Leptonen einen Spin (genauer: Spinquantenzahl) von ½. Als Teilchen mit halbzahligem Spin gehört es zur Klasse der Fermionen, unterliegt also insbesondere dem Pauli-Prinzip. Sein Antiteilchen ist das Positron, Symbol e+, mit dem es bis auf seine elektrische Ladung in allen Eigenschaften übereinstimmt.
Einige der Grundeigenschaften des Elektrons, die in der oben stehenden Tabelle aufgelistet sind, werden durch das magnetische Moment des Elektronenspins miteinander verknüpft:
Dabei ist formula_2 das magnetische Moment des Elektronenspins, formula_3 die Masse des Elektrons, formula_4 seine Ladung und formula_5 der Spin. formula_6 heißt Landé- oder g-Faktor. Der Term vor formula_7, der das Verhältnis des magnetischen Moments zum Spin beschreibt, wird als gyromagnetisches Verhältnis des Elektrons bezeichnet. Für das Elektron wäre nach der Dirac-Theorie (relativistische Quantenmechanik) formula_6 exakt gleich 2. Effekte, die erst durch die Quantenelektrodynamik erklärt werden, bewirken jedoch eine messbare geringfügige Abweichung von 2. Diese Abweichung wird als "anomales magnetisches Moment des Elektrons" bezeichnet.
Räumliche Ausdehnung.
Das Elektron hat keine innere Struktur und kann als punktförmig angenommen werden. Die experimentelle Obergrenze für die Größe des Elektrons liegt derzeit bei etwa 10−19 m. Dies sind Größenordnungen, bei denen die klassische Physik nicht mehr anwendbar ist. Denn bereits bei Längen der Größenordnung formula_9, was im Bereich 10−12 m liegt, werden Quanteneffekte wie Vakuumpolarisation relevant.
Auch die Suche nach einem elektrischen Dipolmoment des Elektrons blieb bisher ohne positiven Befund. Ein Dipolmoment würde entstehen, wenn bei einem nicht punktförmigen Elektron der Schwerpunkt der Masse nicht gleichzeitig der Schwerpunkt der Ladung wäre. So etwas wird von Theorien der Supersymmetrie, die über das Standardmodell der Elementarteilchen hinausgehen, vorhergesagt; es würde die T-Symmetrie verletzen (zur Begründung siehe: Elektrisches Dipolmoment des Neutrons). Eine Messung im Oktober 2013, die das starke elektrische Feld in einem polaren Molekül ausnutzt, ergab, dass ein eventuelles Dipolmoment nicht größer als ist. Anschaulich bedeutet das, dass Ladungs- und Massenmittelpunkt des Elektrons nicht weiter als etwa 10−30 m auseinanderliegen können.
Chemische Bindungen hängen von Größe und Konfiguration der Atomorbitale ab. Diese sind von der Größenordnung 10−10 m, was aber keine intrinsische Ausdehnung der Elektronen ist, sondern deren Wellenfunktion, die die Aufenthaltswahrscheinlichkeit bestimmt.
Vor der Entwicklung der Quantenphysik ging man davon aus, dass das Elektron einen endlichen Radius haben müsse, weil die Konzentration der Elektronenladung auf eine sehr kleine Ausdehnung des Elektrons sehr viel Energie benötigt, die nach der Äquivalenz von Masse und Energie formula_10 in der Masse des Elektrons enthalten sein müsste und diese nicht überschreiten könnte. Man erhielt bei der Abschätzung je nach Modell leicht unterschiedliche Werte in der Größenordnung von 10−15 m "(→ siehe Klassischer Elektronenradius formula_11)."
Von der (eventuellen) Ausdehnung des Elektrons zu unterscheiden ist sein Wirkungsquerschnitt für Wechselwirkungsprozesse. Bei der Streuung von Röntgenstrahlen an Elektronen erhält man z. B. einen Streuquerschnitt von etwa formula_12, was der Kreisfläche mit dem oben beschriebenen klassischen Elektronenradius formula_11 entspräche. Im Grenzfall großer Wellenlängen, d. h. kleiner Photonenenergien, steigt der Streuquerschnitt auf formula_14 (siehe Thomson-Streuung und Compton-Effekt).
Wechselwirkungen.
Viele physikalische Erscheinungen wie Elektrizität, Elektromagnetismus und elektromagnetische Strahlung beruhen im Wesentlichen auf Wechselwirkungen von Elektronen. Elektronen in einem elektrischen Leiter werden durch ein sich änderndes Magnetfeld verschoben und es wird eine elektrische Spannung induziert. Die Elektronen in einem stromdurchflossenen Leiter erzeugen ein Magnetfeld. Ein beschleunigtes Elektron – natürlich auch beim Fall der krummlinigen Bewegung – emittiert Photonen, die sogenannte Bremsstrahlung (Hertzscher Dipol, Synchrotronstrahlung, Freie-Elektronen-Laser).
In einem Festkörper erfährt das Elektron Wechselwirkungen mit dem Kristallgitter. Sein Verhalten lässt sich dann beschreiben, indem statt der Elektronenmasse die abweichende effektive Masse verwendet wird, die auch abhängig von der Bewegungsrichtung des Elektrons ist.
Elektronen, die sich in polaren Lösungsmitteln wie Wasser oder Alkoholen von ihren Atomen gelöst haben, werden als solvatisierte Elektronen bezeichnet. Bei Lösung von Alkalimetallen in Ammoniak sind sie für die starke Blaufärbung verantwortlich.
Ein Elektron ist ein Quantenobjekt, das heißt, bei ihm liegt die durch die Heisenbergsche Unschärferelation beschriebene Orts- und Impulsunschärfe im messbaren Bereich, so dass wie bei Licht sowohl Wellen- als auch Teilcheneigenschaften beobachtet werden können, was auch als Welle-Teilchen-Dualismus bezeichnet wird. In einem Atom kann das Elektron als stehende Materiewelle betrachtet werden.
Experimente.
Das Verhältnis "e/m" der Elektronenladung zur Elektronenmasse kann als Schulversuch mit dem Fadenstrahlrohr ermittelt werden. Die direkte Bestimmung der Elementarladung gelang durch den Millikan-Versuch.
Bei Elektronen, deren Geschwindigkeit nicht vernachlässigbar klein gegenüber der Lichtgeschwindigkeit ist, muss der nichtlineare Beitrag zum Impuls nach der Relativitätstheorie berücksichtigt werden. Elektronen mit ihrer geringen Masse lassen sich relativ leicht auf so hohe Geschwindigkeiten beschleunigen; schon mit einer kinetischen Energie von 80 keV hat ein Elektron die halbe Lichtgeschwindigkeit. Der Impuls lässt sich durch die Ablenkung in einem Magnetfeld messen. Die Abweichung des Impulses vom nach klassischer Mechanik berechneten Wert wurde zuerst von Walter Kaufmann 1901 nachgewiesen und nach der Entdeckung der Relativitätstheorie zunächst mit dem Begriff der „relativistischen Massenzunahme“ beschrieben, der aber inzwischen als überholt angesehen wird.
Freie Elektronen.
In der Kathodenstrahlröhre (Braunsche Röhre) treten Elektronen aus einer beheizten Glühkathode aus und werden im Vakuum durch ein elektrisches Feld in Feldrichtung (in Richtung der positiven Anode) beschleunigt. Durch Magnetfelder werden die Elektronen senkrecht zur Feldrichtung und senkrecht zur augenblicklichen Flugrichtung abgelenkt (Lorentzkraft). Diese Eigenschaften der Elektronen haben erst die Entwicklung des Oszilloskops, des Fernsehers und des Computermonitors ermöglicht.
Weitere Anwendungen freier Elektronen sind z. B. die Röntgenröhre, das Elektronenmikroskop, das Elektronenstrahlschweißen, physikalische Grundlagenforschung mittels Teilchenbeschleunigern und die Erzeugung von Synchrotronstrahlung für Forschungs- und technische Zwecke. Siehe dazu Elektronenstrahltechnik. |
1257 | 1068517 | https://de.wikipedia.org/wiki?curid=1257 | Erg | Erg steht für:
erg steht für:
ERG steht als Abkürzung für: |
1258 | 4175510 | https://de.wikipedia.org/wiki?curid=1258 | Energie | Energie ist eine physikalische Größe, die in allen Teilgebieten der Physik sowie in der Technik, Chemie, Biologie und der Wirtschaft eine zentrale Rolle spielt. Ihre SI-Einheit ist das "Joule". Die praktische Bedeutung der Energie liegt oft darin, dass ein physikalisches System in dem Maß Wärme abgeben, Arbeit leisten oder Strahlung aussenden kann, in dem seine Energie sich verringert. In einem gegenüber der Umgebung abgeschlossenen System ändert sich die Gesamtenergie nicht (Energieerhaltungssatz). Die Bedeutung der Energie in der theoretischen Physik liegt unter anderem darin, dass der Energieerhaltungssatz, ursprünglich eine Erfahrungstatsache, schon daraus gefolgert werden kann, dass die grundlegenden physikalischen Naturgesetze zeitlich unveränderlich sind.
Energie gibt es in verschiedenen "Energieformen", die ineinander umgewandelt werden können. Beispiele von Energieformen sind potentielle, kinetische, elektrische, chemische und thermische Energie (Wärmeenergie). Beispiele für solche Umwandlungen von Energie sind, dass ein Mensch ein Paket hochhebt oder ein Fahrrad beschleunigt, dass eine Batterie geladen wird, ein Lebewesen Stoffwechsel betreibt oder eine Heizung Wärme abgibt.
In vielen Fällen lässt sich mittels einer Formel die Energie eines Systems aus der momentanen Größe der Parameter und Variablen des Systems berechnen. Allein die mathematische Struktur dieser Formel bestimmt nach den hamiltonschen Bewegungsgleichungen der klassischen Mechanik, der Schrödingergleichung in der Quantenmechanik, wobei die kanonischen Variablen durch Operatoren ersetzt werden, oder der Dirac-Gleichung in der relativistischen Quantenmechanik, wo allerdings von Paul Dirac eine „Quadratwurzel“ aus der relativistischen Energie-Impuls-Formel (Klein-Gordon-Gleichung) gewählt wurde, die zeitliche Entwicklung des Systems.
Gemäß der Relativitätstheorie sind Ruheenergie und Masse durch die Äquivalenz von Masse und Energie (formula_1) verknüpft. In der Relativitätstheorie ist die Energie außerdem eine Komponente des Viererimpulses.
Geschichte des Begriffs.
Das Wort "Energie" geht auf , "energeia" zurück, das in der griechischen Antike eine rein philosophische Bedeutung im Sinne von „lebendiger Wirklichkeit und Wirksamkeit“ hatte (siehe auch „Akt und Potenz“). Als naturwissenschaftlicher Begriff wurde das Wort selbst erst 1807 von dem Physiker Thomas Young in die Mechanik eingeführt. Die neue Größe "Energie" sollte die Stärke ganz bestimmter Wirkungen angeben, die ein bewegter Körper durch seine Bewegung hervorrufen kann, und die sich nicht allein durch seinen Impuls formula_2 („Masse mal Geschwindigkeit“) bestimmen lassen. Über den Impuls war seit den Untersuchungen des Stoßes zweier Körper durch Christiaan Huygens, Christopher Wren und John Wallis um das Jahr 1668 herum bekannt, dass er bei elastischen wie bei unelastischen Körpern erhalten bleibt, also das richtige Maß für die verursachten Veränderungen und damit für die unzerstörbare „Größe der Bewegung“ ist. Bei anderen Vorgängen aber verursachen Körper verschiedener Masse, auch wenn sie gleichen Impuls haben, verschieden große Wirkungen. Dazu gehört etwa die Höhe, die ein Körper in Aufwärtsbewegung erreicht, oder die Tiefe des Lochs, das er beim Aufprall in eine weiche Masse schlägt. Hierbei nimmt die Wirkung nicht mit der Geschwindigkeit proportional zu, wie der Impuls, sondern mit dem Quadrat der Geschwindigkeit. Daher bezeichnete Gottfried Wilhelm Leibniz 1686 die Größe formula_3 als das wahre Maß für die Größe der Bewegung und nannte sie vis viva („lebendige Kraft“). Dieser Name folgte dem damaligen Sprachgebrauch, in dem ein Körper nur durch die ihm innewohnenden "Kräfte" Wirkungen verursachen konnte. Der Name "lebendige Kraft" hat aber durch „Verwechslung mit dem Newtonschen Kraftbegriff eine unheilvolle Verwirrung der Ideen und eine zahllose Schar von Missverständnissen hervorgerufen“ (so Max Planck 1887 in seiner preisgekrönten Darstellung der Geschichte des Energieerhaltungssatzes.) Leibniz argumentierte wie folgt:
Ein Gewicht von formula_4 auf die Höhe formula_5 zu heben erfordert genauso viel Arbeit wie ein Gewicht formula_6 auf die Höhe formula_7 zu heben (Hebelgesetz). Nach Galileo Galilei ist im freien Fall formula_8, also ist die Endgeschwindigkeit im ersten Fall doppelt so hoch wie im zweiten Fall. Setzt man für die "innewohnende" (lebendige) Kraft, mit der man diese Arbeit ("latente Form der lebendigen Kraft") messen will, formula_9 an, so ist bei Erhaltung der lebendigen Kraft formula_10, das heißt formula_11 und nicht formula_12, wie die Anhänger von Descartes meinten.
Den korrekten Vorfaktor formula_13 in der kinetischen Energie leitete schon Daniel Bernoulli 1726 ab. Bei ihm wie bei anderen analytischen Mechanikern des 18. Jahrhunderts wie Leonhard Euler (z. B. Behandlung der elastischen Deformation), Joseph Louis Lagrange (Mécanique Analytique 1788) finden sich auch Vorläufer des Konzepts der potentiellen Energie (der Term Potentialfunktion stammt von George Green 1828 und unabhängig wurde sie von Carl Friedrich Gauß 1840 eingeführt, war aber als Potential schon Lagrange und Laplace bekannt). Das Konzept war schon Leibniz (in seiner Ableitung von formula_3) und Johann I Bernoulli bekannt, der als erster 1735 das Prinzip der Erhaltung der "lebendigen Kräfte" formulierte (die Vorstellung hatte aber auch Leibniz zum Beispiel im 5. Brief an Samuel Clarke), das insbesondere vom Leibniz-Schüler Christian Wolff verbreitet wurde. Von potentieller Energie sprach man damals als der "latenten Form der lebendigen Kraft", die sich zum Beispiel beim inelastischen Stoß auf kleinere Teilchen des Körpers verteile.
Um die genannten Wirkungen der Bewegung des Körpers vorhersagen zu können, definierte Young die Größe "Energie" als die Fähigkeit des Körpers, gegen eine widerstehende Kraft eine gewisse Strecke zurückzulegen. Er bemerkte auch, dass Arbeit, die in Form von Hubarbeit an einem Körper geleistet wird, sich später quantitativ in dessen Energie wiederfindet, kam aber noch nicht auf den Begriff der Umwandlung verschiedener Energieformen und behielt auch die Formel formula_15 von Leibniz bei und war im Großen und Ganzen noch ein Anhänger des Cartesianischen Standpunkts der "Kräfte".
Im 18. Jahrhundert war man in der Mechanik und Physik an der Energie nicht sonderlich interessiert, wichtige Forscher wie Euler sahen den Streit um die "Vis Viva", das wahre Kraftmaß, als Angelegenheit der Philosophen und man befasste sich mit der Lösung der Bewegungsgleichungen vor allem in der Himmelsmechanik. Der Energiebegriff im heutigen Sinn fand seinen Ursprung nicht bei den analytischen Mechanikern des 18. Jahrhunderts, sondern bei den angewandten Mathematikern der französischen Schule, darunter Lazare Carnot, der schrieb, dass die "lebendige Kraft" sich entweder als formula_3 oder Kraft mal Weg (als latente lebendige Kraft) manifestieren kann. Eine quantitative Definition der Arbeit („Kraft mal Weg“ bzw. formula_17) wurde auch 1829 gleichzeitig von Coriolis und Poncelet gegeben, offenbar unabhängig voneinander, und auch von Young. Coriolis fand dabei auch den richtigen Ausdruck formula_18 für die Bewegungsenergie, die 1853 von Rankine erstmals "kinetische Energie" genannt wurde. Rankine prägte 1859 auch den Ausdruck "potentielle Energie".
Im Zusammenhang mit der Dampfmaschine entwickelte sich die Vorstellung, dass Wärmeenergie bei vielen Prozessen die Ursache für eine bewegende Energie oder mechanische Arbeit ist. Ausgangspunkt war, dass Wasser durch Hitze in den gasförmigen Zustand überführt und die Gasausdehnung genutzt wird, um einen Kolben in einem Zylinder zu bewegen. Durch die Kraftbewegung des Kolbens vermindert sich die gespeicherte Wärmeenergie des Wasserdampfes. Demonstriert wurde der Zusammenhang von mechanischer Energie und Wärme in berühmt gewordenen Experimenten von Benjamin Thompson (Graf Rumford, München 1796, 1798) und Humphry Davy (1799).
Der Physiker Nicolas Carnot erkannte, dass beim Verrichten von mechanischer Arbeit eine Volumenänderung des Dampfs nötig ist. Außerdem fand er heraus, dass die Abkühlung des heißen Wassers in der Dampfmaschine nicht nur durch Wärmeleitung erfolgt. Diese Erkenntnisse veröffentlichte Carnot 1824 in einer vielbeachteten Schrift über das Funktionsprinzip der Dampfmaschine. Émile Clapeyron brachte 1834 Carnots Erkenntnisse in eine mathematische Form und entwickelte die noch heute verwendete graphische Darstellung des Carnot-Kreisprozesses.
1841 veröffentlichte der deutsche Arzt Julius Robert Mayer seine Idee, dass Energie weder erschaffen noch vernichtet, sondern nur umgewandelt werden kann. Er schrieb an einen Freund: Die Wärmemenge, die bei einer Dampfmaschine verloren gegangen ist, entspräche genau der mechanischen Arbeit, die die Maschine leistet. Dies ist heute bekannt als „Energieerhaltung“ oder auch „Erster Hauptsatz der Thermodynamik“.
Der Physiker Rudolf Clausius verbesserte im Jahr 1854 die Vorstellungen über die Energieumwandlung. Er zeigte, dass nur ein Teil der Wärmeenergie in mechanische Arbeit umgewandelt werden kann. Ein Körper, bei dem die Temperatur konstant bleibt, kann keine mechanische Arbeit leisten. Clausius entwickelte den zweiten Hauptsatz der Thermodynamik und führte den Begriff der Entropie ein. Nach dem zweiten Hauptsatz ist es unmöglich, dass Wärme eigenständig von einem kälteren auf einen wärmeren Körper übergeht.
Hermann von Helmholtz formulierte im Jahr 1847 das Prinzip „über die Erhaltung der Kraft“ und der Unmöglichkeit eines Perpetuum mobiles ("perpetuus", lat. ewig; "mobilis", lat.: beweglich) 1. Art. Viele Erfinder wollten damals noch Maschinen herstellen, die mehr Energie erzeugten als hineingesteckt wurde. Helmholtz fand seine Erkenntnisse durch Arbeiten mit elektrischer Energie aus galvanischen Elementen, insbesondere einer Zink/Brom-Zelle. In späteren Jahren verknüpfte er die Entropie und die Wärmeentwicklung einer chemischen Umwandlung zur freien Energie. Sowohl Mayer als auch Helmholtz hatten aber in den 1840er Jahren Schwierigkeiten, ihre Erkenntnisse zu veröffentlichen, da beide zunächst als fachfremde Außenseiter galten und die Physiker in Deutschland in einer Abwehrhaltung gegen die seit Ende des 18. Jahrhunderts einflussreiche Naturphilosophie des Kreises um Schelling waren und man beide verdächtigte, Anhänger dieser "spekulativen Physik" zu sein.
Josiah Gibbs kam im Jahr 1878 zu ähnlichen Erkenntnissen wie Helmholtz bei elektrochemischen Zellen. Chemische Reaktionen laufen nur ab, wenn die Freie Energie abnimmt. Mittels der freien Energie lässt sich voraussagen, ob eine chemische Stoffumwandlung überhaupt möglich ist oder wie sich das chemische Gleichgewicht einer Reaktion bei einer Temperaturänderung verhält.
Nachdem schon Wilhelm Wien (1900), Max Abraham (1902) und Hendrik Lorentz (1904) Überlegungen zur elektromagnetischen Masse publiziert hatten, veröffentlichte Albert Einstein im Rahmen seiner speziellen Relativitätstheorie 1905 die Erkenntnis, dass Masse und Energie äquivalent sind.
Energieformen und Energieumwandlung.
Energie kann in einem System auf unterschiedliche Weise enthalten sein. Diese Möglichkeiten werden "Energieformen" genannt. Beispiele für Energieformen sind die kinetische Energie, die chemische Energie, die elektrische Energie, die Strahlungsenergie oder die potentielle Energie. Verschiedene Energieformen können ineinander umgewandelt werden, wobei die Summe der Energiemengen über die verschiedenen Energieformen vor und nach der Energieumwandlung stets die gleiche ist.
Eine Umwandlung kann nur so erfolgen, dass auch alle anderen Erhaltungsgrößen des Systems vor und nach der Umwandlung den gleichen Wert besitzen. Beispielsweise wird die Umwandlung kinetischer Energie durch die Erhaltung des Impuls und des Drehimpuls des Systems eingeschränkt. Ein Kreisel kann nur dann abgebremst werden und damit Energie verlieren, wenn er gleichzeitig Drehimpuls abgibt. Auch auf molekularer Ebene gibt es solche Einschränkungen. Viele chemische Reaktionen, die energetisch möglich wären, laufen nicht spontan ab, weil sie die Impulserhaltung verletzen würden. Weitere Erhaltungsgrößen sind die Zahl der Baryonen und die Zahl der Leptonen. Sie schränken die Umwandlung von Energie durch Kernreaktionen ein. Die Energie, die in der Masse von Materie steckt, lässt sich nur mit einer gleich großen Menge von Antimaterie vollständig in eine andere Energieform umwandeln. Ohne Antimaterie gelingt die Umwandlung mit Hilfe von Kernspaltung oder Kernfusion nur zu einem kleinen Teil.
Die Thermodynamik gibt mit dem zweiten Hauptsatz der Thermodynamik eine weitere Bedingung für eine Umwandlung vor: Die Entropie eines abgeschlossenen Systems kann nicht abnehmen. Entnahme von Wärme, ohne dass parallel andere Prozesse ablaufen, bedeutet eine Abkühlung. Eine niedrigere Temperatur entspricht jedoch einer verminderten Entropie und steht damit im Widerspruch zum zweiten Hauptsatz. Um dennoch Wärme in eine andere Energieform umzuwandeln, muss im Gegenzug zur Abkühlung ein anderer Teil des Systems erwärmt werden. Die Umwandlung von thermischer Energie in andere Energieformen setzt daher immer eine Temperaturdifferenz voraus. Außerdem kann nicht die gesamte in der Temperaturdifferenz gespeicherte Wärmemenge umgesetzt werden. Wärmekraftmaschinen dienen dazu, Wärme in mechanische Energie umzuwandeln. Das Verhältnis der durch den zweiten Hauptsatz gegebenen maximal möglichen Arbeit zur verbrauchten Wärmemenge wird Carnot-Wirkungsgrad genannt. Er ist umso größer, je größer die Temperaturdifferenz ist, mit der die Wärmekraftmaschine arbeitet.
Andere Umwandlungen sind nicht so stark von den Einschränkungen durch Erhaltungssätze und Thermodynamik betroffen. So lässt sich elektrische Energie mit wenig technischem Aufwand nahezu vollständig in viele andere Energieformen überführen. Elektromotoren wandeln sie beispielsweise in kinetische Energie um.
Die meisten Umwandlungen erfolgen nicht vollständig in eine einzige Energieform, sondern es wird ein Teil der Energie in Wärme gewandelt. In mechanischen Anwendungen wird die Wärme meist durch Reibung erzeugt. Bei elektrischen Anwendungen sind häufig der elektrische Widerstand oder Wirbelströme die Ursache für die Erzeugung von Wärme. Diese Wärme wird in der Regel nicht genutzt und als Verlust bezeichnet. Im Zusammenhang mit elektrischem Strom kann auch die Abstrahlung elektromagnetischer Wellen als unerwünschter Verlust auftreten. Das Verhältnis zwischen erfolgreich umgewandelter Energie und eingesetzter Energie wird Wirkungsgrad genannt.
Bei technischen Anwendungen wird häufig eine Reihe von Energieumwandlungen gekoppelt. In einem Kohlekraftwerk wird zunächst die chemische Energie der Kohle durch Verbrennung in Wärme umgesetzt und auf Wasserdampf übertragen. Turbinen wandeln die Wärme des Dampfs in mechanische Energie um und treiben wiederum Generatoren an, die die mechanische Energie in elektrische Energie umwandeln.
Energie in der klassischen Mechanik.
In der klassischen Mechanik ist die Energie eines Systems seine Fähigkeit, Arbeit zu leisten. Die Arbeit wandelt Energie zwischen verschiedenen Energieformen um. Die spezielle Form der newtonschen Gesetze gewährleistet, dass sich dabei die Summe aller Energien nicht ändert. Reibung und die mit ihr einhergehenden Energieverluste sind in dieser Betrachtung nicht berücksichtigt.
Das Noether-Theorem erlaubt eine allgemeinere Definition der Energie, die den Aspekt der Energieerhaltung automatisch berücksichtigt. Alle Naturgesetze der klassischen Mechanik sind invariant in Bezug auf Verschiebungen in der Zeit. Sie zeichnen sich dadurch aus, dass sie zu allen Zeiten unverändert in der gleichen Form gelten. Das Noether-Theorem besagt nun, dass es zu dieser Symmetrie in Bezug auf Verschiebung in der Zeit eine physikalische Größe gibt, deren Wert sich nicht mit der Zeit verändert. Diese Größe ist die Energie.
Aus dem Energieerhaltungssatz und unvermeidlichen Energieverlusten durch Reibung folgt, dass es unmöglich ist, eine mechanische Maschine zu bauen, die von sich aus beliebig lange läuft (Perpetuum mobile). Außerdem erlaubt die Energieerhaltung zusammen mit der Impulserhaltung Aussagen über das Ergebnis von Stößen zwischen Objekten, ohne dass der genaue Mechanismus beim Stoß bekannt sein muss.
Energie und Bewegung.
Die kinetische Energie formula_19 ist diejenige Energie, die dem Bewegungszustand eines Körpers innewohnt. Sie ist proportional zur Masse formula_4 und zum Quadrat der Geschwindigkeit formula_21.
Da die Geschwindigkeit von dem Bezugssystem abhängt, ist dies auch für die kinetischen Energie der Fall. Häufig verwendet man ein Inertialsystem, das in Bezug auf den Erdboden ruht.
Ein ausgedehnter Körper kann neben einer Translationsbewegung auch eine Drehbewegung durchführen. Die kinetische Energie, die in der Drehbewegung steckt, nennt man Rotationsenergie. Diese ist proportional zum Quadrat der Winkelgeschwindigkeit und zum Trägheitsmoment des Körpers.
Energie und Potential.
Potentielle Energie, auch "Lageenergie" genannt, kommt einem Körper durch seine Lage in einem Kraftfeld zu, sofern es sich um eine konservative Kraft handelt. Dies könnte beispielsweise das Erdschwerefeld oder das Kraftfeld einer Feder sein. Die potentielle Energie nimmt in Kraftrichtung ab und entgegen der Kraftrichtung zu, senkrecht zur Kraftrichtung ist sie konstant. Bewegt sich der Körper von einem Punkt, an dem er eine hohe potentielle Energie hat, zu einem Punkt, an dem diese geringer ist, leistet er genau so viel physikalische Arbeit, wie sich seine potentielle Energie vermindert hat. Diese Aussage gilt unabhängig davon, auf welchem Weg der Körper vom einen zum anderen Punkt gelangt ist.
Die potentielle Energie eines Körpers mit der Masse formula_4 in einem homogenen Gravitationsfeld mit Gravitationsbeschleunigung formula_24 ist proportional zur Höhe formula_7 über dem Ursprung des Koordinatensystems:
Beim freien Fall wird diese potentielle Energie in kinetische Energie umgewandelt, indem der Körper beschleunigt wird.
Da der Koordinatenursprung beliebig gewählt werden kann, ist die Lageenergie des Körpers niemals absolut gegeben und auch nicht messbar. Messbar sind nur ihre Änderungen.
Bei periodischen Bewegungen wird regelmäßig potentielle in kinetische Energie und wieder zurück in potentielle Energie verwandelt. Beim Pendel ist beispielsweise an den Umkehrpunkten die potentielle Energie maximal; die kinetische Energie ist hier null. Wenn der Faden gerade senkrecht hängt, erreicht die Masse ihre maximale Geschwindigkeit und damit auch ihre maximale kinetische Energie; die potentielle Energie hat hier ein Minimum. Ein Planet hat bei seinem sonnenfernsten Punkt zwar die höchste potentielle, aber auch die geringste kinetische Energie. Bis zum sonnennächsten Punkt erhöht sich seine Bahngeschwindigkeit gerade so sehr, dass die Zunahme der kinetischen Energie die Abnahme der potentiellen Energie genau kompensiert.
Elastische Energie ist die potentielle Energie der aus ihrer Ruhelage verschobenen Atome oder Moleküle in einem elastisch deformierten Körper, beispielsweise einer mechanischen Feder. Allgemein bezeichnet man die Energie, die bei der elastischen oder plastischen Verformung in dem Körper gespeichert (oder freigesetzt) wird, als Deformationsenergie.
Energie in der Thermodynamik.
"Thermische Energie" ist die Energie, die in der ungeordneten Bewegung der Atome oder Moleküle eines Stoffes gespeichert ist. Sie wird umgangssprachlich auch als „Wärmeenergie“ oder „Wärmeinhalt“ bezeichnet. Die Umwandlung thermischer Energie in andere Energieformen wird durch die Thermodynamik beschrieben. Hier wird zwischen der im System enthaltenen Energie (innere Energie, Enthalpie) und der Wärme, der über die Systemgrenze transportierten thermischen Energie, unterschieden.
Die Summe aus thermischer Energie, Schwingungsenergie im Körper und Bindungsenergie bezeichnet man als "innere Energie". Dabei wird in manchem Quellen auch zwischen der "thermischen inneren Energie", der "chemischen inneren Energie" und der "Kernenergie als innerer Energie" unterschieden, was aber den Rahmen der Thermodynamik verlässt.
Umwandlung thermischer Energie in mechanische Arbeit.
Während alle Energieformen unter gewissen Bedingungen (siehe #Energieformen und Energieumwandlung) vollständig in thermische Energie umgewandelt werden können (erster Hauptsatz der Thermodynamik), gilt das in umgekehrter Richtung nicht. Der zweite Hauptsatz der Thermodynamik beschreibt hier eine ganz wesentliche Einschränkung (Bild 1). Abhängig von der Temperatur, bei der die Wärme zur Verfügung steht, lässt sich nur ein mehr oder weniger großer Anteil über einen Kreisprozess in mechanische Arbeit umwandeln, während der Rest an die Umgebung abgegeben wird. In der technischen Thermodynamik werden die umwandelbaren Anteile einer Energieform auch als Exergie bezeichnet. Die Exergie ist keine Zustandsgröße im eigentlichen Sinne, denn sie hängt nicht nur vom Zustand des Systems ab, sondern auch vom Zustand der Umgebung, der im Einzelfall gegeben ist, im Allgemeinen angenommen werden muss. Dann lässt sich anhand von Exergie-Flussbildern einer Energie-Wandlungskette verfolgen, wo vermeidbare Verluste (Reibung oder andere dissipative Vorgänge) zu verzeichnen sind. In Bild 2 erkennt man, dass bei der Umwandlung von chemischer Energie (100 % Exergie) in Wärme bei einer mittleren Temperatur von 1000 °C der Exergie-Anteil nur noch 80 % beträgt. Wird diese Energie als Wärme in einem Dampfkessel auf Wasserdampf mit 273 °C übertragen, so verbleiben nur noch ca. 50 % und bei der Übertragung in einen mit 20 °C beheizten Raum nur noch etwa 7 %. Dabei wurde stets eine Umgebungstemperatur von 0 °C angenommen.
Berechnung der maximalen Arbeit (Exergie).
Bei der Berechnung des exergetischen Anteils von thermischer Energie ist zu berücksichtigen, ob die Wärmequelle eine konstante Temperatur besitzt, wie das in einem Siedewasser-Reaktor bei circa 270 °C der Fall ist, oder ob die Wärmeabgabe aus einem sich abkühlenden Medium, Rauchgas, erfolgt. Im ersten Fall kann der exergetische Anteil über den Carnot-Wirkungsgrad aus der oberen Prozess-Temperatur und der Umgebungstemperatur bestimmt werden, andernfalls erhält man die Wärme und die Exergie aus dem Flächenintegral, das aus dem T-S-Diagramm in Bild 3 und aus dem T-S-Diagramm in Bild 4 erkennbar ist.
Die Formel lautet:
Die Beziehung kann auch direkt aus den Diagrammen abgelesen werden. Hierbei sind: T die absolute Temperatur in K, S die Entropie in J/K, H die Enthalpie in J, Index 1: Ausgangszustand, Index U: Umgebungszustand.
Die Enthalpie-Differenz ist im Wesentlichen (in diesem Falle) die aus dem Brennstoff der Verbrennungsluft als Wärme zugeführte Energie. Sie erscheint als Fläche unter der Kurve der isobaren Wärmezufuhr. Der exergetische Anteil liegt oberhalb der Umgebungstemperatur, der andere nicht verwertbare Anteil, der „Anergie“ genannt wird, unterhalb dieser Linie. Bei der Abnahme der Exergie in einer Energie-Umwandlungskette spricht man auch von einer Energieentwertung.
Bei der Übertragung der Wärme aus dem Rauchgas auf das Arbeitsmedium, das Wasser, das dabei verdampft und überhitzt wird, entsteht ein weiterer Exergieverlust. Die maximale aus dem Dampfmassenstrom gewinnbare mechanische Leistung darf für einen Prozess mit Heißdampf von beispielsweise 16 bar und 350 °C keinesfalls über den Carnot-Wirkungsgrad mit dieser Temperatur berechnet werden. Das Ergebnis mit einem Wirkungsgrad von 52 % wäre falsch. Es würde dem zweiten Hauptsatz widersprechen, da die mittlere Temperatur der Wärmezufuhr in den Wasser-Dampf-Kreislauf niedriger ist. Erfolgt keine interne Wärmeübertragung (regenerative Speisewasservorwärmung) aus kondensierendem Dampf auf das Speisewasser, wie bei Dampfmaschinen, bei denen im theoretisch günstigsten Fall der Dampf reversibel auf Wasser mit Umgebungszustand gebracht werden kann, so erreicht man bei 15 °C Umgebungstemperatur nur einen maximalen Wirkungsgrad von 34,4 %. Der reversibel geführte Clausius-Rankine-Prozess in Bild 4 mit einem Dampfdruck von 32 bar und Kondensation bei 24 °C erreicht dagegen 37,2 %. Die realen Prozesse erreichen bei diesen Dampfparametern nur weitaus niedrigere Wirkungsgrade.
Energie- und Exergie-Flussbild der Stromerzeugung.
In Bild 5 ist ein vereinfachtes Energieflussbild der Stromerzeugung durch ein großes Dampfkraftwerk (Frischdampfzustand 260 bar, 545 °C, Speisewasservorwärmung auf 276 °C) mit der Verteilung bis zum Endverbraucher einem entsprechenden Exergieflussbild gegenübergestellt. Man erkennt daraus, dass ein wesentlicher Teil der Energieentwertung nicht im Kondensator oder im nachgeschalteten Kühlturm des Kraftwerkes erfolgt, wo die Abwärme abgeführt wird, sondern bei der Umwandlung der chemischen Energie des Brennstoffes in thermische Energie (Verbrennung) und bei der Wärmeübertragung vom Rauchgas auf den Wasserdampf. Die Zahlenwerte für die Stromverteilung sind Anhaltswerte, sie können im Einzelfall geringfügig abweichen.
Sonnenenergie.
Auch die Sonnenenergie, die durch Strahlung auf die Erde gelangt, erfährt auf dem Weg bis zur Erdoberfläche einen Exergieverlust. Während die innere Energie der Sonne bei rund 15 Millionen K noch praktisch aus reiner Exergie besteht, strahlt die Sonne mit einer Oberflächentemperatur von rund 6000 K auf die Erdoberfläche, deren Temperatur mit ca. 300 K anzusetzen ist. Durch Konzentration der Sonnenstrahlen in einem Kollektor käme man also – auch im Hochgebirge, wo die Absorption durch die Erdatmosphäre kaum eine Rolle spielt – über die Temperatur der Sonnenoberfläche nicht hinaus. Es ergäbe sich über den Carnot-Faktor ein Wirkungsgrad von ca. 95 %. Dann würde allerdings keine Energie mehr übertragen. Das thermodynamische Limit liegt darunter bei einer Absorbertemperatur von 2500 K mit einem Wirkungsgrad von ca. 85 %. In der Praxis kommen dissipative Verluste hinzu, angefangen von der Absorption in der Atmosphäre, über die Materialeigenschaften der kristallinen Zellen bis zum ohmschen Widerstand der Fotovoltaikanlagen, sodass bis heute nur Wirkungsgrade von weniger als 20 % erreicht werden können. Der höchste derzeit erreichte Wirkungsgrad ist 18,7 %.
Kraft-Wärme-Kopplung (KWK).
Zum Heizen wird meist Wärme mit nur einem geringen Exergieanteil benötigt. Deshalb ist das Heizen mit elektrischem Strom über eine Widerstandsheizung „Energieverschwendung“. Überall dort, wo mechanische Energie oder Strom aus Wärme erzeugt wird und gleichzeitig Wärmebedarf existiert, ist die Nutzung der Abwärme zum Heizen sinnvoller als die getrennte Bereitstellung von Wärme. In einem Heizkraftwerk wird, wenn es mit Dampf betrieben wird, Dampf aus der Turbine entnommen, dessen Temperatur gerade noch ausreichend hoch ist, um die Kondensationsenthalpie über ein Fernwärmenetz zum Verbraucher zu leiten. Alternativ wird auch in Blockheizkraftwerken (BHKW) die Abwärme von stationären Verbrennungsmotoren genutzt. Auch die Wärmepumpe ist hier zu nennen. Sie wendet Arbeit auf, um Wärme (Energie) aus der Umgebung aufzunehmen und zusammen mit der Antriebsarbeit als Heizwärme bei entsprechend hoher Temperatur abzugeben. Wenn Grundwasser mit 10 °C als Wärmequelle zur Verfügung steht und ein Raum mit 20 °C zu beheizen ist, könnte eine Wärmepumpe mit Carnot-Prozess durch Einsatz von einer Kilowattstunde Antriebsarbeit 29 kWh Wärme liefern (Arbeitszahl =29). Reale Wärmepumpen, die mit wechselweise verdampfenden und kondensierenden Kältemitteln bei unterschiedlichen Drücken betrieben werden, erreichen Arbeitszahlen von ca. 3 bis 5.
Chemische Energie.
Als chemische Energie wird die Energieform bezeichnet, die in Form einer chemischen Verbindung in einem Energieträger gespeichert ist und bei chemischen Reaktionen freigesetzt werden kann. Sie beschreibt also die Energie, die mit elektrischen Kräften in Atomen und Molekülen verbunden ist und kann unterteilt werden in einerseits kinetischer Energie der Elektronen in den Atomen und andererseits der elektrischen Energie der Wechselwirkung von Elektronen und Protonen.
Sie wird bei exothermen Reaktionen frei und muss für endotherme Reaktionen hinzugefügt werden.
Energie in der Elektrodynamik.
In einem elektrischen Feld kann, sofern kein zeitlich veränderliches Magnetfeld vorliegt, ein elektrisches Potential definiert werden. Ein Ladungsträger besitzt dann eine potentielle elektrische (elektrostatische) Energie, die proportional zum Potential und zu seiner Ladungsmenge ist. Da der Nullpunkt des Potentials frei festgelegt werden kann, ist auch die Energie nicht absolut definiert. Für zwei Punkte im Potentialfeld ist aber die Differenz der Energien unabhängig von der Wahl des Potentialnullpunktes. Potentialdifferenzen entsprechen in der Elektrotechnik Spannungen; als Nullpunkt der Potentialskala wird üblicherweise das Potential der Erde gewählt.
Für Anordnungen zweier elektrischer Leiter ist die elektrostatische Energie proportional zum Quadrat der Differenz der elektrischen Potentiale der beiden Leiter. Das Doppelte der Proportionalitätskonstante nennt man elektrische Kapazität. Kondensatoren sind elektrotechnische Bauelemente, die hohe Kapazität besitzen und daher Energie speichern können.
Gleichwertig mit der Sichtweise, dass die elektrostatische Energie von Ladungen getragen wird, ist die Interpretation, dass sich die Energie auf den leeren Raum zwischen den Ladungen verteilt. Die Energiedichte, also die Energie pro Volumenelement, ist bei dieser Betrachtungsweise proportional zum Quadrat der elektrischen Feldstärke. Befindet sich in dem elektrischen Feld ein Dielektrikum, so ist die Energie außerdem proportional zur Dielektrizitätskonstante.
Bewegt sich eine Ladung im Vakuum zu einem Ort, an dem ein geringeres elektrisches Potential herrscht, erhöht sich die kinetische Energie der Ladung gerade so viel, wie die potentielle Energie geringer wird. Dies geschieht beispielsweise mit Elektronen in einer Elektronenröhre, in einer Röntgenröhre oder in einem Kathodenstrahlröhrenbildschirm. Bewegt sich eine Ladung dagegen entlang eines Potentialgefälles in einem Leiter, gibt sie ihre aufgenommene Energie sofort in Form von Wärme an das Leitermedium ab. Die Leistung ist dabei proportional zum Potentialgefälle und zur Stromstärke.
Elektrische Energie kann transportiert werden, indem sich Ladungsträger ohne nennenswertes Potentialgefälle entlang von Leitern bewegen. Dies ist beispielsweise in Freileitungen oder in Stromkabeln der Fall, mit deren Hilfe elektrische Energie vom Kraftwerk bis zum Verbraucher fließt.
Magnetische Energie ist in magnetischen Feldern wie im supraleitenden magnetischen Energiespeicher enthalten.
In einem idealen elektrischen Schwingkreis gespeicherte Energie wandelt sich fortlaufend zwischen der elektrischen Form und der magnetischen Form. Zu jedem Zeitpunkt ist die Summe der Teilenergien gleich (Energieerhaltung). Hierbei hat der reine magnetische respektive elektrische Anteil der Energie die doppelte Frequenz der elektrischen Schwingung.
Energie in der Relativitätstheorie.
Nach der speziellen Relativitätstheorie entspricht der Masse formula_4 eines ruhenden Objekts eine Ruheenergie von
Die Ruheenergie ist somit bis auf den Faktor formula_30 (Quadrat der Lichtgeschwindigkeit formula_31) der Masse äquivalent. Die Ruheenergie kann bei bestimmten Vorgängen in andere Energieformen umgewandelt werden und umgekehrt. So haben die Reaktionsprodukte der Kernspaltung und der Kernfusion messbar niedrigere Massen als die Ausgangsstoffe. In der Elementarteilchenphysik wird umgekehrt auch die Erzeugung von Teilchen und damit von Ruheenergie aus anderen Energieformen beobachtet.
In der klassischen Mechanik wird die Ruheenergie nicht mitgerechnet, da sie ohne Belang ist, solange sich Teilchen nicht in andere Teilchen umwandeln.
Die allgemeine Relativitätstheorie verallgemeinert das Konzept der Energie weiter und enthält eine einheitliche Darstellung von Energien und Impulsen als Quellen für Raumkrümmungen über den Energie-Impuls-Tensor. Aus diesem lassen sich durch Kontraktionen die für einen Beobachter messbaren Größen wie Energiedichte gewinnen. Für die Untersuchung der Entwicklung von Raumzeiten ist der Energieinhalt entscheidend. So kann man aus Energiebedingungen den Kollaps der Raumzeit zu einer Singularität vorhersagen.
Energie in der Quantenmechanik.
In der Quantenmechanik bestimmt der Hamiltonoperator, welche Energie an einem physikalischen System gemessen werden kann. Gebundene Zustände des Systems können dabei nur diskreten, also nicht beliebigen Energiewerten entsprechen. Deshalb haben die bei Übergängen zwischen diesen Zuständen emittierten Teilchen oder Strahlen Linienspektren.
Die Quantelung der Energie tritt bei elektromagnetischen Wellen auf: Eine Welle der Frequenz formula_32 kann Energie nur in Paketen formula_33 abgeben, wobei formula_7 die Planck-Konstante ist.
Technische Nutzung der Energie.
Eine "Erzeugung" von Energie ist aufgrund des Energieerhaltungssatzes nicht möglich. Die Bezeichnung Energieerzeugung wird im Wirtschaftsleben aber dennoch verwendet, um die Umwandlung einer bestimmten Energieform (zum Beispiel elektrischer Strom) aus einer anderen Form (zum Beispiel chemischer Energie in Form von Kohle) auszudrücken. Analog gibt es im strengen physikalischen Sinne auch keinen Energieverbrauch, wirtschaftlich gemeint ist damit aber der Übergang von einer gut nutzbaren Primärenergie (zum Beispiel Erdöl, Gas, Kohle) in eine nicht mehr weiter nutzbare Energieform (zum Beispiel Abwärme in der Umwelt). Von Energieeinsparung ist die Rede, wenn effizientere Prozesse gefunden werden, die weniger Primärenergie für denselben Zweck benötigen, oder anderweitig, zum Beispiel durch Konsumverzicht, der Primärenergieeinsatz reduziert wird.
Die Physik beschreibt den oben eingeführten „Energieverbrauch“ mit dem exakten Begriff der Entropiezunahme. Während in einem abgeschlossenen System die Energie stets erhalten bleibt, nimmt die Entropie mit der Zeit stets zu oder bleibt bestenfalls konstant. Je höher die Entropie, desto schlechter nutzbar ist die Energie. Statt von Entropiezunahme kann man anschaulich auch von Energieentwertung sprechen.
Das Gesetz der Entropiezunahme verhindert insbesondere, Wärmeenergie direkt in Bewegungs- oder elektrische Energie umzuwandeln. Stattdessen sind immer eine Wärmequelle und eine Wärmesenke (= Kühlung) erforderlich. Der maximale Wirkungsgrad kann gemäß Carnot aus der Temperaturdifferenz berechnet werden.
Der Grenzfall einer Energieumwandlung ohne Entropiezunahme wird als "reversibler Prozess" bezeichnet. Als Beispiel einer nahezu reversiblen Energieumwandlung sei ein Satellit auf einer elliptischen Umlaufbahn um die Erde genannt: Am höchsten Punkt der Bahn hat er hohe potentielle Energie und geringe kinetische Energie, am niedrigsten Punkt der Bahn ist es genau umgekehrt. Die Umwandlung kann hier ohne nennenswerte Verluste tausendfach im Jahr erfolgen. In supraleitenden Resonatoren kann Energie millionen- oder gar milliardenfach pro Sekunde zwischen Strahlungsenergie und elektrischer Energie hin- und hergewandelt werden, ebenfalls mit Verlusten von weniger als einem Promille pro Umwandlung.
Bei vielen Prozessen, die in der Vergangenheit noch mit hohen Verlusten ergo erheblicher Entropiezunahme verbunden waren, ermöglicht der technologische Fortschritt zunehmend geringere Verluste. So verwandelt eine Energiesparlampe oder LED elektrische Energie wesentlich effizienter in Licht als eine Glühlampe. Eine Wärmepumpe erzeugt durch Nutzung von Wärme aus der Umwelt bei einer bestimmten elektrischen Leistung oft vielfach mehr Wärme als ein herkömmliches Elektroheizgerät bei gleicher Leistung. In anderen Bereichen liegt der Stand der Technik aber schon seit geraumer Zeit nah am theoretischen Maximum, so dass hier nur noch kleine Fortschritte möglich sind. So verwandeln gute Elektromotoren über 90 Prozent der eingesetzten elektrischen Energie in nutzbare mechanische Energie und nur einen kleinen Teil in nutzlose Wärme.
Energiesparen bedeutet im physikalischen Sinn, die Energieentwertung und Entropiezunahme bei der Energieumwandlung oder Energienutzung zu minimieren.
Spezifische Energie.
"Spezifisch" heißt in den Naturwissenschaften „auf eine bestimmte Bemessungsgrundlage bezogen“ (Bezogene Größe). Die "spezifische Energie" wird auf eine gewisse Eigenschaft eines Systems bezogen, die durch eine physikalische Größe beschrieben werden kann.
Nach DIN 5485 ist die "spezifische Energie" speziell massenbezogen, und die "volumetrische Energiedichte" die dimensional bezogene Bezeichnung.
Nicht als "spezifisch", sondern als "molar" (normgerecht: "stoffmengenbezogen") bezeichnet die Thermodynamik und Chemie stoffbezogene Energiewerte:
Energieversorgung und -verbrauch.
Mit Energieverbrauch wird umgangssprachlich die Nutzung von verschiedenen Energien in für Menschen gut verwendbaren Formen bezeichnet. Energieversorgung bezeichnet die Belieferung von Verbrauchern mit diesen Energieformen, inklusive der dazu notwendigen Energieinfrastruktur.
Die letztendlich an Verbraucher belieferte Energie bezeichnet man dabei als Endenergie. Es kann sich dabei sowohl um Primärenergie wie Erdgas zum Betrieb einer Heizung als auch um sogenannte Sekundärenergie wie Strom oder Fernwärme handeln, die aus Primärenergie durch eine verlustbehaftete Wandlung erzeugt wurde. Der Weg, den die Primärenergie vom ursprünglichen Primärenergieaufkommen über die Wandlung in andere Energieformen bis zur Endenergie und ihrem Verbrauch in unterschiedlichen Sektoren für unterschiedliche Zwecke nimmt, wird für eine Volkswirtschaft in Energiebilanzen beschrieben.
Die wichtigsten Anwendungsbereiche von Endenergie sind Wärme und Verkehr (siehe Grafik für Deutschland). Der wichtigste Energieträger in der deutschen Wärmeerzeugung ist Erdgas (Stand: 2019). Der wichtigste Energieträger für Verkehr und Transport sind Mineralöle (Kraftstoffe). Nur etwa 20 % des deutschen Endenergiebedarfs wird durch Strom gedeckt (Stand: 2021).
Einige Energieträger können über Leitungen die Verbraucher erreichen, wie typischerweise Brenngase, elektrische Energie, Prozess- und Heizwärme. Mineralöle, insbesondere Kraftstoffe (Benzine, Dieselkraftstoffe, Kerosin) werden mit Tankwagen über Zwischenlager an Tankstellen oder direkt an den Verbraucher geliefert. Lagerfähig und gut transportfähig sind auch Steinkohle, Heizöl, Kernbrennstoff und Biomasse.
Der Energiebedarf ist weltweit sehr unterschiedlich und in den Industrieländern um ein Vielfaches höher als zum Beispiel in der Dritten Welt (siehe Liste der Staaten mit dem höchsten Energieverbrauch).
In industriell hoch entwickelten Ländern spielt seit dem frühen 20. Jahrhundert die flächendeckende Versorgung der Allgemeinheit mit elektrischer Energie eine große Rolle. Weiterhin sind die Beschaffung, der Transport und die Veredlung von Brennstoffen zu Heizzwecken wichtige Wirtschaftszweige.
Einheiten.
Neben der abgeleiteten SI-Einheit Joule sind je nach Anwendungsgebiet noch andere Energieeinheiten in Gebrauch. Wattsekunde (Ws) und Newtonmeter (Nm) sind mit dem Joule identisch.
Das Elektronenvolt (eV) wird in der Atomphysik, der Kernphysik und der Elementarteilchenphysik zur Angabe von Teilchenenergien und Energieniveaus verwendet. Seltener kommt in der Atomphysik das Rydberg vor. Die cgs-Einheit Erg wird häufig in der theoretischen Physik benutzt.
Die Kalorie war in der Kalorimetrie üblich und wird heute noch umgangssprachlich und im Warenverkehr zusätzlich zur gesetzlichen Einheit Joule bei der Angabe des physiologischen Brennwerts von Lebensmitteln verwendet. In Kilowattstunden (kWh) messen Energieversorger die Menge der an die Kunden gelieferten Energie. Die Steinkohleeinheit und die Öleinheit dienen zur Angabe des Energieinhaltes von Primärenergieträgern. Mit dem TNT-Äquivalent misst man die Sprengkraft von Sprengstoffen.
Liste.
Die folgenden Umrechnungen in diverse Einheiten gelten exakt (die Zahlenwerte wurden durch Definitionen festgelegt), ausgenommen dort, wo „≈“ steht.
Umrechnungen.
In der folgenden Umrechnungstabelle ist jeweils die links angegebene Einheit gleich der Zahl mal der oben angegebenen Einheit:
Größenordnungen.
Energie ist eine Größe, die auch im Alltag einen um viele Größenordnungen unterschiedlichen Wert annehmen kann. Beispiele sind: |
1259 | 234366800 | https://de.wikipedia.org/wiki?curid=1259 | Elektronenvolt | Das Elektronenvolt, amtlich Elektronvolt, ist eine Einheit der Energie, die in der Atom-, Kern- und Teilchenphysik häufig benutzt wird. Es entspricht dem Produkt aus der Elementarladung "e" und der Maßeinheit Volt (V). Sein Einheitenzeichen ist eV.
Das Elektronvolt gehört zwar nicht wie das Joule zum Internationalen Einheitensystem, ist aber zum Gebrauch mit ihm zugelassen und eine gesetzliche Maßeinheit in der EU und der Schweiz.
Definition und Wert.
Das Elektronvolt ist definiert als die kinetische Energie, die ein Elektron bei Durchlaufen einer Beschleunigungsspannung von 1 Volt gewinnt. Es ist somit gleich dem Produkt aus der Elementarladung "e" und der Maßeinheit Volt (V).
Umgerechnet in die SI-Einheit Joule hat das Elektronvolt den Wert
Dieser Zahlenwert ist exakt, weil für die Definition der SI-Einheiten die Elementarladung "e" den Wert zugewiesen bekam und weil für die Maßeinheiten definitionsgemäß gilt: (Kohärenz des SI).
In der Chemie wird oft nicht die Energie pro Teilchen, sondern pro Mol (mit der Einheit J/mol) angegeben, die man durch Multiplikation der Energie des einzelnen Teilchens mit der Avogadro-Konstante formula_2 erhält. Es gilt:
wobei der Zahlenwert der Faraday-Konstante formula_5 in der Einheit C/mol ist.
In der Thermodynamik ist die Temperatur mit der Energie über die Boltzmann-Konstante "k"B = verknüpft. Hier gilt somit:
Die Frequenz elektromagnetischer Strahlung ist mit der Energie der Photonen über die Planck-Konstante "h" = verknüpft. Entsprechend gilt die Beziehung:
Bezeichnung.
Name.
Die Einheit wird in der deutschsprachigen Fachliteratur oft als „Elektronenvolt“ bezeichnet, also mit dem Morphem „en“ zwischen „Elektron“ und „volt“.
Technische und gesetzliche Normen hingegen verwenden durchgehend „Elektronvolt“, insbesondere
Einheitenzeichen.
Die Kurzform „eV“ ist, trotz der formalen Ähnlichkeit, "nicht" das Produkt aus Elementarladung "e" und Volt, sondern ein eigenes Einheitensymbol. Daher sind die Buchstaben „eV“ untrennbar und können mit SI-Präfixen versehen werden. Das Einheitenzeichen folgt nicht der für SI-Einheiten gültigen Konvention, nach der nur der erste Buchstabe ein Großbuchstabe sein kann.
Verwendung.
Das Elektronvolt wird vor allem in der Atomphysik, der Kernphysik und der Elementarteilchenphysik verwendet. Atomare Anregungen liegen typischerweise in der Größenordnung einiger eV, ebenso Bandlücken in Festkörpern. Bindungsenergien und Anregungen von Atomkernen sind von der Größenordnung einiger MeV. Auch die Energie hochenergetischer Photonen (Röntgenstrahlung, Gammastrahlung) wird gerne in keV oder MeV angegeben.
Besonders praktisch ist die Verwendung dieser Einheit im Zusammenhang mit der Beschleunigung geladener Teilchen durch elektrische Felder – sei es in Elektronenröhren (siehe z. B. Franck-Hertz-Versuch), Elektronenmikroskopen oder Teilchenbeschleunigern. Die Änderung der kinetischen Energie formula_10 des beschleunigten Teilchens ist das Produkt aus seiner Ladung formula_11 und der durchlaufenen Spannung formula_12
unabhängig von anderen Einflüssen – die Masse des Teilchens, die Länge des Weges oder der genaue räumliche Verlauf der Feldstärke spielen keine Rolle.
Der Betrag der Ladung eines freien, beobachtbaren Teilchens ist immer die Elementarladung "e" oder ein ganzzahliges Vielfaches davon. Daher kann man die aus einer elektrischen Beschleunigung resultierende Änderung der kinetischen Energie ohne große Rechnung in der Einheit eV angeben. So ändert sich beispielsweise die kinetische Energie eines Protons beim Durchfliegen einer Potentialdifferenz von 100 V um 100 eV, die Energie eines zweifach geladenen Heliumkerns ändert sich um 200 eV.
Die kinetische Energie schwererer Atomkerne (Schwerionen) gibt man häufig „pro Nukleon“ an wobei "A" für die Massenzahl steht. Manchmal schreibt man als Energieeinheit dann AMeV bzw. AGeV, was aber nicht normgerecht ist, weil Zusatzinformationen nicht an Einheitenbezeichnungen angefügt werden dürfen.
Das Elektronvolt wird auch als Einheit der Masse von Teilchen verwendet. Die Umrechnung von Masse in Energie geschieht gemäß der Äquivalenz von Masse und Energie:
wobei
Die entsprechende Masseneinheit ist also eV/"c"2. Bei Verwendung „natürlicher“ Einheiten setzt man und gibt die Masse in eV an. Die Umrechnung in Kilogramm lautet:
Beispielsweise beträgt die Masse eines Elektrons 511 keV/"c"2.
Dezimale Vielfache.
Gebräuchliche dezimale Vielfache des Elektronenvolt (inkl. eines Beispiels) sind: |
1260 | 3650979 | https://de.wikipedia.org/wiki?curid=1260 | Elektrodynamik | Die klassische Elektrodynamik (auch Elektrizitätslehre) ist das Teilgebiet der Physik, das sich mit bewegten elektrischen Ladungen und mit zeitlich veränderlichen elektrischen und magnetischen Feldern beschäftigt. Die Elektrostatik als Spezialfall der Elektrodynamik beschäftigt sich mit ruhenden elektrischen Ladungen und ihren Feldern. Die zugrundeliegende Grundkraft der Physik heißt elektromagnetische Wechselwirkung.
Als Entdecker des Zusammenhangs von Elektrizität und Magnetismus gilt Hans Christian Ørsted (1820), obwohl er in Gian Domenico Romagnosi (1802) einen damals kaum beachteten Vorläufer hatte. Die Theorie der klassischen Elektrodynamik wurde von James Clerk Maxwell Mitte des 19. Jahrhunderts mithilfe der nach ihm benannten Maxwell-Gleichungen formuliert. Die Untersuchung der Maxwellgleichungen für bewegte Bezugssysteme führte Albert Einstein 1905 zur Formulierung der speziellen Relativitätstheorie. Im Laufe der 1940er Jahre gelang es, die Quantenmechanik und Elektrodynamik in der Quantenelektrodynamik zu kombinieren; deren Vorhersagen stimmen mit Messergebnissen sehr genau überein.
Eine wichtige Form von elektromagnetischen Feldern sind die elektromagnetischen Wellen, zu denen als bekanntester Vertreter das sichtbare Licht zählt. Dessen Erforschung bildet ein eigenes Gebiet der Physik, die Optik. Die physikalischen Grundlagen der Beschreibung elektromagnetischer Wellen liefert jedoch die Elektrodynamik.
Klassische Elektrodynamik.
Grundlegende Gleichungen.
Das Zusammenspiel von elektromagnetischen Feldern und elektrischen Ladungen wird grundlegend durch die "mikroskopischen" Maxwell-Gleichungen
und die Lorentzkraft
bestimmt.
Daraus ergeben sich mit Hilfe der Materialgleichungen der Elektrodynamik die "makroskopischen" Maxwell-Gleichungen. Diese sind Gleichungen für die effektiven Felder, die in Materie auftreten.
Weiter spielen (daraus ableitbar) eine wichtige Rolle:
Potentiale und Wellengleichung.
Die homogenen Maxwellgleichungen
und
können durch die Einführung der elektromagnetischen Potentiale gemäß
und
in einem sternförmigen Gebiet identisch gelöst werden (Poincaré-Lemma). Dabei bezeichnet formula_8 das sogenannte skalare Potential und formula_9 das Vektorpotential.
Da die physikalischen Felder nur durch Ableitungen der Potentiale gegeben sind, hat man gewisse Freiheiten, die Potentiale
abzuändern und trotzdem dieselben physikalischen Felder zurückzuerhalten. Beispielsweise ergeben formula_10 und formula_9
dasselbe formula_12-Feld, wenn man sie durch
miteinander in Beziehung setzt. Fordert man auch, dass sich bei einer solchen Transformation dasselbe
formula_14-Feld ergibt, muss sich formula_8 wie
transformieren. Eine solche Transformation wird Eichtransformation genannt.
In der Elektrodynamik werden zwei Eichungen oft verwendet. Erstens die sogenannte Coulomb-Eichung oder Strahlungseichung
und zweitens die Lorenz-Eichung
Die Lorenz-Eichung hat dabei den Vorteil relativistisch invariant zu sein und sich bei einem Wechsel zwischen zwei Inertialsystemen strukturell nicht zu ändern. Die Coulomb-Eichung ist zwar nicht relativistisch invariant, aber wird eher bei der kanonischen Quantisierung der Elektrodynamik verwendet.
Setzt man die formula_14- und formula_12-Felder und die Vakuum-Materialgleichungen in die inhomogenen Maxwellgleichungen ein und eicht die Potentiale gemäß der Lorenz-Eichung, entkoppeln die inhomogenen Maxwellgleichungen und die Potentiale erfüllen inhomogene Wellengleichungen
Hierbei bezeichnet formula_22 den D’Alembert-Operator.
Spezialfälle.
Die Elektrostatik ist der Spezialfall unbewegter elektrischer Ladungen und statischer (sich nicht mit der Zeit ändernder) elektrischer Felder. Sie kann in Grenzen auch verwendet werden, solange die Geschwindigkeiten und Beschleunigungen der Ladungen und die Änderungen der Felder klein sind.
Die Magnetostatik beschäftigt sich mit dem Spezialfall konstanter Ströme in insgesamt ungeladenen Leitern und konstanter Magnetfelder. Sie kann für hinreichend langsam veränderliche Ströme und Magnetfelder verwendet werden.
Die Kombination aus beiden, Elektromagnetismus, kann beschrieben werden als Elektrodynamik der nicht zu stark beschleunigten Ladungen. Die meisten Vorgänge in elektrischen Schaltkreisen (z. B. Spule, Kondensator, Transformator) lassen sich bereits auf dieser Ebene beschreiben.
Ein stationäres elektrisches oder magnetisches Feld bleibt nahe seiner Quelle, wie zum Beispiel das Erdmagnetfeld. Ein sich veränderndes elektromagnetisches Feld kann sich jedoch von seinem Ursprung entfernen. Das Feld bildet eine elektromagnetische Welle im Zusammenspiel zwischen magnetischem und elektrischem Feld. Diese Abstrahlung elektromagnetischer Wellen wird in der Elektrostatik vernachlässigt. Die Beschreibung des elektromagnetischen Feldes beschränkt sich hier also auf das Nahfeld.
Elektromagnetische Wellen hingegen sind die einzige Form des elektromagnetischen Feldes, die auch unabhängig von einer Quelle existieren kann. Sie werden zwar von Quellen erzeugt, können aber nach ihrer Erzeugung unabhängig von der Quelle weiterexistieren. Da Licht sich als elektromagnetische Welle beschreiben lässt, ist auch die Optik letztlich ein Spezialfall der Elektrodynamik.
Elektrodynamik und Relativitätstheorie.
Im Gegensatz zur klassischen Mechanik ist die Elektrodynamik nicht Galilei-invariant. Das bedeutet, wenn man, wie in der klassischen Mechanik, einen absoluten, euklidischen Raum und eine davon unabhängige absolute Zeit annimmt, dann gelten die Maxwellgleichungen nicht in jedem Inertialsystem.
Einfaches Beispiel: Ein mit konstanter Geschwindigkeit fliegendes, geladenes Teilchen ist von einem elektrischen und einem magnetischen Feld umgeben. Ein zweites, mit gleicher Geschwindigkeit fliegendes und gleich geladenes Teilchen erfährt durch das elektrische Feld des ersten Teilchens eine abstoßende Kraft, da sich gleichnamige Ladungen gegenseitig abstoßen; gleichzeitig erfährt es durch dessen Magnetfeld eine anziehende Lorentzkraft, die die Abstoßung teilweise kompensiert. Bei Lichtgeschwindigkeit wäre diese Kompensation vollständig. In dem Inertialsystem, in dem beide Teilchen ruhen, gibt es kein magnetisches Feld und damit keine Lorentzkraft. Dort wirkt nur die abstoßende Coulombkraft, so dass das Teilchen stärker beschleunigt wird als im ursprünglichen Bezugssystem, in dem sich beide Ladungen bewegen. Dies widerspricht der newtonschen Physik, bei der die Beschleunigung nicht vom Bezugssystem abhängt.
Diese Erkenntnis führte zunächst zu der Annahme, dass es in der Elektrodynamik ein bevorzugtes Bezugssystem gäbe (Äthersystem). Versuche, die Geschwindigkeit der Erde gegen den Äther zu messen, schlugen jedoch fehl, so zum Beispiel das Michelson-Morley-Experiment. Hendrik Antoon Lorentz löste dieses Problem mit einer modifizierten Äthertheorie (Lorentzsche Äthertheorie), die jedoch von Albert Einstein mit seiner speziellen Relativitätstheorie abgelöst wurde. Einstein ersetzte Newtons absoluten Raum und absolute Zeit durch eine vierdimensionale Raumzeit. In der Relativitätstheorie tritt an die Stelle der Galilei-Invarianz die Lorentz-Invarianz, die von der Elektrodynamik erfüllt wird.
In der Tat lässt sich die Verringerung der Beschleunigung und damit die magnetische Kraft im obigen Beispiel als Folge der Längenkontraktion und Zeitdilatation erklären, wenn man die im bewegten System gemachten Beobachtungen in ein ruhendes System zurücktransformiert. In gewisser Weise lässt sich daher die Existenz von magnetischen Phänomenen letztlich auf die Struktur von Raum und Zeit zurückführen, wie sie in der Relativitätstheorie beschrieben wird. Unter diesem Gesichtspunkt erscheint auch die Struktur der Grundgleichungen für statische Magnetfelder mit ihren Kreuzprodukten weniger verwunderlich.
In der manifest Lorentz-forminvarianten Beschreibung der Elektrodynamik bilden das skalare Potential und das Vektorpotential einen Vierervektor, analog zum Vierervektor von Raum und Zeit, so dass die Lorentz-Transformationen analog auch auf die elektromagnetischen Potentiale angewendet werden können. Bei einer speziellen Lorentz-Transformation mit der Geschwindigkeit formula_23 in formula_24-Richtung gelten für die Felder im gebräuchlichen SI-Einheitensystem die Transformationsgleichungen:
Erweiterungen.
Jedoch liefert die klassische Elektrodynamik keine widerspruchsfreie Beschreibung bewegter Punktladungen, auf kleinen Skalen ergeben sich Probleme wie das der Divergenz aufgrund Strahlungsrückwirkung. Im Kleinen ist die Elektrodynamik quantenmechanisch zu beschreiben, was durch die Quantenelektrodynamik (QED) geschieht. Diese ist eine abelsche Eichfeldtheorie (Eichgruppe ist die unitäre Gruppe U(1)). Die Theorie der elektroschwachen Wechselwirkung vereinigt die QED mit der schwachen Wechselwirkung und ist Teil des Standardmodells der Elementarteilchenphysik. Diese ist auch eine Eichfeldtheorie, aber mit nichtabelscher Eichgruppe SU(2)x U(1), und auch die starke Wechselwirkung, die dritte Wechselwirkung des Standardmodells, wird in der Quantenchromodynamik durch eine nichtabelsche Eichtheorie beschrieben.
Es wurden auch Versuche der Vereinheitlichung der Elektrodynamik mit der allgemeinen Relativitätstheorie (Gravitation) als klassische Feldtheorien unternommen, bekannt unter dem Namen Kaluza-Klein-Theorien. Sie erlebten eine Wiederbelebung im Rahmen der Stringtheorie.
Literatur.
Geburt der klassischen Elektrodynamik
Aktuelle Lehrbücher |
1261 | 3854514 | https://de.wikipedia.org/wiki?curid=1261 | Elektromagnetismus | |
1263 | 65998 | https://de.wikipedia.org/wiki?curid=1263 | E-Mail | Die oder das E-Mail (englisch [], kurz "Mail"; engl. ' für „elektronische Post“, kurz E-Post) ist zum einen ein System zur computerbasierten Verwaltung von briefähnlichen Nachrichten und deren Übertragung über Computernetzwerke, insbesondere über das Internet. Zum anderen werden auch die auf diesem elektronischen Weg übertragenen Nachrichten selbst als E-Mails bezeichnet.
E-Mail ist neben dem World Wide Web ein wichtiger Internetdienst, nicht zuletzt, weil es durch E-Mails möglich ist, Textnachrichten ebenso wie digitale Dokumente (also z. B. Grafiken oder Office-Dokumente) typischerweise in wenigen Sekunden rund um die Erde zu senden.
Im Gegensatz zu Telefon oder Internet Relay Chat, die gleichzeitige (synchrone) Kommunikation ermöglichen, ist die E-Mail – wie die Briefpost – ein asynchrones Kommunikationsmedium: Der Sender versendet seine Nachricht unabhängig davon, ob der Empfänger sie sofort entgegennehmen kann oder nicht.
Artikel und Schreibweisen.
Standardsprachlich hat sich in Deutschland die weibliche Form "(die E-Mail)" des grammatischen Geschlechts weitgehend durchgesetzt, in der Schweiz hingegen das Neutrum "(das E-Mail)", während in Österreich und in Teilen Südwestdeutschlands beide Formen Verwendung finden. Das Österreichische Wörterbuch nennt sowohl die weibliche als auch die sächliche Form, nennt letztere aber zuerst. Dass die sächliche Form überwiegt, wird dadurch unterstrichen, dass „e-mailen“ mit „ein E-Mail versenden“ erklärt wird.
Gemäß Duden, Wahrig und dem amtlichen Wörterverzeichnis der reformierten deutschen Rechtschreibung ist "E-Mail" die einzig richtige Schreibweise.
Geschichte.
Vor dem Aufkommen von E-Mail wurden Nachrichten als Brief oder Telegramm, später auch – als die ersten beiden elektronischen Übertragungsverfahren – Fernschreiben (Telex) und Teletex sowie Fax übermittelt. Ende der 1980er Jahre begann dann die weltweite Verbreitung der E-Mail – sie war eine der ersten Anwendungen, die die Möglichkeiten des Arpanets nutzten. Die Einführung von E-Mail wurde nicht gezielt vorangetrieben, sondern eroberte das Netzwerk wegen des Benutzerverhaltens. Das überraschte die Arpanet-Initiatoren, denn noch 1967 hatte Lawrence Roberts, der spätere Leiter von "IPTO", gesagt, die Möglichkeit des Austausches von Botschaften unter den Netzwerkteilnehmern sei kein wichtiger Beweggrund, um ein Netzwerk von wissenschaftlichen Rechnern aufzubauen („"“).
Ein Vorläufer der E-Mail war das MAIL-Systemkommando in der Erweiterung Multics des CTSS -Systems am MIT, vorgeschlagen 1964/65 von den Systementwicklern Glenda Schroeder, Louis Pouzin und Pat Crisman und implementiert 1965 von Tom Van Vleck. Möglichkeiten, Mail im Arpanet zu versenden, regte J. C. R. Licklider schon 1968 an, und die Idee wurde unter den Entwicklern diskutiert (RFC 196, „“ von Richard W. Watson vom 20. Juli 1971). Nachdem Multics, in dem ein Mail-Programm zur Kommunikation der Nutzer implementiert worden war, im Oktober 1971 an das Arpanet angeschlossen worden war, wurde Anfang 1972 ein Mail-Programm über das Arpanet von der " unter Mike Padlipsky implementiert.
Ray Tomlinson hat im Oktober 1971 den ersten elektronischen Brief verschickt und gilt seitdem als Erfinder der E-Mail. Er war bei dem Forschungsunternehmen Bolt, Beranek and Newman (BBN) an der Entwicklung des Betriebssystems TENEX beteiligt, das auf vielen im Arpanet verbundenen Rechnern zur Verfügung stand, und beschäftigte sich dabei unter anderem mit dem Programm SNDMSG für die Übermittlung von Nachrichten unter den Benutzern des Großrechners und dem Protokoll CPYNET für die Übertragung von Dateien zwischen Computern. Programme wie SNDMSG gab es wie erwähnt bereits seit den frühen 1960er Jahren. Sie ermöglichten Benutzern, den Mailboxen anderer Benutzer desselben Computers Text hinzuzufügen. Eine Mailbox war seinerzeit nichts weiter als eine einzelne Datei, die nur ein Benutzer lesen konnte. Tomlinson kam 1971 auf die Idee, CPYNET so zu ändern, dass es vorhandene Dateien ergänzen konnte und es dann in SNDMSG einzuarbeiten. Die erste Anwendung dieser Kombination war eine Nachricht von Tomlinson an seine Kollegen, in der er Ende 1971 mitteilte, dass man nun Nachrichten übers Netzwerk senden konnte, indem man dem Benutzernamen des Adressaten das Zeichen „@“ und den Hostnamen des Computers anfügte.
Parallel zum Internet entwickelten sich zu Beginn der 1980er Jahre in den meisten Netzwerken Systeme, mit denen sich Nachrichten übertragen ließen. Dazu gehörten unter anderem Mailbox-Systeme, X.25, Novell und BTX. Diese Systeme wurden Mitte der 1990er durch die Verbreitung des Internets stark verdrängt. Aus dem Jahr 1982 stammt das Protokoll "RFC 822". "RFC 822" wurde im Jahr 2001 durch "RFC 2822" ersetzt, das wiederum im Jahr 2008 durch "RFC 5322" ersetzt wurde.
In Deutschland wurde am 3. August 1984 um 10:14 Uhr MEZ die erste Internet-E-Mail empfangen: Michael Rotert von der Universität Karlsruhe (TH) empfing unter seiner Adresse "„rotert@germany“" eine Grußbotschaft von Laura Breeden "(„breeden@csnet-sh.arpa“)" an der US-amerikanischen Plattform CSNET aus Cambridge (Massachusetts) zur elektronischen Kommunikation von Wissenschaftlern, die einen Tag zuvor (am 2. August 1984, 12:21 Uhr) abgeschickt worden war. Eine Kopie dieser E-Mail wurde als „CC“ gleichzeitig an den Leiter des Projekts, Werner Zorn mit der Adresse "„zorn@germany“", geschickt.
Heute werden E-Mails meist per SMTP verschickt. Zum Abrufen der E-Mails vom Zielserver existieren verschiedene Protokolle, etwa POP3, IMAP oder Webmail. X.400 ist ein offener Standard, der hauptsächlich im LAN oder WAN benutzt wird.
Die erste große E-Mail-Diskussionsgruppe, die im Arpanet entstand, war eine Mailingliste namens „SF-LOVERS“, in der sich eine Reihe von DARPA-Forschern an öffentlichen Diskussionen über Science-Fiction beteiligten. "SF-LOVERS" tauchte in den späten 1970er Jahren im Arpanet auf. Zunächst wurde versucht, dagegen einzuschreiten, weil derartige Aktivitäten selbst bei liberalster Auslegung mit Forschung wenig zu tun hatten. Für einige Monate wurde die Liste deshalb gesperrt. Schließlich wurden die Verantwortlichen der DARPA aber mit dem Argument überzeugt, dass "SF-LOVERS" ein wichtiges Pilotprojekt zur Erforschung der Verwaltung und des Betriebs großer Mailinglisten war. Die Systemingenieure mussten das System wiederholt umbauen, damit es das explosionsartig ansteigende Nachrichtenaufkommen bewältigen konnte.
Im Jahr 2014 wurden in Deutschland rund 506,2 Milliarden E-Mails versendet. Im Jahr 2015 waren weltweit schätzungsweise 4,353 Milliarden E-Mail-Konten von 2,586 Milliarden Nutzern in Gebrauch. 81 % der Deutschen versendeten und empfingen im Jahr 2015 E-Mails.
Zugriff auf E-Mails.
Zum Schreiben, zum Versand, zum Empfang und zum Lesen von E-Mails gibt es zwei Möglichkeiten (Benutzerschnittstellen).
Zur Nutzung von E-Mail kann ein E-Mail-Programm, auch E-Mail-Client oder Mail-User-Agent (MUA) genannt, verwendet werden.
Ein solches Programm ist lokal auf dem Computer des Benutzers installiert und kommuniziert mit einem oder mehreren E-Mail-Postfächern.
Alternativ kann man via Webmail auf seine E-Mail zugreifen. Hierbei verwaltet der Benutzer seine E-Mails in seinem Web-Browser. Ermöglicht wird dies durch eine Webanwendung auf dem Webserver des E-Mail-Anbieters, die ihrerseits auf das E-Mail-Postfach auf dem Webserver zugreift.
Elemente und Formatierung einer E-Mail.
Aufbau einer E-Mail.
E-Mails sind intern in zwei Teile geteilt: Den "Header" mit Kopfzeilen und den "Body" (Textkörper) mit dem eigentlichen Inhalt der Nachricht. Zusätzlich werden innerhalb des Bodys noch weitere Untergliederungen definiert.
Header – der Kopf der E-Mail.
Die "Header" genannten Kopfzeilen einer E-Mail geben Auskunft über den Weg, den eine E-Mail genommen hat, und bieten Hinweise auf Absender, Empfänger, Datum der Erstellung, Format des Inhaltes und Stationen der Übermittlung. Der Benutzer wird viele Details aus den Header-Zeilen im Normalfall nicht benötigen. Daher bieten E-Mail-Programme an, den Header bis auf die Grunddaten wie Absender, Empfänger und Datum auszublenden. Bei Bedarf kann der Header jederzeit wieder komplett sichtbar gemacht werden.
Body – der Inhalt der E-Mail.
Der Body einer E-Mail ist durch eine Leerzeile vom Header getrennt und enthält die zu übertragenden Informationen in einem oder mehreren Teilen.
Eine E-Mail darf gemäß RFC 5322 Abschnitt 2.3 nur Zeichen des 7-Bit-ASCII-Zeichensatzes enthalten. Sollen andere Zeichen, wie zum Beispiel deutsche Umlaute, oder Daten, wie zum Beispiel Bilder, übertragen werden, müssen das Format im Header-Abschnitt deklariert und die Daten passend kodiert werden. Geregelt wird das durch RFC 2045 ff (siehe auch MIME und Base64). Aktuelle E-Mail-Programme kodieren Text und Dateianhänge (vergleiche unten) bei Bedarf automatisch.
Die Nachricht kann aus einem Klartext, einem formatierten Text (beispielsweise HTML) und/oder Binärdaten (beispielsweise einem Bild oder Fax, s. u. bei Dateianhänge) bestehen. Es können auch mehrere Formate als Alternativen gesendet werden oder weitere beliebige Dateien angehängt werden. Den Abschluss bilden ggf. "Signatur" und "Footer". Alle diese zusätzlichen Teile sind optional, müssen in einer E-Mail also nicht unbedingt vorkommen.
Formatierung in HTML.
In HTML formatierte Mails werden teils ungewollt und unbewusst durch die Voreinstellung des verwendeten E-Mail-Programms, insbesondere von Microsoft-Programmen, versandt, teils bewusst, um Schriftauszeichnungen verwenden zu können, etwa in E-Mail-Newslettern.
Obwohl das HTML-Format standardisiert ist, war es ursprünglich nicht für den Einsatz in E-Mails gedacht. Das führte unter anderem dazu, dass es in der Vergangenheit viele, auch konzeptuelle Sicherheitslücken in den HTML-Rendering-Engines von E-Mail-Programmen gab, die einerseits zur Verbreitung von E-Mail-Würmern beigetragen haben und andererseits ungewollte Informationen über den Empfänger preisgegeben haben (Zählpixel). Diese Situation hat sich im Lauf der Zeit verbessert und bekannte Probleme, wie die standardmäßige Ausführung aktiver Inhalte (beispielsweise JavaScript) oder das automatische Nachladen externer Bilder, wurden durch andere Voreinstellungen entschärft. Die oft inkonsistente Deaktivierung potentiell gefährlicher HTML-Features in verschiedenen E-Mail-Programmen hat allerdings auch den Effekt, dass optische Effekte oder Formatierungen nicht so dargestellt werden, wie es vom Absender gedacht war.
Prinzipbedingt bieten HTML-formatierte E-Mail-Nachrichten stets wesentlich mehr Angriffsmöglichkeiten und sind daher potentiell unsicherer als reine Text-Nachrichten. Deshalb empfehlen viele EDV-Ratgeber und Softwarehersteller, die HTML-Anzeige von E-Mails zumindest im Vorschaufenster des E-Mail-Programms zu deaktivieren oder ganz auszuschließen und auch selbst keine E-Mail-Nachrichten im HTML-Format zu versenden. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) empfiehlt:
Zustellung einer E-Mail (Prinzip).
Die E-Mail-Adresse.
Eine E-Mail-Adresse bezeichnet eindeutig den Empfänger einer E-Mail und ermöglicht damit eine Zustellung an diesen Empfänger. So, wie sie für den Transport per SMTP im Internet verwendet wird, besteht sie aus zwei Teilen: In codice_1 ist codice_2 der "domain-part", codice_3 der "local-part". (Andere Transportmechanismen wie zum Beispiel UUCP oder X.400 verwenden eine andere Adress-Syntax.)
Der "domain-part" benennt den MX Resource Record (meist identisch der Domain) des Mailservers, dem die E-Mail zugestellt werden soll. Der "local-part" identifiziert eindeutig den Besitzer eines E-Mail-Postfachs auf diesem Mailserver.
Der Weg einer typischen E-Mail (Prinzip).
In einem typischen Fall nimmt eine E-Mail den folgenden Weg von einem Absender (im Beispiel: Anja)
durch das Internet zu einem Adressaten (im Beispiel: Bertram), siehe Abbildung rechts.
Besonderheiten: Oftmals wird es sich bei Anjas Internetdienstanbieter und Anjas E-Mail-Provider um ein und dasselbe Unternehmen handeln. Wenn Anja und Bertram ihre E-Mail-Konten beim selben E-Mail-Anbieter haben, entfällt Schritt 3.
Zustell- und Lesebestätigungen.
Je nach Ausführung des verwendeten E-Mail-Programms kann der Absender einer E-Mail eine Zustellbestätigung und/oder eine Lesebestätigung anfordern.
Wurde eine "Zustellbestätigung" angefordert, erhält der Absender (im obigen Beispiel Anja) eine Delivery Status Notification (DSN) in Form einer E-Mail, sobald seine E-Mail erfolgreich im Postfach des Empfängers abgelegt wurde und die beteiligten Architekturen dies unterstützen. Bezogen auf das obige Beispiel geschähe dies zeitlich unmittelbar nach Schritt 4.
Wurde eine "Lesebestätigung" angefordert, erhält der Absender (im obigen Beispiel Anja) eine Message Disposition Notification (MDN) in Form einer E-Mail, wenn der Empfänger (im obigen Beispiel Bertram) die an ihn gerichtete E-Mail öffnet und das Auslösen dieser Bestätigung nicht verhindert. Bezogen auf das obige Beispiel geschähe dies zeitlich unmittelbar im Schritt 6 beim Öffnen der E-Mail. Die Lesebestätigung kann somit "nicht" dahingehend interpretiert werden, dass der Empfänger die E-Mail auch tatsächlich gelesen oder gar verstanden hat.
Insofern haben diese Bestätigungen den – allerdings nicht-juristischen, sondern lediglich informativen – Charakter eines Einschreiben Einwurf (Zustellbestätigung) bzw. eines Einschreibens mit Rückschein (Lesebestätigung) in Deutschland.
Technische Details.
Das Format einer E-Mail wird durch den RFC 5322 festgelegt. Danach bestehen E-Mails nur aus Textzeichen (7-Bit-ASCII-Zeichen). Um auch andere Zeichen übertragen zu können, wurden weitere Internet-Standards definiert, mit deren Hilfe 8-Bit-Zeichen in ASCII kodiert werden. Der Standard Quoted-Printable kodiert zum Beispiel den Buchstaben „ß“ als Zeichenkette „=DF“. Breite Verwendung haben die Standards der MIME-Serie gefunden, mit deren Hilfe nicht nur Sonderzeichen in Texten, sondern auch Binär-Dateien kodiert werden können, zum Beispiel um sie als E-Mail-Anhänge zu verschicken.
Die Gesamtgröße von E-Mails ist prinzipiell nicht begrenzt. In der Realität zeigen sich allerdings Grenzen durch technische oder administrative Beschränkungen der Systeme, die die E-Mail übertragen oder empfangen. E-Mail-Provider, E-Mail-Postfächer und beteiligte Mailserver können die Größe einer E-Mail begrenzen. In solchen Fällen sollte der begrenzende Mailserver dem Absender eine "Bounce Message" (Fehlermeldung) senden.
Speicherung.
Wo die Mails permanent gespeichert werden, hängt von der verwendeten Technik des Endanwenders ab. Benutzt er ein Webinterface, so werden die Mails grundsätzlich auf dem Mailserver gehalten. Wenn er ein Mailprogramm einsetzt, das die Mails mit dem Protokoll IMAP liest, dann werden die E-Mails ebenfalls auf einem Mailserver gehalten. Ursprünglich sah das alternative Protokoll POP vor, dass die Mails vom Server geholt und dort gleichzeitig gelöscht werden.
Der hingegen auf dem Rechner des Benutzers arbeitende "Client" verwaltet das Ablegen der E-Mails und deren Anhänge auf einem Massenspeicher, in der Regel auf einem lokalen Laufwerk (Festplatte) des Computers. Bei neueren POP-Versionen ist es aber – abhängig von den Einstellungen des Servers – auch möglich, die Mails auf dem Server zu belassen.
E-Mails werden (lokal oder auf dem Mailserver) häufig nicht einzeln als separate Dateien, sondern zusammengefasst in Container-Dateien gespeichert. mbox ist eine unter Unix/Linux häufig verwendete Möglichkeit, eine Alternative ist Maildir.
Für einzelne E-Mails ist unter anderem die Dateiendung codice_4 geläufig, die von Programmen wie Novell GroupWise, Microsoft Outlook Express, Lotus Notes, Windows Mail, Mozilla Thunderbird und Postbox verwendet wird. Die Dateien bestehen aus plain text im MIME-Format und enthalten die Kopfzeilen, den Nachrichteninhalt und Anhänge in einem oder mehreren Formaten.
Das E-Mail-Programm Pegasus Mail (kurz PMail) verwendet eigene Mailordner.
Eine im Jahr 2008 erschienene und bekanntere Open-Source-Software für Webmailer über IMAP ist Roundcube.
Zustellung einer E-Mail: beteiligte Server und Protokolle.
Beispiel eines Ablaufs:
Verwendete Protokolle.
Heutzutage sind hauptsächlich SMTP, POP3 und IMAP in Verwendung, oft in Verbindung mit SSL-Verschlüsselung (siehe SMTPS, POP3S und IMAPS).
Laufzeit.
Die Laufzeit (Transportzeit einer Postsendung vom Absender zum Empfänger) der E-Mail kann ein Problem darstellen, da sie – anders als zum Beispiel beim Telefax – nicht vorhersehbar ist und unter ungünstigen Voraussetzungen stark schwanken kann. Die Schwankungen der Laufzeit werden durch eine Vielzahl von Parametern beeinflusst, vor allem durch die Auslastung der beteiligten Mailsysteme sowie der für E-Mail bereitstehenden Übertragungskapazität der die Mailsysteme verbindenden Leitungen. Ist der Mailserver des Empfängers länger nicht erreichbar, oder wird die Mail nur in großen Zeitabständen auf den Server des Empfängers übertragen, kann es durchaus zu Laufzeiten von einigen Tagen kommen.
Die Nachteile der nicht fest definierten Laufzeit sind jedoch bei den heutigen modernen E-Mail-Systemen nahezu vernachlässigbar (weltweit selten mehr als eine Minute), da bei gut gepflegten Systemen nur noch relativ selten größere Fehler auftreten, durch die längere Laufzeiten verursacht werden könnten. Verzögerungen können allerdings auch bei modernen E-Mail-Systemen durch diverse Spamschutz-Maßnahmen auftreten (beispielsweise dem Greylistingverfahren).
Vor- und Nachteile.
Das E-Mail-System besitzt einige Vor- und Nachteile, die im Folgenden aufgeführt sind:
Praktische Vorteile gegenüber der Papierpost.
Als wesentlicher Vorteil von E-Mails ist zu nennen, dass sie sehr schnell (im Bereich von wenigen Sekunden) übermittelt und vom Empfänger gelesen werden können. Der praktische Aufwand, eine E-Mail zu verschicken und zu empfangen, ist geringer, da kein Ausdrucken, Kuvertieren, Adressieren, Frankieren und Postkasteneinwerfen beim Absender und kein Briefkastenentleeren und Brieföffnen beim Empfänger nötig ist. Auf dem Computer geschriebene Briefe können direkt und einfach per E-Mail verschickt und beim Empfänger direkt auf dem Computer gelesen und ggf. weiterverarbeitet werden.
Auch der finanzielle Einzelaufwand (Kosten für Versand einer E-Mail) ist im Normalfall geringer (keine Material- und Portokosten), sofern viele E-Mails verarbeitet werden oder die nötige Infrastruktur (Computer mit Internetzugang) sowieso schon beim Absender und Empfänger zur weitergehenden Nutzung vorhanden ist. Zudem wird der Aufwands- und Kostenvorteil umso größer, je mehr Empfänger die gleiche E-Mail erhalten sollen (Rundschreiben). E-Mail-Dienste werden im Internet für den Privatgebrauch meist kostenlos angeboten. Sie finanzieren sich im Allgemeinen durch Werbung.
Hinsichtlich der Umweltfreundlichkeit von E-Mails im Speziellen gibt es verschiedene Diskussionen und Ansichten wie auch beim Internet und der Computertechnik im Allgemeinen. Zumindest sind E-Mails insofern umweltfreundlicher als herkömmliche Briefe, als sie unmittelbar kein Papier verbrauchen und keinen materiellen Transport (Lkw, Bahn, Flugzeug, Schiff usw.) benötigen.
E-Mails haben gegenüber normaler Papier-Post den Vorteil, dass ihre Anschriften- und Absendertexte (E-Mail-Adressen) deutlich kürzer sind als bei normalen Papier-Post-Adressen mit Name, Straße/Postfach, Postleitzahl, Ort und ggf. Land. E-Mail-Adressen können weitgehend frei gewählt werden und es besteht auch kein Zwang, den eigenen Namen in Klartext (z. B. "michael.mueller@xyz.org") als E-Mail-Adresse zu verwenden, sofern der Domain-Inhaber (xyz.org) keine Regeln zum Format seiner E-Mail-Adressen aufgestellt hat oder keine Gesetze gebrochen werden. Stattdessen sind ebenso Pseudonyme wählbar, womit eine höhere Anonymität erreicht wird, da die E-Mail-Adresse nicht oder nur begrenzt (über die Domain hergeleitet) Aussage macht bzw. Rückschlüsse erlaubt über Namen, Herkunft, Geschlecht, Anschrift, geosozialen Status usw. Ebenso ist der Besitz mehrerer verschiedener E-Mail-Adressen möglich.
In der praktischen Handhabung bieten E-Mails ebenso Vorteile gegenüber der Papier-Post. Eine E-Mail kann gleichzeitig an mehrere Empfänger verschickt werden, wobei auch mit verdeckten Empfängerlisten (BCC) gearbeitet werden kann, damit die komplette Empfängerliste nicht von jedem Empfänger einsehbar ist. E-Mails können auf dem Computer einfach archiviert und die Archive können leicht durchsucht werden, um eine E-Mail schnell wiederzufinden. Auch versendete und gelöschte E-Mails können automatisch archiviert werden.
E-Mail-Systeme bieten des Weiteren einige praktische Automatismen. E-Mails lassen sich auf Wunsch automatisch weiterleiten, entweder zu einer anderen E-Mail-Adresse oder auf anderen Kommunikationskanälen, beispielsweise als SMS oder Fax. Auch der umgekehrte Weg ist möglich, das heißt die Weiterleitung eines Fax oder einer SMS an eine E-Mail-Adresse. Auf Wunsch kann auch bei Eingang einer E-Mail eine automatische Antwort an den Absender verschickt werden (zum Beispiel eine Abwesenheits-Nachricht) oder es erfolgt eine Benachrichtigung, dass eine neue Nachricht eingegangen ist. Ebenso ist eine automatische Aussortierung von unerwünschten E-Mails (Spam-Filter & persönliche Blacklists) oder eine automatische Vorsortierung in verschiedene Ordner nach frei vorgebbaren Kriterien möglich.
Von Vorteil ist auch, dass an E-Mails weitere Dateien beliebiger Art angefügt werden können, die der Empfänger weiterverwenden kann. E-Mails (jedoch jeweils nur der Textkörper, nicht der Kopf) können aus Datenschutzgründen auch verschlüsselt und zur Authentifizierung elektronisch signiert werden. Ebenso können auf Wunsch digitale Visitenkarten mit weiteren Informationen (wie Anschrift oder Telefonnummer) als Anhang einer E-Mail mitverschickt werden, wodurch der Empfänger sein Adressbuch leichter mit E-Mail-Kontakten füllen und pflegen kann.
Auch beim Antworten auf E-Mails zeigen sich praktische Vorteile. Antworten auf E-Mails können einfacher und schneller begonnen werden, indem der Absender und die CC-Empfänger der Ursprungs-E-Mail automatisch als Empfänger der Antwort übernommen werden. Ebenso kann in Antworten der Inhalt der Ursprungs-E-Mail zitiert oder angefügt werden, um in der Antwort besser Bezug nehmen oder antworten zu können oder um den Diskussionsfaden zu dokumentieren.
Spam.
Als Spam- oder Junk-Mails (; englisch für ‚Abfall‘ oder ‚Plunder‘) werden unerwünschte E-Mails bezeichnet, die meist Werbung etc. enthalten. Die Effizienz von E-Mail wird durch den massenhaften Verkehr von Spam, also E-Mails, die dem Empfänger unverlangt zugestellt werden und häufig werbenden Inhalt haben, teilweise eingeschränkt, insofern die Bearbeitung von Spam-E-Mails den Empfänger Zeit kostet. Seit ungefähr 2002 sind mehr als 50 % und seit 2007 etwa 90 % des weltweiten E-Mail-Aufkommens Spam. Im Jahr 2010 wurden ca. 107 Billionen E-Mails verschickt, mit einem Spam-Anteil von 89,1 %. Im Oktober 2015 lag der Spam-Anteil bei E-Mails bei 54 %.
Das Landgericht Bonn entschied 2014 mit Bezug auf einen Fall von Anwaltshaftung, dass der Spam-Ordner eines Accounts, der im geschäftlichen Verkehr als Kontaktmöglichkeit zur Verfügung gestellt wird, täglich durchgesehen werden muss, um versehentlich als Werbung aussortierte E-Mails zurückzuholen.
Authentizität, Datenschutz und Integrität.
Wie jedes Kommunikationsmittel muss auch die E-Mail verschiedenen Anforderungen genügen, um als sicheres Kommunikationsmittel gelten zu dürfen. Hier sind als wichtigste Kriterien die Authentizität, der Datenschutz und die Integrität einer E-Mail zu nennen.
Mit der Authentizität einer E-Mail ist gemeint, dass sichergestellt ist, dass die E-Mail auch wirklich vom Absender stammt, also ein Original ist und keine betrügerische Fälschung. Datenschutz bezeichnet bei E-Mails im Wesentlichen den Schutz vor Mitlesen durch Dritte auf dem Übertragungsweg. Als Integrität bezeichnet man das Schutzziel, dass der E-Mail-Inhalt bei der Übertragung vollständig und unverändert bleibt.
Zur Erreichung der Authentizität, des Datenschutzes und der Integrität existieren bereits diverse Schutzmechanismen, wie an anderen Stellen bereits beschrieben (Verschlüsselung, Absender-Authentifizierung, Pretty Good Privacy, GNU Privacy Guard, S/MIME). Jedoch werden diese Schutzmechanismen beim Großteil des heutigen E-Mail-Verkehrs noch nicht angewendet. Ohne diese Schutzmechanismen besitzen herkömmliche E-Mails jedoch einen geringeren Schutz als eine normale Postkarte.
Der folgende Unterabschnitt soll dazu möglichst plastisch den recht geringen Sicherheits-Standard einer herkömmlichen E-Mail im Vergleich zu einer Postkarte darstellen.
Vergleich mit der Postkarte.
Herkömmliche (unverschlüsselte) E-Mails sind mit einer Postkarte vergleichbar, weil deren Inhalt offen und einfach lesbar verschickt wird. Verschlüsselte E-Mails entsprechen einem verschlossenen Brief, aber E-Mail-Verschlüsselung ist heute immer noch eher die Ausnahme. Aber auch bei einer verschlüsselten E-Mail ist neben dem Absender und den Empfängern (wie bei einem Brief) zusätzlich die Betreffzeile sowie generell alle Kopfzeilen lesbar.
E-Mails werden wie Postsachen beim E-Mail-Dienstleister wie bei einem Postamt gelagert. Somit sind unverschlüsselte E-Mails wie Postkarten beim E-Mail-Dienstleister lesbar. Zudem lassen sich E-Mails anders als normale Papier-Post einfach und automatisch nach nutzbaren Informationen durchsuchen und auswerten.
Zur Erhöhung der Zuverlässigkeit des E-Mail-Dienstes werden beim E-Mail-Dienstleister von E-Mails Kopien erstellt und eine Weile aufbewahrt, so als würde die Post Fotokopien von Postkarten und Briefen machen und archivieren.
Bei Papier-Post lässt sich auf Wunsch die erfolgte Zustellung dokumentieren (Einschreiben mit Rückschein) oder die Post läuft bei Annahmeverweigerung automatisch zurück zum Absender. Herkömmliche E-Mails besitzen zwar auch den Mechanismus der Annahmebestätigung, aber der Empfänger kann die E-Mail trotzdem lesen, ohne gezwungen zu sein, die Annahme dem Absender gegenüber zu bestätigen. Die Annahmeverweigerung als eigenständiger Mechanismus mit Rückmeldung an den Absender existiert bei herkömmlichen E-Mails nicht.
Eine Postkarte wird üblicherweise bei Inlandspost nur von einem bzw. bei internationaler Post von zwei Post-Unternehmen entgegengenommen, transportiert und an den Empfänger ausgehändigt. Eine E-Mail dagegen passiert auf dem Weg durch das Internet üblicherweise die Rechner verschiedener Unternehmen in verschiedenen Ländern. Theoretisch kann eine E-Mail quasi ihren Weg über den halben Erdball durch viele Länder über viele Zwischenstationen (Rechner) nehmen, und alle Beteiligten können diese mitlesen. Es ist insbesondere durch Edward Snowden bekannt geworden, dass Geheimdienste den E-Mail-Verkehr systematisch nach bestimmten Stichwörtern durchsuchen.
Ein Einbrecher muss bei einem Postamt persönlich erscheinen, aber ein Hacker kann (bei Sicherheitslücken) einfach aus der Ferne in ein E-Mail-Postfach einbrechen, ohne dass er verfolgbare Spuren hinterlässt oder der Einbruch überhaupt bemerkt wird. Einbrecher haben bei E-Mail-Spionage weniger Risiko zu fürchten bei höheren Erfolgschancen und besseren Werkzeugen. Voraussetzung ist jedoch eine hohe fachliche Qualifikation des Einbrechers.
Sicherheitsmaßnahmen sind bei Papier-Post für jedermann einfach und nachvollziehbar umsetzbar (Einschreiben mit Rückschein, Siegel, Tresor, Alarmanlage …). Bei E-Mails sind Sicherheitsmaßnahmen viel diffiziler und nur von fortgeschrittenen Computer-Anwendern halbwegs beherrschbar. Aber auch Nachlässigkeiten der Nutzer, z. B. durch Wahl unsicherer Passwörter, erleichtern die Chancen der Einbrecher.
Ähnlich einfach wie bei einem Brief oder einer Postkarte lassen sich E-Mails mit einer falschen Absenderadresse verschicken, was zum Beispiel bei Spam oder Phishing oft zu beobachten ist. Empfänger-, Kopie- und Blindkopie-Adressen (im E-Mail-Kopf gekennzeichnet mit "TO", "CC" beziehungsweise "BCC") lassen sich gleichermaßen fälschen (E-Mail-Spoofing).
Papier-Post wird üblicherweise handschriftlich unterzeichnet (signiert) und ein Betrüger muss zum Betrug die Handschrift fälschen, jedoch wird bei den allermeisten E-Mails auf die elektronische Unterschrift (Signatur) verzichtet und unsignierte E-Mails werden vom Empfänger trotz fehlender bzw. eingeschränkter Rechtskraft im Allgemeinen akzeptiert.
Zusammenfassend kann gesagt werden, dass bei herkömmlichen E-Mails ein noch viel geringerer Sicherheitsstandard als bei einer Postkarte allgemein akzeptiert ist, obwohl kaum ein Mensch daran dächte, mit einer Postkarte persönliche sensible Daten zu versenden. Vermutlich ist diese Akzeptanz der mangelnden Transparenz der E-Mail-Technologie geschuldet, weil die Risiken für den Nicht-Computerexperten nicht so offensichtlich, nicht erkennbar oder schlichtweg unbekannt sind, oder die Nachteile werden im Vergleich zu den vielen Vorteilen einfach in Kauf genommen.
Absender-Authentifizierung.
Im Jahre 2004 gab es verschiedene Versuche, das Spam-Problem in den Griff zu bekommen. Dabei konkurrierten die Verfahren Sender ID von Microsoft, Sender Policy Framework (SPF), DomainKeys von Yahoo und RMX um die Gunst der Umsetzung. Eine IETF-Arbeitsgruppe versuchte, einen Standard zu definieren. Die Funktionsweise ist dabei bei allen Verfahren ähnlich. Durch einen Zusatzeintrag im DNS sollte es möglich sein, den sendenden Mailserver zu verifizieren. Die IETF-Arbeitsgruppe scheiterte aber letztendlich an ungeklärten Patentansprüchen von Seiten Microsofts. Die verschiedenen Verfahren sollen nun in eigenen Verfahren als RFCs umgesetzt werden.
Dokumentation.
Anders als beim Telefonat erhalten Absender und Empfänger von E-Mails automatisch eine schriftliche Dokumentation über den kommunizierten Inhalt. Diese kann im benutzten E-Mail-Programm oder in einem Archivsystem aufbewahrt und später zur Rekapitulation herangezogen werden.
Qualität der Kommunikationsinhalte.
Gegenüber den spontanen Aussagen während eines Telefongespräches bietet die schriftliche Formulierung die Chance, die zu übermittelnden Inhalte besser zu durchdenken und zu strukturieren. Ebenso verringert sich die Gefahr einer unbedachten und im Nachhinein bereuten Aussage.
Andererseits muss – im Gegensatz zum Telefonat – der Verfasser einer E-Mail damit rechnen, dass seine Äußerungen langfristig beliebig oft nachgelesen werden können und vom Empfänger mit geringstem Aufwand oder gar unbedacht an eine praktisch beliebige Auswahl von Mitlesern weitergeleitet werden können. Sie haben somit einen stärkeren Öffentlichkeitscharakter.
E-Mails werden sprachpsychologisch von ihren Empfängern oftmals als kräftiger und härter empfunden als vom Verfasser beabsichtigt. Im Gegensatz zum Telefonat oder persönlichen Gespräch entfällt die sofortige Rückkopplung noch während des Verfassens der Kommunikation und damit eine wesentliche Regelungsfunktion.
E-Mail versus Social Media und Wikis.
Die Einfachheit ihrer Benutzung führte dazu, dass E-Mail zu einem weltweiten Standard in der elektronischen Kommunikation wurde. In der Unternehmenskommunikation wird allerdings inzwischen nicht nur die Informationsüberflutung durch die Flut der E-Mails als Problem wahrgenommen.
Die Tatsache, dass der Absender keine Kontrolle darüber hat, inwieweit seine E-Mail bearbeitet ist oder dass zu viele Mitarbeiter unnötig oder andere am Geschäftsvorgang Beteiligten unter Umständen gar nicht in Kenntnis gesetzt sind, begrenzt den Nutzen von E-Mail im betrieblichen Umfeld. Analysten gehen davon aus, dass in Zukunft der Kommunikationsanteil, welcher über Social Community Plattformen (mit Aufgabenlisten, Bearbeitungsstatus und Abonnementfunktionen) und Wikis anstelle von E-Mail oder Instant Messaging abgewickelt wird, dort ansteigen wird, wo Transparenz, Strukturierung und Vernetzung von Projektwissen von Bedeutung sind.
Moderne Netzwerke in wissensintensiven Unternehmen organisieren sich eher horizontal. E-Mails fördern aber in der Tendenz hierarchische Strukturen.
Rechtliche Aspekte.
Beweiskraft.
Auch mit einfachen E-Mails können rechtserhebliche Erklärungen abgegeben und Verbindlichkeiten begründet werden. E-Mails haben allerdings wenig Beweiskraft, da der Sender bei den herkömmlichen Protokollen und Log-Mechanismen nicht längerfristig die Möglichkeit hat, zu beweisen, wann er was an wen versendet, ob der Empfänger die E-Mail erhalten hat oder ob sie tatsächlich abgesendet wurde. Mit der Zeit werden die im sogenannten Benutzerkonto gespeicherten Daten nämlich gelöscht.
Durch eine digitale Signatur und vor allem durch eine qualifizierte elektronische Signatur können im Rechtsverkehr (Zivilrecht, Verwaltungsrecht) Verbindlichkeiten geschaffen werden, die gerichtlich leichter durchsetzbar sind. Umgangssprachlich wird dann von einer „digitalen Unterschrift“ gesprochen. Das verbindliche Setzen eines Zeitstempels wird unter bestimmten Voraussetzungen ebenfalls anerkannt. Näheres wird beispielsweise im deutschen, österreichischen oder liechtensteinischen Signaturgesetz geregelt. Den Empfang der Nachricht kann eine Signatur allerdings nicht beweisen, hierzu ist beispielsweise eine – idealerweise ebenfalls signierte – Antwort notwendig. Einige Dienstleister bieten Lösungen an, die Signatur, Verschlüsselung und Antwort automatisieren („E-Mail-Einschreiben“).
In Deutschland wird in der juristischen Fachliteratur die Auffassung vertreten, dass eine E-Mail bereits mit dem Eingang auf dem Server des Empfänger-Providers als zugestellt gilt. Das Eintreffen einer E-Mail im persönlichen Benutzerkonto (Account) des Empfängers ist nicht unbedingt notwendig, um den Status des Zugestelltseins zu erreichen. Übermittlungsfehler bei der Übersendung einer E-Mail von Empfänger-Provider an den individuellen E-Mail-Account des Empfängers könnten vom Empfänger nicht geltend gemacht werden, um die Rechtsfolgen einer E-Mail in Frage zu stellen. Jüngere Urteile bestätigen diese Auffassung. So können zum Beispiel Maklerverträge und Abmahnungen rechtswirksam per E-Mail zugesandt werden.
Veröffentlichung von E-Mails.
Allgemein.
Ein allgemeines Verbot, E-Mails zu veröffentlichen, gibt es in Deutschland nicht. Lediglich aus dem Inhalt der Mail kann sich ein Recht des Autors ergeben, gegen die Veröffentlichung vorzugehen. Dabei sind verschiedene Rechtsfolgen möglich, die von Unterlassungsanspruch, zivilrechtlichem Schadensersatzanspruch in Geld bis zu strafrechtlicher Haftung reichen können, andere Rechtsfolgen sind möglich.
In zivilrechtlicher Hinsicht kann die Veröffentlichung eines Briefes das Urheberrecht des Autors verletzen, dies ist allerdings nicht der Fall bei „allgemeinem Inhalt“. Weiterhin kann die Veröffentlichung das allgemeine Persönlichkeitsrecht des Autors verletzen, insofern nehmen die Instanzgerichte im Anschluss an ein Urteil des Bundesgerichtshofs aus dem Jahr 1954 in jedem Einzelfall eine umfangreiche Interessenabwägung vor. Diese allgemeine Rechtsprechung dürfte auch auf E-Mails anwendbar sein.
Es ist davon auszugehen, dass die Rechtsprechung (Oberlandesgericht Rostock, Beschluss vom 17. April 2002 – 2 U 69/01), nach der hinsichtlich Geschäftsbriefen, die im Rahmen einer vertraglichen Zusammenarbeit gewechselt werden, eine ungeschriebene vertragliche Nebenpflicht beider Vertragsparteien gilt, die Briefe vertraulich zu behandeln, auch auf geschäftliche E-Mails anwendbar ist, zumindest, wenn diese verschlüsselt versandt worden sind.
Urteil des Landgerichts Köln 2006.
Das Landgericht Köln hat im Leitsatz des Urteils zum Aktenzeichen 28 O 178/06 entschieden:
Die Veröffentlichung einer fremden E-Mail an einen Dritten auf einer Internetseite kann ausweislich dieses Urteils einen Eingriff in das allgemeine Persönlichkeitsrecht des Absenders in Gestalt der Geheimsphäre darstellen. Insofern ist die Widerrechtlichkeit jedoch nicht indiziert, sondern im Einzelfall positiv festzustellen, wofür eine umfassende Güter- und Interessenabwägung erforderlich ist. Gegenüber stehen sich der Zweck der Veröffentlichung und der von der veröffentlichenden Partei angestrebte Zweck sowie die Form, die Art und das Ausmaß des Eingriffs. Ein Verstoß löst eine Pflicht zur Leistung von Schadensersatz aus.
Dabei stellt das Landesgericht die E-Mail einem verschlossenen Brief gleich.
Das Urteil bezieht sich auf einen Fall, in dem E-Mails veröffentlicht worden sind, die zum einen an einen Dritten gerichtet waren und die zum anderen von der veröffentlichenden Partei auf unlautere Weise erlangt worden sind. Auf den Fall einer Veröffentlichung von E-Mails, die an den Betroffenen selbst gerichtet sind, ist die Argumentation des Urteils nicht anwendbar.
Überwachung.
Inzwischen wird in vielen Ländern der E-Mail-Verkehr vom Staat überwacht. In Deutschland sind seit dem Jahr 2005 Internetdienstanbieter verpflichtet, entsprechende Hard- und Software vorzuhalten, um einer Überwachungsanordnung sofort Folge leisten zu können, ohne für die daraus erwachsenden Kosten einen finanziellen Ausgleich zu erhalten.
Sprachgebrauch.
Für den klassischen Brief wird im Englischen verschiedentlich zur Unterscheidung der Ausdruck "" (engl. "Schneckenpost") verwendet.
2003 verbot das französische Ministerium für Kultur den Gebrauch des Wortes "E-Mail" in offiziellen Schreiben staatlicher Einrichtungen und schrieb stattdessen den Gebrauch des Schachtelworts „“ (von „“) vor. Der Begriff war bereits in den 1990er Jahren im französischsprachigen Québec in Kanada üblich, wo ein strengeres Gesetz zum Schutz der französischen Sprache als in Frankreich selbst besteht. Entsprechend wird unerwünschte, massenhaft versandte (Werbe-)E-Post als "pourriel" (E-Müll) bezeichnet, ein Kofferwort aus „poubelle“ (Mülleimer) und „courriel“.
Eine E-Mail mit unfreundlichem, abmahnendem und unangenehmem Inhalt wird im populären Englisch als "" bezeichnet. E-Mails in aggressivem Ton heißen "Flame-Mails".
Angemessenes Benehmen in der elektronischen Kommunikation einschließlich der E-Mail-Kommunikation und der sozialen Netze wird als Netiquette bezeichnet. |
1264 | 1010950 | https://de.wikipedia.org/wiki?curid=1264 | Europa (Begriffsklärung) | Europa steht für:
Geographische und astronomische Objekte:
Kultur:
Sport:
Technik:
Schiffe:
Siehe auch: |
1265 | 13625 | https://de.wikipedia.org/wiki?curid=1265 | Euro | Der Euro (, ; ISO-Code: EUR, Symbol: €) ist laut Abs. 4 EUV die Währung der Europäischen Wirtschafts- und Währungsunion, eines in AEUV geregelten Politikbereichs der Europäischen Union (EU). Er wird von der Europäischen Zentralbank emittiert und fungiert als gemeinsame offizielle Währung in 20 EU-Mitgliedstaaten, die zusammen die Eurozone bilden, sowie in sechs weiteren europäischen Staaten. Nach dem US-Dollar ist der Euro die wichtigste Reservewährung der Welt.
Der Euro wurde am 1. Januar 1999 als Buchgeld und drei Jahre später am 1. Januar 2002 als Bargeld eingeführt. Damit löste er die nationalen Währungen als Zahlungsmittel ab. Die Euromünzen werden von den nationalen Zentralbanken der 20 Staaten des Eurosystems sowie von derzeit vier weiteren Staaten mit jeweils landesspezifischer Rückseite geprägt. Die Euro-Banknoten aus verschiedenen Ländern unterscheiden sich bei der ersten Druckserie nur durch den Buchstaben an der ersten Stelle der Seriennummer, der angibt, im Auftrag welcher nationalen Zentralbank der Schein gedruckt wurde. Bei der zweiten Druckserie ab 2013, die höheren Schutz vor Fälschungen bieten soll, beginnt die Seriennummer mit zwei Buchstaben, deren erster die Druckerei bezeichnet.
Seit 2020 untersucht die Europäische Zentralbank wie auch viele andere Zentralbanken und die Bank für Internationalen Zahlungsausgleich, ob es sinnvoll ist, einen digitalen Euro oder E-Euro als digitales Zentralbankgeld herauszugeben.
Geschichte des Euros.
Der Euro als politisches Projekt.
Die Idee einer einheitlichen europäischen Währung, die den Handel zwischen den Mitgliedstaaten der Europäischen Wirtschaftsgemeinschaft erleichtern sollte (Schaffung eines „gemeinsamen europäischen Markt[es]“), entstand schon recht bald in der Geschichte der europäischen Integration. 1970 wurde das Vorhaben im „Werner-Plan“ erstmals konkretisiert; demnach sollte bis 1980 eine europäische Währungsunion verwirklicht sein. Das Vorhaben führte 1972 zur Gründung des Europäischen Wechselkursverbunds („Währungsschlange“). Dieser konnte nach dem Zusammenbruch des Bretton-Woods-Systems (März 1973) nicht wie geplant umgesetzt werden. Die Jahre darauf waren von den Folgen der ersten Ölkrise geprägt: im Herbst/Winter 1973/74 vervierfachte sich der Ölpreis; in einigen europäischen Ländern setzten Gewerkschaften aus diesem Anlass zweistellige Lohnsteigerungen durch (→Kluncker-Runde). Es ist umstritten, ob es eine Lohn-Preis-Spirale oder eine Preis-Lohn-Spirale gab (was war Ursache, was war Wirkung?). Viele europäische Länder hatten Stagflation (also Stagnation und Inflation); die damalige Krisenphase wurde und wird auch als Eurosklerose bezeichnet.
Bis Ende 1978 traten mehrere Staaten aus dem Wechselkursverbund aus. Die Europäische Gemeinschaft fokussierte ihre Aktivitäten stark auf den Agrarsektor (Gemeinsame Agrarpolitik (GAP)); in vielen Ländern begann eine Nettozahlerdebatte, die jahrzehntelang anhielt. Industrieländer wie Deutschland und Großbritannien wurden Nettozahler; landwirtschaftlich geprägte Länder wie Frankreich, Spanien und Portugal waren Nettoempfänger.
1979 wurde das Europäische Währungssystem (EWS) eingerichtet. Es sollte Schwankungen der nationalen Währungen jenseits einer gewissen Bandbreite verhindern. Daher wurde die Europäische Währungseinheit ECU geschaffen. Der ECU war eine Korbwährung, die man als Vorläufer des Euros bezeichnen kann. Der ECU diente nur als Verrechnungseinheit und existierte nicht als Bargeld, auch wenn einige symbolische Sondermünzen geprägt wurden. Einige EG-Mitgliedstaaten emittierten Staatsanleihen in ECU (sie wurden, wie andere Staatsanleihen auch, an den Börsen gehandelt) und nahmen Kredite in ECU auf.
Im Jahr 1988 erarbeitete ein Ausschuss unter Leitung des EG-Kommissionspräsidenten Jacques Delors den sogenannten „Delors-Bericht“. Im Zuge der von Deutschland angestrebten Wiedervereinigung verknüpfte laut Zeitungsberichten der damalige französische Staatspräsident François Mitterrand die Zustimmung Frankreichs zur Wiedervereinigung mit der Zustimmung des damaligen deutschen Bundeskanzlers Helmut Kohl zur „Vertiefung der Wirtschafts- und Währungsunion“, also mit der Einführung des Euros. Kohl widersprach dieser Darstellung, hätte aber, wie er später in seinem Buch "Aus Sorge um Europa" schrieb, die gemeinsame europäische Währung für einen angemessenen Preis für die deutsche Einheit betrachtet. Er stimmte dem Projekt der Einführung des Euros ohne vorherige Rücksprache mit Bundesbankpräsident Hans Tietmeyer zu. Wie im Delors-Bericht vorgeschlagen, schuf man in drei Schritten die Europäische Wirtschafts- und Währungsunion:
Am 2. Mai 1998 beschlossen die Staats- und Regierungschefs der Europäischen Gemeinschaft in Brüssel, den Euro einzuführen. Bundeskanzler Kohl war sich bewusst, dass er damit gegen den Willen einer breiten Bevölkerungsmehrheit handelte. In einem 2013 bekanntgewordenen Interview vom März 2002 sagte er dazu: „In einem Fall [Einführung des Euros] war ich wie ein Diktator“. Er habe die Entscheidung aber getroffen, weil er den Euro als „ein Synonym für Europa“ und eine einzigartige Chance für das friedliche Zusammenwachsen Europas betrachtete.
Verwirklichung des Euro-Projektes.
EU-Konvergenzkriterien und der Stabilitäts- und Wachstumspakt.
Im Vertrag von Maastricht von 1992 einigten sich die EU-Mitgliedstaaten auf bestimmte „Konvergenzkriterien“, die Staaten erfüllen mussten, um den Euro als Währung einzuführen. Sie umfassen im Einzelnen die Stabilität der öffentlichen Haushalte, des Preisniveaus, der Wechselkurse zu den übrigen EU-Ländern und des langfristigen Nominalzinssatzes. Auf Initiative des damaligen deutschen Finanzministers Theo Waigel wurde das erste dieser Kriterien auf dem Gipfel in Dublin 1996 auch über den Euro-Eintritt hinaus festgeschrieben. Dieser Stabilitäts- und Wachstumspakt erlaubt den Euroländern eine jährliche Neuverschuldung von maximal 3 % und einen Gesamtschuldenstand von maximal 60 % ihres Bruttoinlandsprodukts.
Allerdings kam es sowohl vor als auch nach der Euro-Einführung immer wieder zu Verstößen der Mitgliedstaaten gegen diese Regelungen. So konnte insbesondere Griechenland den Euro nur aufgrund von geschönten Statistiken einführen, und zahlreiche Mitgliedstaaten, darunter auch Deutschland und Frankreich, verstießen mehrfach gegen den Stabilitäts- und Wachstumspakt. Die darin vorgesehenen Sanktionen gegen Euroländer mit überhöhtem Defizit, die von den Finanzministern der übrigen Mitgliedstaaten verhängt werden können, wurden bisher jedoch noch kein einziges Mal angewandt. Insbesondere infolge der Staatsschuldenkrise in einigen europäischen Ländern (Eurokrise) führte dies ab 2010 zu einer politischen Debatte über die Europäische Wirtschafts- und Währungsunion als mögliche Fiskalunion.
Namensfindung.
Nachdem zunächst die Bezeichnung der alten Verrechnungswährung ECU auch für die geplante Gemeinschaftswährung erwartet worden war, wurde Anfang der 1990er-Jahre Kritik daran laut, da sie – als Abkürzung für "European Currency Unit" – zu technisch und unpersönlich sei. Dass die Bezeichnung in Anlehnung an den seit dem Mittelalter bekannten französischen Écu verstanden werden konnte, wurde hierbei weitgehend übersehen. Helmut Kohl monierte, „Écu“ ähnele im Deutschen dem Wort „Kuh“. Am 16. Dezember 1995 legte der Europäische Rat in Madrid daher einen anderen Namen der neuen Währung fest: „Euro“. Der Begriff soll regelkonform nur in der Einzahl verwendet werden (siehe unten, Pluralformen).
Zuvor waren auch alternative Vorschläge im Gespräch. Wichtige Kandidaten waren "europäischer Franken" (der in seiner spanischen Übersetzung "Franco" jedoch in unpassender Weise an Francisco Franco erinnert hätte), "europäische Krone" und "europäischer Gulden." Durch die Verwendung eines bereits bekannten Währungsnamens sollte Kontinuität signalisiert und das Vertrauen der Bevölkerung in die neue Währung gefestigt werden. Darüber hinaus hätten einige Teilnehmerstaaten den bisherigen Namen ihrer Währung beibehalten können. Gerade dies stieß allerdings auch auf Kritik, da es einen Vorrang bestimmter Mitgliedstaaten gegenüber anderen angedeutet hätte. Letztlich scheiterten alle Vorschläge an den Vorbehalten einzelner Staaten, insbesondere Großbritanniens. Als Reaktion schlug die deutsche Delegation um den damaligen Finanzminister Theodor Waigel den Namen „Euro“ vor. Im Beschluss des Deutschen Bundestages war noch die Rede davon, den Währungsnamen regional mit den Namen der bisherigen Währungen zu erweitern, also in Deutschland „Euro-Mark“, in Frankreich „Euro-Franc“.
In einem 2017 unter tagesspiegel.de veröffentlichten Video erzählte Theodor Waigel, wie er im Jahr 1995 den Namen Euro erfunden und durchgesetzt hatte.
Die symbolische Wertangabe Euro auf einer Medaille ist erstmals für eine Ausgabe aus dem Jahr 1965 nachweisbar. Eine weitere private Prägung mit dieser Nominalbezeichnung ist 1971 in den Niederlanden hergestellt worden. Dabei wird der erste Buchstabe der Bezeichnung Euro als ein "C" mit eingefügtem kurzen, leicht geschlängelten Strich geschrieben. Der erste Buchstabe der Umschrift "EUROPA FILIORUM NOSTRORUM DOMUS" (lat.: "Europa [ist] das Haus unserer Kinder") wird ebenso geschrieben.
Einführung des Euro als Buchgeld.
Am 31. Dezember 1998 wurden die Wechselkurse zwischen dem Euro und den einzelnen Währungen der Mitgliedstaaten unwiderruflich festgelegt, am 1. Januar 1999 wurde der Euro gesetzliche Buchungswährung. Er ersetzte die frühere Korbwährung ECU (European Currency Unit) in einem Umrechnungsverhältnis von 1:1. Einen Tag später, am 2. Januar, notierten die europäischen Börsen bereits sämtliche Wertpapiere in Euro.
Eine weitere Änderung im zeitlichen Zusammenhang mit der Euro-Einführung war der Wechsel in der Methode der Preisdarstellung für Devisen. In Deutschland war bis zum Stichtag die "Preisnotierung" (1 USD = x DEM) die übliche Darstellungsform. Seit 1. Januar 1999 wird der Wert von Devisen in allen Teilnehmerländern in Form der "Mengennotierung" dargestellt (1 EUR = x USD). Ferner konnten seit dem 1. Januar 1999 Überweisungen und Lastschriften in Euro ausgestellt werden. Konten und Sparbücher durften alternativ auf Euro oder die alte Landeswährung lauten.
Der Europäische Rat beschloss im Juni 2000 in Santa Maria da Feira auf Empfehlung der Europäischen Kommission, Griechenland in das Euro-Währungsgebiet aufzunehmen. Griechenland trat dem Euro zwei Jahre nach den anderen Mitgliedstaaten zum 1. Januar 2001 bei.
Der endgültige Übergang zum Euro.
Deutschland.
Bargeldumtausch.
In Deutschland wurde der Euro im Rahmen des sogenannten „Frontloading-Verfahrens“ ab September 2001 an Banken und Handel verteilt. Der Handel sollte durch die Ausgabe von Euro und Annahme von D-Mark in den Umtauschprozess einbezogen werden.
Ab dem 17. Dezember 2001 konnte in deutschen Banken und Sparkassen bereits eine erste Euromünzenmischung, auch „Starterkit“ genannt, erstanden werden. Diese Starterkits beinhalteten 20 Münzen im Wert von 10,23 Euro und wurden für 20 D-Mark ausgegeben, wobei die anfallende Rundungsdifferenz durch die Staatskasse übernommen wurde.
Um nach den Weihnachtsfeiertagen und dem Jahreswechsel 2001/2002 Schlangen an den Schaltern der Banken zu vermeiden, wurde es ermöglicht, auch im Januar und Februar 2002 beim Handel in D-Mark zu bezahlen. Das Wechselgeld wurde vom Handel in Euro und Cent herausgegeben. Zusätzlich kam ab 1. Januar 2002 Euro-Bargeld durch Abhebung an Geldautomaten und an den Schaltern der Banken in Umlauf. Weiter gab es in den ersten zwei Wochen des Januar Schlangen an den Umtauschschaltern der Banken und Sparkassen. Ab Ende Januar 2002 wurden Barbeträge hauptsächlich in Euro gezahlt. Eine Unwägbarkeit bei der Einführung des Euro-Bargeldes war, dass die Beschaffenheit, das Aussehen und die Formate der neuen Banknoten bewusst nicht vorab veröffentlicht wurden, um Fälschungen in der Einführungsphase zu vermeiden. Auch die Sicherheitsmerkmale, z. B. Wasserzeichen, Sicherheitsfaden, Hologrammfolie und Mikroschrift, wurden nicht vorab bekanntgegeben.
Während die Umstellung der Geldautomaten weitgehend unproblematisch verlief, befürchtete die Automatenwirtschaft Umsatzverluste, da die Automaten entweder Euro oder D-Mark akzeptierten (andere Zahlungsvarianten wie etwa die GeldKarte hatten damals keine nennenswerte Bedeutung). Einige Verkehrsunternehmen wie etwa der Rhein-Main-Verkehrsverbund hatten zum Stichtag ungefähr die Hälfte der Automaten auf Euro umgestellt, sodass die Kunden vielerorts einen „alten“ und einen „neuen“ Automaten vorfanden. Der Übergang verlief unproblematischer als befürchtet, sodass viele Automaten früher als zunächst geplant auf Euro umgestellt wurden.
Umstellung der Konten und Verträge.
Die Konten bei Banken und Sparkassen konnten auf Wunsch seit dem 1. Januar 1999 in Euro geführt werden. Im Rahmen der Einführung des Euro-Bargeldes wurden die Konten dann zum 1. Januar 2002 automatisch auf Euro umgestellt; einige Institute führten diese Umstellung jedoch schon für alle Kunden im Dezember 2001 durch. Die Umstellung war unentgeltlich. In den Übergangsjahren 1999 bis einschließlich 2001 konnten Überweisungen wahlweise in DM oder in Euro getätigt werden; abhängig davon, in welcher Währung das Zielkonto geführt wurde, erfolgte eine automatische Umrechnung; ab dem 1. Januar 2002 waren Überweisungen und Scheckzahlungen nur noch in Euro möglich.
Bestehende Verträge blieben gültig. Geldbeträge wurden im Regelfall zum 1. Januar 2002 umgerechnet (mit dem Faktor 1,95583), so dass sowohl Forderungen als auch Verbindlichkeiten wertmäßig unverändert blieben. Gleichwohl war es im Rahmen noch vorhandener Bargeldbestände bis zum Ende der Übergangsfrist am 28. Februar 2002 möglich, die alte DM-Forderung auch in DM bar zu begleichen.
Bargeldumtausch für Nachzügler.
In Deutschland endete die Übergangsfrist der parallelen Annahme von D-Mark und Euro durch den Handel mit Ablauf des 28. Februar 2002. Seitdem ist der Umtausch der D-Mark in Euro nur noch bei den Filialen der Deutschen Bundesbank (ehemals Landeszentralbanken) unbegrenzt und kostenfrei möglich.
Im Rahmen von Sonderaktionen nehmen manche deutsche Handelsketten und Einzelhändler hin und wieder die Deutsche Mark als Zahlungsmittel an.
Trotz der einfachen und kostenlosen Umtauschmechanismen waren im Juli 2016 noch immer DM-Münzen und -Scheine im Wert von umgerechnet 12,76 Milliarden Euro nicht umgetauscht. Dabei handelt es sich nach Ansicht der Deutschen Bundesbank jedoch größtenteils um verlorengegangenes oder zerstörtes Geld.
Der Euro ist somit die fünfte Währung in der deutschen Währungsgeschichte seit der Reichsgründung 1871. Vorgänger waren Goldmark, Rentenmark (später Reichsmark), Deutsche Mark sowie die Mark der DDR (vorher "Deutsche Mark" beziehungsweise "Mark der Deutschen Notenbank").
Österreich.
In Österreich begann die Oesterreichische Nationalbank am 1. September 2001 mit der Vorverteilung von Euromünzen und -banknoten an die Kreditinstitute. Diese konnten sofort damit beginnen, die Firmenkunden und den Handel mit dem neuen Zahlungsmittel zu versorgen. Dafür wurden von der Nationalbank Kassetten mit Münzrollen, offiziell "Startpaket Handel" genannt, im Wert von 145,50 Euro mit einem Gegenwert von 2.000 Schilling für die Kassenausstattung im Handel ausgegeben. Unabhängig davon konnte jedes Unternehmen seinen individuellen Eurobedarf bei seinem Kreditinstitut anmelden.
An Privatpersonen wurden die offiziell "Startpaket" benannten Münzbeutel ab 15. Dezember 2001 ausgegeben. Sie enthielten 33 Münzen im Gesamtwert von 14,54 Euro mit einem Gegenwert von 200,07 Schilling und wurden für 200 Schilling ausgegeben. Die allgemeine Geldausgabe – insbesondere auch der neuen Banknoten – begann am 1. Januar 2002.
Wie in Deutschland lief auch in Österreich vom 1. Januar bis zum 28. Februar 2002 die sogenannte Parallelumlaufphase, in der mit beiden Währungen bar gezahlt werden konnte, also entweder mit Schilling oder mit Euro – aber auch mit einer Mischung. Zwar verlor der Schilling mit Wirkung vom 1. März 2002 seine Gültigkeit als offizielles Zahlungsmittel; da aber Schillingbanknoten und -münzen bei der Oesterreichischen Nationalbank und Schillingmünzen bei der Münze Österreich unbefristet und kostenlos in Euro umgetauscht werden können, nahmen viele Geschäfte über die gesetzlich vorgesehene Zeit hinaus noch den Schilling an. Die Umstellung an den "Bankomaten" verlief weitgehend problemlos; die dort ausgegebenen Banknoten waren anfangs nur 10- und 100-Euro-Scheine. Die Begrenzung der täglich möglichen Bargeldbehebung von Bankomaten wurde mit der Umstellung von 5000 Schilling (363,36 Euro) auf 400 Euro erhöht. Im unbaren Zahlungsverkehr erfolgte die Umstellung aller Konten und Zahlungsaufträge automatisch am 1. Januar 2002.
Während andere Warenautomaten wie zum Beispiel für Zigaretten nach und nach von Schilling auf Euro umgestellt wurden, wurden die Zuckerl-, Kaugummi-, Kondom- und Brieflosautomaten des Aufstellers Ferry Ebert vom Markt genommen. Für die Firma war das Umrüsten der allein in Österreich rund 10.000 Automaten nicht zu finanzieren; ihre Automaten sind begehrte Sammelobjekte geworden.
Zum Stichtag 31. März 2010 waren nach Nationalbank-Angaben noch Schillingbestände von 9,06 Milliarden Schilling mit einem Gegenwert von 658,24 Millionen Euro im Umlauf. Davon entfielen unbegrenzt in Euro umtauschbare 3,45 Milliarden Schilling (250,9 Millionen Euro) auf Banknoten und 3,96 Milliarden Schilling (287,5 Millionen Euro) auf Münzen. Die Differenz, rund 18 %, 1,65 Milliarden Schilling (119,8 Millionen Euro), entfällt jedoch auf die letzten beiden zum Teil noch im Umlauf befindlichen Banknoten, die mit einer Präklusionsfrist bis 20. April 2018 versehen sind und die schon lange vor der Euro-Einführung ihre gesetzliche Zahlungskraft verloren hatten. Es handelt sich dabei um die 500-Schilling-Scheine „Otto Wagner“ und die 1000-Schilling-Scheine „Erwin Schrödinger“.
Um den Österreichern, aber auch ausländischen Gästen eine einfache Möglichkeit zu bieten, ihre noch vorhandenen Schillingbestände in Euro umzutauschen, fährt seit 2002 während der Sommermonate der Euro-Bus der Oesterreichischen Nationalbank durch Österreich. Ein Nebenzweck der Aktion liegt darin, die Bevölkerung über die Sicherheitsmerkmale der Euroscheine zu informieren.
Die Umstellung auf den Euro war die sechste Währungsreform oder -umstellung in der österreichischen Währungsgeschichte seit 1816 nach den Napoleonischen Kriegen. Vorgänger des Euros waren in Österreich der Gulden, die Krone (Österreich-Ungarn), der Schilling (Erste Republik), die Reichsmark (nach dem Anschluss ans „Dritte Reich“) und der Schilling (Zweite Republik), 1947 gab es eine Währungsreform mit einer Schillingabwertung auf ein Drittel.
Andere Länder der Eurozone.
Bei allen bisherigen Teilnehmern wurde das Euro-Bargeld zu Jahresbeginn eingeführt.
In einer kurzen Übergangszeit nach der Einführung des Euro-Bargeldes war in jedem teilnehmenden Staat Bargeld in Euro und der alten Landeswährung in Umlauf. Die ehemaligen Landeswährungen waren allerdings zu dieser Zeit in der Regel keine gesetzlichen Zahlungsmittel mehr, wurden aber zahlungshalber angenommen; die Umrechnung in Euro erfolgte zum offiziell festgelegten Wechselkurs. Die Zeit des parallelen Bargeldumlaufes wurde unterschiedlich festgesetzt, zum Beispiel bis Ende Februar oder bis Ende Juni 2002. Die meisten Währungen können oder konnten auch danach noch bei der jeweiligen nationalen Zentralbank gegen Euro eingetauscht werden.
Umtausch von altem Bargeld.
In den Euroländern ist der Umgang mit den früheren Währungen unterschiedlich geregelt. Auch nachdem diese nicht mehr gesetzliches Zahlungsmittel sind, gibt bzw. gab es die Möglichkeit zum Umtausch. Die Umtauschfristen unterscheiden sich aber:
Akzeptanz des Euros.
Akzeptanz in Deutschland.
In Deutschland hat ein Forschungsteam der Fachhochschule Ingolstadt zweieinhalb Jahre nach Einführung des Euros eine Studie zu dessen Akzeptanz in der deutschen Bevölkerung vorgelegt. Danach standen zur Erhebungszeit (2004) fast 60 % der deutschen Bevölkerung dem Euro positiv gegenüber. Viele der Befragten trauerten jedoch um die D-Mark. Auch rechneten viele der Befragten Preise von Euro in D-Mark um, bei höheren Beträgen häufiger als bei niedrigen. Bei allen Preisen rechneten 48 % der Befragten um, bei Preisen über 100 Euro jedoch noch 74 %. Das wurde erleichtert durch den einfachen Umrechnungsfaktor (nahezu 1:2, exakt 1:1,95583). Zudem verbindet die Bevölkerung mit der Einführung des Euros aber auch eine allgemeine Preisanhebung, die Teile des Einzelhandels vornahmen. In manchen der Euroländer (zum Beispiel in Frankreich und den Niederlanden) waren Preiserhöhungen im Zeitraum der Euro-Einführung gesetzlich untersagt, in Deutschland hatte man lediglich auf eine (verbale) Selbstverpflichtung des Handels gesetzt. Bei Auslandsreisen in seinem Geltungsbereich gewann der Euro deutlich an Sympathie. Auch der bessere Preisvergleich innerhalb Europas wurde positiv vermerkt. Laut der genannten Studie begrüßten viele der Befragten auch, dass durch die gemeinsame EU-Währung ein Gegenpol zu US-Dollar und Yen geschaffen wurde.
Laut Eurobarometer 2006 war eine relative Mehrheit von 46 % der deutschen Bevölkerung der Meinung, „Der Euro ist gut für uns, er stärkt uns für die Zukunft“, während 44 % der Meinung waren, der Euro „schwächt das Land eher“. 2002 waren die Eurobefürworter (39 %) noch in der Minderheit gegenüber den Euroskeptikern (52 %). Eine Studie der Dresdner Bank im Auftrag der Forschungsgruppe Wahlen ergab allerdings Ende 2007 ein Absinken der Euroakzeptanz der Deutschen auf 36 % gegenüber 43 % im Jahr 2004.
Laut Eurobarometer befürworteten 2014 mit 74 % eine deutliche Mehrheit der Deutschen den Euro, eine Minderheit von 22 % lehnte ihn ab.
Akzeptanz in Österreich.
Laut Eurobarometer sind die Österreicher dem Euro gegenüber positiver eingestellt als die Deutschen. 2006 waren 62 % der österreichischen Bevölkerung der Meinung: „Der Euro ist gut für uns, er stärkt uns für die Zukunft“, während 24 % der Meinung waren, der Euro schwäche das Land eher. In Österreich waren bereits 2002 die Eurobefürworter (52 %) in der Mehrheit gegenüber den Euroskeptikern (25 %).
Akzeptanz in Lettland.
Im Zuge der Einführung des Euros in Lettland stimmten nach dem Marktforschungsunternehmen SKDS lediglich 22 % der lettischen Bevölkerung zu, die Mehrheit von 53 % war dagegen. In den folgenden Jahren änderte sich dieses Verhältnis deutlich: 2018 befürworteten 83 % der Letten den Euro.
Europäische Zentralbank.
Der Euro wird von der Europäischen Zentralbank (EZB) in Frankfurt am Main kontrolliert. Diese nahm am 1. Juni 1998 ihre Arbeit auf. Die Verantwortung ging jedoch erst mit dem Start der Europäischen Währungsunion (EWU) am 1. Januar 1999 von den nationalen Zentralbanken (NZB) auf die EZB über. Neben der in Artikel 105 des EG-Vertrags festgelegten Sicherung der Preisstabilität hat die EZB auch noch die Aufgabe, die Wirtschaftspolitik der Mitgliedstaaten zu unterstützen. Weitere Aufgaben der EZB sind die Festlegung und Durchführung der Geldpolitik, die Verwaltung der offiziellen Währungsreserven der Mitgliedstaaten, die Durchführung von Devisengeschäften, die Versorgung der Volkswirtschaft mit Geld und die Förderung eines reibungslosen Zahlungsverkehrs. Um die Unabhängigkeit der EZB zu wahren, darf weder sie noch eine der NZB Anweisungen einer der Regierungen der Mitgliedstaaten erhalten oder einholen. Diese juristische Unabhängigkeit ist notwendig, da die EZB das ausschließliche Recht der Banknotenausgabe innehat und somit Einfluss auf die Geldmenge des Euros hat. Dies ist notwendig, um nicht der Versuchung zu erliegen, eventuelle Haushaltslöcher mit einer erhöhten Geldmenge auszugleichen. Dadurch würde das Vertrauen in den Euro schwinden und die Währung würde instabil werden.
Die Europäische Zentralbank bildet zusammen mit den nationalen Zentralbanken, wie der Deutschen Bundesbank, das Europäische System der Zentralbanken und hat ihren Sitz in Frankfurt am Main. Das Beschlussorgan ist der EZB-Rat, der aus dem Direktorium der EZB und den Präsidenten der nationalen Zentralbanken gebildet wird. Das Direktorium besteht wiederum aus dem Präsidenten der EZB, dessen Vizepräsidenten und vier weiteren Mitgliedern, die allesamt regelmäßig für eine Amtszeit von acht Jahren von den Mitgliedern der EWU gewählt und ernannt werden, eine Wiederwahl ist ausgeschlossen.
Eurozone.
Als Eurozone wird im strengen Sinne die Gruppe der 20 EU-Länder bezeichnet, die an der dritten Stufe der Europäischen Wirtschafts- und Währungsunion teilnehmen und den Euro als offizielles Zahlungsmittel nutzen („Euro-20“).
Im weiteren Sinne sind damit auch die Staaten gemeint, die den Kurs ihrer eigenen Währung über ein Wechselkurssystem an den Euro gekoppelt oder als Nicht-EU-Mitgliedstaaten, z. T. einseitig, den Euro eingeführt haben. Zu den Nicht-EU-Ländern, die den Euro verwenden, gehören neben den Kleinstaaten Andorra, Monaco, San Marino und Vatikan auch Montenegro und Kosovo. Weiterhin verwenden die zu Frankreich, aber nicht zur EU gehörenden Gebiete Saint-Pierre und Miquelon und Saint-Barthélemy den Euro. In den Militärbasen Akrotiri und Dekelia auf Zypern, die unter britischer Hoheit stehen und ebenso nicht zur EU gehören, wird nur mit dem Euro gezahlt.
Einen festen Wechselkurs zum Euro haben in Europa Bosnien-Herzegowina und Bulgarien sowie in Afrika Kap Verde, São Tomé und Príncipe, die Komoren und die 14 Länder der CFA-Franc-Zone. Auch der CFP-Franc, der in einigen pazifischen französischen Übersee-Territorien verwendet wird, ist fest an den Euro gebunden. Andere Wechselkurssysteme, wie der Wechselkursmechanismus II, dem Dänemark angehört, erlauben eine gewisse Bandbreite an Schwankungen um einen Leitkurs. Manche Staaten wie Marokko wiederum haben ihre Währungen an einen Währungskorb gekoppelt, der zu einem bestimmten Anteil am Euro orientiert ist. Die Schweiz setzte von 2011 bis 2015 ein Wechselkurs-Fluktuationslimit. Insgesamt nutzen über vierzig Staaten den Euro oder eine von ihm abhängige Währung.
Im "de jure" zur Republik Zypern gehörenden Nordzypern gilt "de facto" die Türkische Lira als gesetzliches Zahlungsmittel.
Nach den im Vertrag von Maastricht erstmals festgehaltenen Bestimmungen zur Europäischen Wirtschafts- und Währungsunion sind alle EU-Mitgliedstaaten zur Einführung des Euro verpflichtet, sobald sie die EU-Konvergenzkriterien erfüllen, zu denen unter anderem die zweijährige Zugehörigkeit zum Wechselkursmechanismus II (WKM II) zählt. Befreit wurden davon – durch Ausnahmeprotokolle – nur Dänemark und das Vereinigte Königreich. Allerdings duldet die Europäische Kommission bislang, dass Schweden durch den Nichtbeitritt zum Wechselkursmechanismus II absichtlich eines der Konvergenzkriterien verfehlt, um so den Eurobeitritt zu vermeiden.
Ökonomische Folgen der Einheitswährung.
Vorteile.
Nach allgemeiner Währungstheorie ist zu erwarten, dass der Euro zu einem vereinfachten Handel zwischen den Mitgliedern der Eurozone und sinkenden bzw. „keinen Transaktionskosten“ führt. Es wird vermutet, dass dies von Vorteil für die Verbraucher und Unternehmen der Eurozone ist, da Handel in der Vergangenheit eine der Hauptquellen ökonomischen Wachstums war. Es wird geschätzt, dass sich seit der Euro-Einführung bis zum Jahr 2009 der Handel innerhalb der Eurozone um 5–15 % erhöht hat. Europäische Unternehmen sollen von dem Wegfall der „Handelshemmnisse zwischen den Mitgliedsländern“ profitieren: eine Ausdehnung der Unternehmungen über den europäischen Markt sowie die Nutzung zunehmender Skaleneffekte sollen einsetzen. Der Euro kann auch als „Vervollständigung des gemeinsamen europäischen Binnenmarktes (freier Verkehr von Waren, Dienstleistungen, Kapital und Personen) gelten“ – man könnte im Umkehrschluss auch konstatieren, dass dem europäischen Binnenmarkt ohne eine gemeinsame Währung eine wichtige Komponente fehlen würde.
Bei Einführung des Euros ging man davon aus, dass Preisunterschiede für Produkte und Dienstleistungen in den Ländern der Eurozone abnehmen würden („Beseitigung der Preisdifferenzierung“): Infolge der ausgleichenden Wirkung des Arbitrage-Handels sollten bestehende Unterschiede schnell ausgeglichen werden. Dies führe zu verstärktem Wettbewerb zwischen Anbietern, niedrigeren Preisen für private Haushalte und damit zu niedriger Inflation und mehr Wohlstand der Verbraucher. Gänzlich beseitigt wird die Preisdifferenzierung jedoch nicht. Für Güter des täglichen Bedarfs werden die Marktteilnehmer nicht große Transportwege und -kosten auf sich nehmen. Eine Angleichung („Konvergenz“) der Preise findet dann nicht statt.
Besondere Vorteile bringt der Euro für Reisende. Sie müssen innerhalb der Eurozone kein Geld umtauschen bzw. rücktauschen und sparen die damit verbundenen Gebühren. Außerdem können sie die Preise in ihrem Reiseland mit denen in ihrem Herkunftsland einfach vergleichen. Außerhalb der Eurozone werden Euroscheine, ähnlich wie US-Dollar-Noten, fast überall auf der Welt von Geldwechslern akzeptiert und zu günstigen Konditionen getauscht.
Bisher bestehende innergemeinschaftliche Wechselkursrisiken und die dadurch notwendigen Währungsabsicherungen würden für europäische Unternehmen entfallen („Verringerung der Wechselkursschwankungen“). Eine Spekulation gegen den Euro ist nach Auffassung vieler Ökonomen aufgrund seiner Größe sehr viel schwieriger als gegenüber kleineren Währungen. Währungsspekulationen hatten in den 1990er-Jahren zu schweren Verwerfungen im Europäischen Währungssystem (EWS) geführt (beispielsweise zum „Schwarzen Mittwoch“ am 16. Dezember 1992). Währungsspekulationen können zu einer ausgeprägten Unter- oder Überbewertung einer Währung führen, mit entsprechenden Konsequenzen für die Inflationsrate und das Wirtschaftswachstum der Währungsgebiete beider Währungen eines Wechselkurses, und erschweren damit einen effizienten Handel zwischen zwei Währungsgebieten. Außerdem können sie die Währungsreserven eines Staates aufzehren. Durch die „Verringerung der Unsicherheit“ durch Wechselkursschwankungen verändert sich das Investitionsverhalten. Die zukünftige Planung und die Kalkulation von Projekten werden erleichtert. Ein Anstieg der Investitionen führt zu einem höheren wirtschaftlichen Wachstum.
In politischer Hinsicht manifestiert der Euro die Zusammenarbeit der europäischen Staaten und ist ein greifbares Symbol europäischer Identität. Er kann zur Konsolidierung der Europäischen Union beitragen und, wie vor der Gründung der Europäischen Währungsunion vielfach erwartet und gehofft, langfristig zur Schaffung einer „politischen Union“ beitragen.
Im Allgemeinen konnte die Europäische Zentralbank ihre Hauptaufgabe erfüllen, das heißt mit ihrer Geldpolitik für eine "stabile" und weder zu hohe noch zu niedrige "Inflation" sorgen. Das Inflationsziel von „unter, aber nahe bei zwei Prozent“ wurde meist erreicht bzw. eine langfristige Abweichung verhindert.
Nachteile.
In der Vergangenheit wurden die EU-Konvergenzkriterien hinsichtlich der Staatsverschuldung von fast keinem Land konstant eingehalten. Politisch ist für Ökonomen, welche die Bedeutung eines ausgeglichenen Staatshaushalts hoch einschätzen, fraglich, ob EZB und Europäische Kommission die Mitgliedstaaten zu hinlänglicher Haushaltsdisziplin anhalten können: Entziehen sich einzelne Länder oder Ländergruppen ihrer unterstellten haushaltspolitischen Verantwortung, werden Inflationsrate und Finanzierungskosten für diese Länder solange niedrig bleiben, wie sich der Großteil der restlichen Euroländer nicht zu stark verschuldet. Dies kann in haushaltspolitisch unverantwortlichen Schuldenländern verspätete oder nicht ausreichende Korrekturen der Haushaltspolitiken fördern und zu Wohlstandseinbußen führen.
In der Praxis hat sich die Geld- und Zinspolitik im heterogenen Wirtschaftsraum als schwierig erwiesen "(„Aufgabe der nationalen Geldpolitik“)":
Wachstumsraten von über 5 % in Irland mussten mit Raten nahe Null in den iberischen Staaten in Einklang gebracht werden: Der irischen Situation wäre nach bisher angewandten, „nationalen“ Methoden mit Leitzinserhöhungen und Geldmengenverknappung zu begegnen gewesen, während im Gegenbeispiel Zinslockerungen üblich gewesen wären. Solche regionalen Unterschiede lassen sich mit der "einheitlichen Geldpolitik" der Eurozone durch die EZB nicht hinreichend abbilden. Den „nationalen Volkswirtschaften“ ist „ein individuell einsetzbares wirtschaftpolitisches Instrument abhanden gekommen.“
Ein wesentliches volkswirtschaftliches Problem stellte zu Beginn die Festlegung der Wechselkurse der an der Einheitswährung beteiligten Währungen dar. Eine Volkswirtschaft, die mit überbewerteter Währung der Einheitswährung beitritt, wird im Vergleich ein höheres Vermögen, jedoch auch ein höheres Preisniveau (höhere Kosten und Preise) aufweisen als Staaten, die unterbewertet oder reell bewertet der Einheitswährung beitreten. Aufgrund des höheren Preisniveaus besteht ein großer Importanreiz und verminderte Exportchancen und in der Folge steigende Arbeitslosigkeit. Um die Wettbewerbsfähigkeit der Wirtschaft zu erhalten, ist eine Absenkung des Preisniveaus (in prozentualer Höhe der Überbewertung) notwendig. Ein volkswirtschaftlicher Ausgleich der Überbewertung ist in der Währungsunion mangels Wechselkursmechanismus nur über innere Abwertung erreichbar.
Rohstoffpreise.
Ein weiterer Effekt betrifft die internationalen Rohstoffpreise, insbesondere den volkswirtschaftlich bedeutsamen Erdölpreis. Öl wird nach wie vor meist in US-Dollar berechnet, und die OPEC akzeptiert seit den 1970er-Jahren sogar nur noch den US-Dollar. Der Irak hatte im Jahr 2000 unter Saddam Hussein seine Ölverkäufe bereits gänzlich in Euro abgerechnet, was allerdings seitens der USA am 10. Juni 2003, rund einen Monat nach der Eroberung des Landes, wieder rückgängig gemacht wurde. Innerhalb der OPEC wurde diskutiert, die Preise auf Euro umzustellen, womit auch viele Drittländer gezwungen wären, Teile ihrer Devisenreserven für Ölkäufe von US-Dollar- in Euroguthaben umzuwandeln, was äußerst negative Auswirkungen auf den US-Dollar und die US-Wirtschaft hätte, die durch den stetig weiter wachsenden Handel mit Öl stabilisiert wird. Sowohl der Iran unter Präsident Mahmud Ahmadineschād als auch der damalige venezolanische Präsident Hugo Chávez waren im November 2007 Befürworter eines solchen Wechsels, der allerdings so nicht zustande kam. Der Iran vermeldete im Dezember 2007 die vollständige Umstellung seiner Ölexporte auf „Nicht-US-Dollar-Währungen“ und eröffnete darüber hinaus am 17. Februar 2008 eine eigene, nicht an den US-Dollar gebundene Ölbörse mit Sitz auf der Insel Kisch. Die Ölmengen, die das Land über diesen Handelsplatz exportiert, sollen allerdings zu gering sein, um die Stellung des US-Dollars als „Ölwährung“ ernsthaft gefährden zu können.
Inflation.
Schon vor, aber insbesondere nach der Bargeldeinführung des Euros im Januar 2002 wurden eventuelle Preissteigerungen durch die Währungsumstellung diskutiert.
Gemessene Verteuerung.
Die Statistikbehörden der europäischen Länder ermitteln monatsweise Verbraucherpreisindizes, um den Preisverlauf zu ermitteln. In den deutschsprachigen Euroländern konnten hierbei nur minimale Unterschiede festgestellt werden. In keinem der deutschsprachigen Euroländer stieg die Inflation im Frühjahr 2002 über Werte hinaus, die sie nicht auch schon im Sommer 2001 erreicht hatte. Insgesamt war die Inflationsrate in den Jahren 2002 und 2003 sehr niedrig und unter dem Niveau der vorangegangenen Jahre.
Auch über längere Zeiträume gesehen war die Inflation etwas niedriger als in den Jahren vor dem Euro. So stieg der deutsche Verbraucherpreisindex in den fünf Jahren vor der Einführung um 7,4 %, während er in den fünf Jahren danach um 7,3 % stieg. Auch in Österreich stieg laut Statistik Austria der österreichische Verbraucherpreisindex in den zwölf Jahren von 1987 bis 1998 um durchschnittlich 2,45 % pro Jahr, während die Inflationsrate von 1998 bis 2003 auf durchschnittlich 1,84 % sank.
Diese Inflationsrate war jedoch nicht über alle Produktgruppen gleich. Für Waren und Dienstleistungen des täglichen Gebrauchs führte das Institut der Deutschen Wirtschaft im Jahr 2002 eine detaillierte Untersuchung der Daten des Statistischen Bundesamtes durch und ermittelte einen Preisanstieg im ersten Quartal von 4,8 %. Bei einzelnen Produktgruppen konnten stark überdurchschnittliche Preisanstiege festgestellt werden. Die Forscher kamen zu dem Schluss, dass das in der Bevölkerung verbreitete Gefühl starker Verteuerung nicht unbegründet sei, da Anstiege in diesem Bereich stärker wahrgenommen würden als Fixkosten wie Miete oder Heizung, die unverändert geblieben waren. Diese Studie zeigt zwar, dass die Preise in verschiedenen Bereichen Anfang 2002 erheblich stiegen, aber konnte nicht die weitere Entwicklung des Jahres 2002 abbilden. Die Daten des Statistischen Bundesamtes zeigen einen Preisfall unter das Niveau von 2001 gegen Ende 2002 in verschiedenen Produktgruppen, darunter auch den Lebensmitteln.
Gefühlte Inflation.
Nach der Einführung des Euros empfanden viele Verbraucher eine Verteuerung von Waren und Dienstleistungen über der Inflationsrate. Der Anteil derer, die eine schnellere Inflation wahrnahmen, stieg im ganzen Euroraum ab Januar 2002 rapide an.
Umgangssprachlich kam daher zunehmend die von dem Satiremagazin "Titanic" eingeführte und anschließend von vielen Zeitungen verwendete Bezeichnung „Teuro“ auf. Sie wurde auch zum Wort des Jahres 2002 gewählt.
In Deutschland und den Niederlanden war die Wahrnehmung vermeintlicher Preissteigerungen am größten. In den deutschen Medien und der deutschen Politik wurde eine Debatte über vermeintliche Preisverwerfungen geführt. Auch in Österreich entstand bei einer Mehrheit der Eindruck, der Euro beeinflusse die Preisentwicklung negativ.
Erklärung der Diskrepanz.
Für die Diskrepanz zwischen der gemessenen, gesunkenen Inflation und der subjektiv gefühlten Inflation in der Zeit nach der Euro-Einführung gibt es verschiedene Erklärungsansätze. Das Institut der Deutschen Wirtschaft weist schon in seiner Studie 2002 darauf hin, dass bestimmte alltäglich gekaufte Güter wie Lebensmittel tatsächlich überdurchschnittlich teurer wurden, was deutlich stärker wahrgenommen wurde als eine gegenläufige Entwicklung bei Produkten, die man seltener kauft, oder bei monatlich vom Konto abgebuchten Kosten.
Zur psychologischen Seite der Diskrepanz wurden u. a. von der Psychologin Eva Traut-Mattausch Untersuchungen durchgeführt, bei denen Probanden Preisänderungen bei der Währungsumstellung abschätzen sollten. Es ergab sich, dass durchweg die neuen Preise höher eingeschätzt wurden, als sie real waren. Preissenkungen wurden gar nicht, Preiserhöhungen illusorisch verstärkt wahrgenommen. Das hierfür verantwortlich gemachte psychologische Phänomen ist der schon seit Jahrzehnten bekannte so genannte Bestätigungsfehler, bei dem die Beurteilung von Informationen dadurch beeinflusst wird, welche Erwartungen zuvor bestehen. Den Erwartungen entsprechende Informationen werden als glaubwürdiger und wichtiger erachtet. Im Zusammenhang der Preiseinschätzung wirkt sich dies so aus, dass Umrechnungsfehler dann eher korrigiert werden, wenn sie der Erwartung zuwiderlaufen. In einem sehr ähnlichen Versuch in Österreich waren die Ergebnisse gleich.
Es wurde auch vermutet, dass die Wahrnehmung des Preises durch Rundungsfehler bei der Überschlagsrechnung (in Deutschland etwa 1:2 statt 1:1,95583 oder in Österreich 1:14 statt 1:13,7603) beeinflusst wird. In den psychologischen Studien zum Bestätigungsfehler konnte jedoch kein solcher Effekt festgestellt werden.
Der Euro im globalen Währungssystem.
Aufgrund der in den letzten Jahren festen Wechselkursentwicklung des Euro zu fast allen anderen bedeutenden Währungen und der anhaltenden fiskalpolitischen Schwierigkeiten der USA erwarten einzelne Ökonomen eine allmähliche Erosion und letztendlich die Ablösung des US-Dollars als Weltreserve- und Weltleitwährung. Dies würde das Ende einer Ära bedeuten, die nach dem Zweiten Weltkrieg mit der Ablösung des bis dahin dominierenden britischen Pfundes durch den US-Dollar begann.
Die meisten Wissenschaftler bewerten die wiederkehrenden Äußerungen aus Entwicklungs- und Schwellenländern bezüglich einer Umgewichtung bei ihren Währungsreserven oder einer Neu-Fakturierung von Rohölpreisen in Euro eher als politisches Druckmittel auf die USA, weniger als konkrete Absicht.
2006 war der Euro – gemessen an den Handels- und Finanzbeziehungen der meisten Drittländer mit der Eurozone – noch deutlich unterrepräsentiert.
Als führende internationale Bargeldwährung hat der Euro den US-Dollar 2006 abgelöst. Seit Oktober 2006 ist der Wert der im Umlauf befindlichen Eurobanknoten mit 592 Milliarden Euro höher als der der US-Dollar-Banknoten (579 Milliarden US-Dollar). Dies hängt jedoch auch damit zusammen, dass in den USA Einkäufe deutlich öfter mittels Kreditkarte bezahlt werden. Dadurch ist pro Person durchschnittlich weniger Bargeld im Umlauf.
Auswirkungen auf Deutschland.
Nach Einführung des Euros erlebte Deutschland eine wirtschaftliche Schwächephase. Hierfür sehen Ökonomen mehrere Gründe, die zum Teil mit dem Euro zusammenhängen. So sei Deutschland aufgrund politischer Fehler mit einem überhöhten Wechselkurs in die Euro-Währungsunion eingetreten, wodurch ein zu hohes Preisniveau entstand. Dies habe die Wettbewerbsfähigkeit Deutschlands verringert. Erst durch langjährige Lohnzurückhaltung der Tarifparteien sei es wieder zu einer Verringerung des Preisniveaus und damit zu einer Verbesserung der Wettbewerbsfähigkeit gekommen. Hans-Werner Sinn fasst die Realabwertung (innere Abwertung) wie folgt zusammen: „Wir sind billiger geworden und in gewisser Weise auch ärmer“. Zusätzlich entfielen mit Einführung des Euros die Wechselkursrisiken, die Finanzmarktakteure glichen daraufhin die Kreditzinsen für den gesamten Euroraum auf ein einheitliches Niveau an. Die Zinskonvergenz sorgte dafür, dass Kapital aus Euroländern mit niedriger Inflation abgezogen wurde und in Euroländer mit hoher Inflation floss, wo es zu einer wirtschaftlichen Überhitzung und später zu Zahlungsschwierigkeiten kam. Länder wie Deutschland erlitten in dieser Zeit eine Investitionsschwäche.
Der gemessen an der deutschen Wirtschaftskraft relativ moderate Wechselkurs des Euros hat sowohl positive als auch negative Auswirkungen auf Deutschland: Exporte sind billiger, Importe dagegen teurer. Eine Wiedereinführung der Deutschen Mark würde einerseits, wie das Sondergutachten des Sachverständigenrats zur Begutachtung der gesamtwirtschaftlichen Entwicklung vom 5. Juli 2012 festgestellt hat, zu einer erheblichen Aufwertung (Preisniveauerhöhung gegenüber anderen Währungsräumen) führen und somit dauerhaft die internationale Wettbewerbsfähigkeit der deutschen Wirtschaft nicht nur in Europa, sondern weltweit erheblich beeinträchtigen. Andererseits würden Importe nach Deutschland deutlich billiger.
Wechselkurse zum Euro.
Umrechnung der alten Währungen in Euro.
Im Vorfeld der Euro-Einführung in einem Mitgliedstaat der EWU entscheiden die EU-Finanzminister über den endgültigen Umtauschkurs. Der Wechselkurs wird dabei immer auf insgesamt sechs signifikante Stellen (d. h. nach und gegebenenfalls auch vor dem Komma) genau festgelegt, um Rundungsfehler möglichst gering zu halten.
Die Wechselkurse der Währungen der ursprünglich an der Währungsunion teilnehmenden Staaten wurden am 31. Dezember 1998 von den Finanzministern festgelegt. Basis war dabei der Umrechnungswert der zuvor bestehenden ECU. Bei späteren Beitritten zum Euro (Griechenland 2001, Slowenien 2007 sowie Malta und Zypern 2008) wurde der Mittelwert im Rahmen des WKM II als Maßstab genommen.
Seit der Einführung des Euros als Buchgeld dürfen die teilnehmenden Währungen nur über eine "Triangulation" ineinander umgerechnet werden. Dabei muss immer zuerst von der Ausgangswährung in den Euro und dann vom Euro in die Zielwährung umgerechnet werden. Eine Rundung ist dabei ab der dritten Euro-Nachkommastelle sowie in der Zielwährung erlaubt. Durch die Triangulation werden Rundungsfehler verhindert, die bei der direkten Umrechnung auftreten könnten, das Verfahren wurde deshalb von der Europäischen Kommission verbindlich vorgeschrieben.
Bei der Umrechnung von Beträgen nach Euro, die noch in „alten“ Währungseinheiten festgelegt sind, darf erst am Ende der Berechnung der zu zahlende Gesamtbetrag gerundet werden. Eine Rundung von einzelnen Berechnungsfaktoren oder von Zwischenergebnissen würde zu einem anderen Gesamtergebnis führen. Damit würde der Rechtsgrundsatz verletzt, dass die Einführung der neuen Währung die Kontinuität von Verträgen nicht berührt.
Praktisches Beispiel: War in einem Mietvertrag ein monatlich zu zahlender Mietzins vereinbart, der sich als Produkt aus Mietfläche und Quadratmeterpreis berechnet, ist nicht der Quadratmeterpreis in Euro umzurechnen und zu runden, sondern erst der monatliche Zahlungsbetrag. Eine andere Vorgehensweise würde unter Umständen erhebliche Senkungen oder Erhöhungen der monatlichen Zahlungen bewirken (vgl. Urteil des deutschen Bundesgerichtshofs vom 3. März 2005 – III ZR 363/04).
Historische Kursverläufe zu anderen Leitwährungen.
US-Dollar.
Am 4. Januar 1999, dem ersten Tag des Börsenhandels in Euro an der Frankfurter Börse, hatte die neue Europa-Währung einen Wechselkurs von 1,1789 USD pro Euro. Der Kurs des Euros entwickelte sich in Relation zum US-Dollar zunächst negativ und erreichte über die ersten zwei Jahre des Börsenhandels immer weitere Tiefststände. Am 27. Januar 2000 fiel der Euro unter die Euro-Dollar-Parität; das Allzeittief wurde dann am 26. Oktober 2000 mit 0,8252 USD pro Euro erreicht.
Von April 2002 bis Dezember 2004 wertete der Euro mehr oder weniger kontinuierlich auf; am 15. Juli 2002 wurde wieder die Parität erreicht, am 28. Dezember 2004 erreichte er ein Rekordhoch mit 1,3633 USD. Entgegen den Erwartungen vieler Analysten, von denen manche sogar einen baldigen Anstieg auf über 1,40 USD oder gar 1,60 USD prognostiziert hatten, wertete der Euro wegen der Zinserhöhungspolitik der US-Notenbank im Verlauf des Jahres 2005 wieder deutlich ab und erreichte am 15. November mit 1,1667 USD sein Jahrestief 2005. Diese Zinserhöhungspolitik konnte allerdings wegen der Abschwächung der US-Konjunktur 2006 nicht mehr fortgesetzt werden; erschwerend kam seit der zweiten Jahreshälfte 2007 die Subprime-Krise hinzu, die die US-Notenbank zu mehreren Leitzinssenkungen veranlasste, sodass der Euro erneut aufwertete und der EZB-Referenzkurs am 15. Juli 2008 sein bisheriges Rekordhoch von 1,5990 USD erreichte, wobei der höchste je am Markt gehandelte Kurs bei 1,6038 USD lag. Zum Vergleich: Ihren Höchstwert erreichte die D-Mark am 19. April 1995, als 1 USD 1,3455 DEM kostete – das entspricht umgerechnet 1,45361 USD je Euro. Der an die D-Mark gekoppelte österreichische Schilling erreichte sein Allzeithoch am selben Tag mit einem US-Dollar-Preis von 9,485 Schilling, das sind umgerechnet 1,45074 USD je Euro.
Durch die Dollarschwäche war das Bruttoinlandsprodukt des Euroraums zu Markt-Wechselkursen im März 2008 größer als das der USA.
Bedeutung des US-Dollar-Euro-Wechselkurses.
Ein hoher Eurokurs bringt für die europäische Wirtschaft sowohl Vorteile als auch Nachteile. Vorteilhaft ist die Verbilligung der Rohstoffe, die weiterhin überwiegend in US-Dollar gehandelt werden. Nachteilig ist die Verteuerung der Exporte, die zu Absatzproblemen führen kann. Durch die Größe des Euroraumes haben die Wechselkurse und somit die durch Wechselkursschwankungen hervorgerufenen Wechselkursrisiken jedoch weitaus weniger Bedeutung als zu Zeiten nationaler Währungen. Insbesondere konnte sich Anfang 2007 die europäische Binnenwirtschaft mit einem überdurchschnittlichen Wachstum von der nur moderat wachsenden Weltwirtschaft abkoppeln.
Der niedrige Eurokurs bis in das Jahr 2002 ist vermutlich teilweise auf seine damalige Nichtexistenz als Bargeld zurückzuführen, weswegen der Euro zunächst geringer bewertet wurde, als es allein aufgrund der Fundamentaldaten angemessen gewesen wäre. Die wirtschaftlichen Probleme in der europäischen Gemeinschaft machten Investitionen in Europa für ausländische Anleger unattraktiv, was den Euro weiter schwächte. Kurz nach der Bargeldeinführung kam es zu einer Euro-Aufwertung. Die wirtschaftliche Erholung Europas seit 2005, insbesondere der Exporte, hat die Aufwertung des Euros weiter unterstützt. Es gibt weitere Erklärungen, die auch zu der allgemeinen Annahme einer mittel- und langfristigen Fortsetzung des Euro-Wertzuwachses führen; es werden hierfür vorrangig drei Gründe angegeben:
Im Juli 2008 erreichte der Euro mit einem Kurs von 1,5990 US-Dollar pro Euro sein bisheriges Allzeithoch (siehe Tabelle „Jahreshöchst- und -tiefstwerte“ oben); im Zuge der Griechenland-Finanzkrise 2009/10 fiel der Kurs von 1,35 USD/EUR auf etwa 1,20 USD/EUR (= um etwa 10 %).
Euro Currency Index.
Der Euro Currency Index (EUR_I) stellt das arithmetische Verhältnis von vier Leitwährungen im Vergleich zum Euro dar: US-Dollar, britisches Pfund, japanischer Yen und Schweizer Franken. Alle Währungen werden in den Maßeinheiten der Währung pro Euro ausgedrückt. Der Index wurde 2004 vom Börsenportal Stooq.com lanciert. Basiswert sind 100 Punkte am 4. Januar 1971. Vor Einführung der europäischen Gemeinschaftswährung am 1. Januar 1999 wurde ein Wechselkurs von 1 Euro = 1,95583 Deutsche Mark berechnet.
Vergleichbar mit dem arithmetisch gewichteten Euro Currency Index ist der handelsgewichtete Euro Effective Exchange Rate Index der Europäischen Zentralbank (EZB). Der Index der EZB misst im Vergleich zum Euro Currency Index viel akkurater den Wert des Euros, da die Gewichtung der EZB die Wettbewerbsfähigkeit europäischer Güter im Vergleich zu anderen Ländern und Handelspartnern stellt.
Auch andere Unternehmen veröffentlichten Euro Currency Indizes. Die Berechnung wurde aber nach wenigen Jahren wieder eingestellt. Beispiele sind der Dow Jones Euro Currency Index (DJEURO) von Dow Jones & Company von 2005 bis 2009 und der ICE Euro Currency Index (ECX) der Terminbörse ICE Futures U.S., früher New York Board of Trade (NYBOT), von 2006 bis 2011.
Euro Effective Exchange Rate Index.
Der Euro Effective Exchange Rate Index (Euro EER Index, auch bekannt als Euro Trade Weighted Index) ist eine Kennzahl, welche den Wert des Euros mittels eines Währungskorbs aus verschiedenen Währungen vergleicht. Der Index ist der handelsgewichtete Durchschnitt im Vergleich zu diesen Währungen. Er wurde 1999 von der Europäischen Zentralbank (EZB) erstmals veröffentlicht. Die EZB berechnet die effektiven Wechselkurse im Index für drei Gruppen:
Die EZB bestimmt die Gewichte der einzelnen Partnerländer anhand der Anteile der Fertigerzeugnisse, wie sie in der Standard International Trade Classification (SITC) definiert sind. Für die Gewichte verwendet die EZB die Werte aus den Exporten und den Importen, ohne den Handel innerhalb des Euroraums zu berücksichtigen. Die Einfuhren werden nach dem einfachen Anteil der Partnerländer an den Gesamtimporten in das Euro-Währungsgebiet gewichtet. Die Exporte werden hingegen doppelt gewichtet, wegen der sogenannten „Dritt-Markt-Effekte“. Dies erfasst den Wettbewerb der europäischen Exporteure in ausländische Märkte gegenüber inländischen Produzenten und Exporteuren aus Drittländern.
Name, Symbole und Codes.
Währungsname Euro.
Der Name „Euro“ wurde auf der Tagung des Europäischen Rates am 15. und 16. Dezember 1995 in Madrid beschlossen und in der "Verordnung (EG) Nr. 974/98 über die Einführung des Euros" festgelegt. In allen Sprachen der Länder, in denen die Währung eingeführt wurde, lautet ihr Name „euro“. Abweichend davon wird im Deutschen die Währung großgeschrieben (Euro), im Griechischen wird das griechische Alphabet verwendet (ευρώ).
Trotz der identischen Schreibweise wird der Name der Gemeinschaftswährung in verschiedenen Sprachen sehr unterschiedlich ausgesprochen:
Die korrekte Bezeichnung der gemeinsamen Währung im Nominativ Singular als „Euro“ findet sich in allen diesbezüglichen Rechtsakten der Europäischen Union und wird sogar von der Europäischen Zentralbank im Rahmen ihrer regelmäßigen Konvergenzberichte als De-facto-Konvergenzkriterium überprüft:
In einer Erklärung zum Vertrag von Lissabon stellten die Regierungen von Lettland, Ungarn und Malta am 9. Mai 2008 fest, dass die vereinheitlichte Schreibweise „keine Auswirkungen auf die geltenden Regeln der lettischen, der ungarischen und der maltesischen Sprache“ habe.
In der deutschen amtlichen Sprachverwendung wird die Bezeichnung "Euro" unverändert auch im Plural verwendet. Allerdings weicht der umgangssprachliche Gebrauch hiervon ab: Im Deutschen lauten die Pluralformen "Euros" und "Cents", wenn man von Scheinen und Münzen spricht oder schreibt („ein Sack voller Euros“); kein "-s" steht bei der Angabe eines bestimmten Geldbetrages („Ich habe tausend Euro überwiesen“). In einigen anderen EU-Sprachen existieren auch amtlich eigene Pluralformen.
Etymologisch leitet sich das Wort „Euro“ als Abkürzung des Namens des Kontinents Europa und damit letztlich aus dem griechischen "Εὐρώπη" ab.
Untereinheit Cent.
Die Untereinheit des Euros lautet „Cent“. Laut den interinstitutionellen Regeln für Veröffentlichungen der EU sind national abweichende Bezeichnungen allerdings nicht ausgeschlossen. Dies ist ein Zugeständnis an die Länder, deren Währungsuntereinheit bereits vor der Einführung des Euros mit einer Form des Wortes Cent bezeichnet wurde, so z. B. Frankreich und Belgien "(centimes)", Italien "(centesimi)" oder Portugal "(centavos)." Im Finnischen wird zudem die dort für die Untereinheit des Dollars bereits früher gebräuchliche Form "sentti" verwendet. Im Griechischen wird "λεπτό" (Lepto) gebraucht, was auch schon der Name für die Untereinheit der griechischen Drachme war.
Umgangssprachlich ist – auch zur Unterscheidung von den gleichnamigen Untereinheiten anderer Währungen – auch die Bezeichnung „Euro-Cent“ verbreitet. Auch auf den Münzen selbst werden die Worte "Euro" und "Cent" übereinander geschrieben, wobei allerdings "Euro" in kleinerer Schrift als "Cent" erscheint.
Das Wort „Cent“ stammt von bzw. ‚das Hundertstel‘ ab. Varianten wurden schon seit langem in der Romania für Währungsuntereinheiten benutzt (vgl. Céntimo, Centime, Centavo und Centesimo). Die Form „Cent“ selbst war schon vor der Euro-Einführung über das Niederländische und das Englische ins Deutsche vermittelt worden, insbesondere als Bezeichnung für die Untereinheit des Dollar.
Euro-Währungssymbol.
Das Euro-Zeichen wurde 1997 von der Europäischen Kommission als Symbol für die europäische Gemeinschaftswährung eingeführt. Dass es überhaupt ein Symbol gibt, ist eher dem Zufall zu verdanken. Da es nur wenige Währungen gibt, für die ein Symbol existiert, hatte der Rat auch nie über ein Symbol diskutiert. Erst als Anfang 1996 ein Logo für Informationskampagnen gesucht wurde, fand man den Entwurf. Daraus entstand die Idee, dieses Logo auch als Währungssymbol einzuführen. Am 23. Juli 1997 veröffentlichte die Kommission eine Mitteilung über die Verwendung des Euro-Zeichens. Der Text erläutert:
Es basiert auf einem 1974 als Studie geschaffenen Entwurf des ehemaligen Chefgrafikers der Europäischen Gemeinschaft (EG), Arthur Eisenmenger. Es ist ein großes, rundes "E", das in der Mitte zwei waagerechte, versetzte Striche besitzt (oder auch wie ein C mit einem Gleichheitszeichen kombiniert). Es erinnert an den griechischen Buchstaben Epsilon (ε). Ursprünglich sollte die Abkürzung "ECU" verwendet werden. Das Eurozeichen sollte in dieser Form nicht in Texten eingesetzt werden. Typografisch korrekt ist es, das Eurozeichen der verwendeten Schrift zu verwenden (U+20AC).
Allerdings erschien schon – von der Paneuropa-Union im Jahr 1972 herausgegeben – ein Satz mit sieben Werten zu 1, 2, 5, 10, 20, 50 und 100 Euro mit dem Euro-Symbol „€“, das damals etwas anders aussah, aber auch aus einem großen „C“ mit einem eingefügten Gleichheitszeichen bestand. Anlass der Ausgabe waren der 50. Jahrestag der Paneuropa-Union und der 20. Jahrestag der Europäischen Gemeinschaft für Kohle und Stahl, verbunden mit dem Vertrag über die Norderweiterung der Gemeinschaft. Die Stücke zeigen eine Umschrift mit dem Text „CONFŒDERATIO EUROPÆA“. Auf den Rückseiten sind Karl der Große, Karl V., Napoléon Bonaparte, Richard Nikolaus Graf von Coudenhove-Kalergi, Jean Monnet, Sir Winston Churchill und Konrad Adenauer abgebildet. Eine weitere Euro-Ausgabe mit zwei Stücken gab es ein Jahr später zum 10. Jahrestag des Freundschaftsvertrages zwischen Deutschland und Frankreich.
ISO-Währungscode.
Das internationale Währungskürzel lautet „EUR“. In der ISO-Norm weicht es in mehrfacher Hinsicht von der allgemeinen Systematik ab:
Amtliche Schreibweisen.
Das Amt für Veröffentlichungen der Europäischen Union verwendet in seinen Schreibregeln das Eurozeichen nur zur grafischen Darstellung, populärwissenschaftlichen Veröffentlichungen und für Werbezwecke. In amtlichen Texten wird für Währungsbeträge hingegen grundsätzlich der ISO-Code „EUR“ genutzt.
Für den Cent gibt es offiziell weder ein Zeichen noch eine Abkürzung. In amtlichen Texten werden Beträge im Cent-Bereich daher in Eurobruchteilen angegeben, also zum Beispiel für einen Betrag von 20 Cent „0,20 EUR“. Inoffiziell wird die Untereinheit allerdings häufig abgekürzt "(Ct, Ct., ct, C" oder "c)." Das für den US-Cent verwendete Zeichen "¢" ist für den Eurocent ungebräuchlich.
Eurobargeld.
Ende 2010 waren 862,3 Milliarden Euro als Bargeld in Umlauf, davon 840 Milliarden Euro als Scheine (97,4 %) und 22,3 Milliarden Euro als Münzen (2,6 %).
Münzen.
Gebrauchsmünzen.
Es gibt Euromünzen zu 1, 2, 5, 10, 20 und 50 Eurocent sowie zu 1 und 2 Euro. Die Vorderseiten der Münzen aller Euroländer sind gleich, auf der Rückseite haben sie nationale Motivprägungen. Dennoch kann im gesamten Währungsraum damit bezahlt werden. Seit 2007 werden die Vorderseiten der Münzen schrittweise erneuert, um die im Jahre 2004 hinzugekommenen EU-Länder ebenfalls darzustellen. Die deutschen Rückseiten besitzen zusätzlich noch ein Münzzeichen, das den Prägeort angibt. Auf den griechischen Münzen ist der Nennwert auch auf Griechisch aufgeführt, statt Cent steht die Bezeichnung "Lepto/Lepta."
Auf der Vorderseite der Münzen befindet sich ein versetztes Doppel-L; die Initialen des belgischen Designers Luc Luycx.
Die Münzen zu 1 und 2 Euro bestehen aus zwei unterschiedlichen Legierungen (Kupfernickel und Messing). Unter Gebrauchsbedingungen entsteht ein elektrochemisches Spannungsgefälle, das Nickel-Ionen aus der Legierung herauslöst. Dies löst jedoch (entgegen ursprünglichen Befürchtungen) keine allergischen Reaktionen aus.
Da die thailändischen 10-Baht-Münzen den 2-Euro-Münzen in Größe und Gewicht stark ähneln und ebenfalls aus zwei unterschiedlichen Legierungen bestehen, erkennen Automaten im Euroraum, die über eine unzureichende Münzprüfung verfügen, diese Münzen möglicherweise als 2-Euro-Münze. Das kann unter Umständen auch mit anderen Münzen – zum Beispiel der neuen türkischen 1-Lira-Münze, der kenianischen 5-Schilling-Münze oder mit Restbeständen der italienischen 500-Lira-Münze – geschehen.
2-Euro-Gedenkmünzen.
Seit 2004 werden 2-Euro-Gedenkmünzen für den Umlauf ausgegeben. Sie unterscheiden sich nur durch das Motiv auf der nationalen Seite von den Umlaufmünzen und sind im gesamten Euroraum gültig.
Die erste Ausgabe wurde zum Gedenken an die Olympischen Sommerspiele 2004 in Athen von Griechenland ausgegeben. 2005 gab Österreich eine Münze zum fünfzigjährigen Jubiläum des Staatsvertrages heraus. Deutschland startete mit seiner ersten Gedenkmünze der Bundesländerserie 2006, auf der das Holstentor zu Lübeck abgebildet ist. Die Auflage betrug 31,5 Millionen. Dem jährlich wechselnden Vorsitz im Bundesrat gemäß wurden in den Folgejahren und werden bis einschließlich 2022 – mit Ausnahme des Jahres 2019 – jeweils einem der 16 Bundesländer gewidmete Gedenkmünzen mit Auflagen von jeweils rund 31 Millionen ausgegeben. Es war deshalb vorgesehen, dass Deutschland für den Umlauf 16 Jahre lang keine 2-Euro-Münzen mit dem Motiv des Bundesadlers (also die „gewöhnliche“ 2-Euro-Münze) – mit Ausnahme einer geringen Auflage Kursmünzensätze für Sammler – prägt. Dennoch wurden aber immer wieder 2-Euro-Münzen mit dem Bundesadler in erheblicher Stückzahl für Umlaufzwecke geprägt.
Zum fünfzigsten Jahrestag der Unterzeichnung der Römischen Verträge, dem 25. März 2007, gaben alle 13 Euroländer eine Gedenkmünze mit gemeinsamem Bild und Schriftzügen in der jeweiligen Landessprache bzw. in Latein aus. Am 1. Januar 2009 erschien erneut eine Gemeinschaftsausgabe der mittlerweile 16 Euroländer anlässlich des zehnten Jubiläums der Wirtschafts- und Währungsunion. Das Ausgabedatum ist symbolisch zu betrachten, da Neujahr ein offizieller Feiertag ist. Die deutsche Ausgabe erschien am 5. Januar und die italienische Münze als letzte der Serie am 26. März. Anfang 2012 folgte die dritte Gemeinschaftsausgabe von nunmehr 17 Ländern anlässlich des zehnjährigen Jubiläums der Einführung des Euros als Bargeld. Anlässlich des dreißigjährigen Bestehens der EU-Flagge gaben alle 19 EU-Länder, die den Euro als offizielles Zahlungsmittel nutzten, im Jahr 2015 eine gemeinschaftliche 2-Euro-Gedenkmünze aus.
Sammlermünzen.
Die Euroländer verausgaben neben den normalen Kursmünzen und den 2-Euro-Gedenkmünzen auch reine Sammlermünzen. Teilweise belaufen sich die Nennwerte auf bis zu mehreren hundert Euro, und die Münzen enthalten Silber oder Gold. Derartige Sammlermünzen werden nur in den jeweiligen Ausgabestaaten als gültiges Zahlungsmittel anerkannt, das heißt, sie gelten nicht in der gesamten Eurozone. Die Prägeauflage ist meistens limitiert. Die Nennwerte sind beliebig, nur die Nennwerte der normalen Euro-Kursmünzen dürfen nicht für Sammlermünzen verwendet werden. Den bislang höchsten Nennwert hat mit 100.000 Euro eine Sonderausgabe des Wiener Philharmonikers.
Am 14. April 2016 wurde in Deutschland, vorerst in kleiner Stückzahl und nur in den Filialen der Deutschen Bundesbank erhältlich, eine 5-Euro-Münze als Sammlermünze mit blauem Ring herausgegeben. Sie sorgt auch deshalb für großes öffentliches Interesse, da die Fälschungssicherheit durch die neue Produktionstechnik verbessert werden soll und die Akzeptanz dieses neuen Nominalwertes mit Spannung erwartet wird.
Banknoten.
Euro-Banknoten gibt es in einer Stückelung von 5 €, 10 €, 20 €, 50 €, 100 €, 200 € und 500 €.
Die Euro-Banknoten der ersten Serie wurden nach einem EU-weiten Wettbewerb von dem Österreicher Robert Kalina gestaltet und sind in allen Euroländern identisch. Die Scheine zeigen verschiedene Motive zu den Themen "Zeitalter und Baustile in Europa." Die Vorderseiten zeigen als Motiv ein Fenster oder eine Fensterfront, die Rückseiten jeweils eine Brücke. Dabei sind keine realen Bauwerke abgebildet, sondern es wurden die Stilmerkmale der einzelnen Epochen in eine typische Abbildung eingebracht: Antike auf dem 5-Euro-Schein, Romanik auf dem 10-Euro-Schein, Gotik auf dem 20-Euro-Schein, Renaissance auf dem 50-Euro-Schein, Barock und Rokoko auf dem 100-Euro-Schein, Eisen- und Glasarchitektur auf dem 200-Euro-Schein und moderne Architektur des 20. Jahrhunderts auf dem 500-Euro-Schein.
2005 begann die Entwicklung der von Reinhold Gerstetter gestalteten zweiten Generation von Euro-Banknoten, die seit 2013 sukzessive eingeführt werden.
Herkunft der Eurobanknoten.
Bis Ende 2002 war anhand des Anfangsbuchstabens der Seriennummer auf der Rückseite eines Euroscheines zu ersehen, im Auftrag welcher nationalen Zentralbank er gedruckt wurde. Deutschland hatte in diesem System den Buchstaben X zugewiesen bekommen. Seit 2003 wird im sogenannten „Pooling-System“ jeder Wert nur noch von wenigen Nationalbanken produziert und von den Druckereien ins gesamte Eurogebiet transportiert. Jede Nationalbank spezialisiert sich auf höchstens vier Wertstufen.
Heute lässt sich die Herkunft nur noch mit Hilfe des Druckereicodes feststellen, der sich bei jedem Schein auf der Vorderseite befindet, bei Banknoten der zweiten Serie rechts am oberen Bildrand. Bei Noten der ersten Serie variiert die genaue Position je nach Wert des Scheines, beispielsweise befindet sie sich beim 10-Euro-Schein im Stern an der 8-Uhr-Position. Der erste Buchstabe gibt die Druckerei an, in der er gedruckt wurde. Der Buchstabe R steht zum Beispiel für die Bundesdruckerei in Berlin. Der Druckereicode besteht aus einem Buchstaben, drei Ziffern, einem Buchstaben und einer Ziffer. Siehe mehr dazu im Artikel Eurobanknoten.
Diskussionen um das Bargeld.
Forderung von 1- und 2-Euro-Scheinen.
Österreich forderte die Einführung eines 2-Euro-Scheins, Italien sogar die eines 1-Euro-Scheins. In beiden Staaten waren vor der Einführung des Euros Geldscheine mit relativ geringen Werten im Umlauf – so zum Beispiel der 20-Schilling-Schein (1,45 Euro) in Österreich oder der 1000-Lire-Schein (52 Cent) in Italien.
Am 18. November 2004 beschloss der EZB-Rat, keine Euroscheine mit niedrigerem Wert einzuführen.
Sie hätten einen ähnlichen Wert wie die seinerzeit selten verwendete 5-DM-Note (2,56 Euro).
Abschaffung der 1- und 2-Cent-Münzen.
In einigen Euroländern sind 1- und 2-Cent-Münzen für den Barzahlungsverkehr nicht gebräuchlich und werden nur in kleinen Stückzahlen für Münzsammler geprägt. In Finnland wurden sie als Zahlungsmittel gar nicht eingeführt; dort werden seither Rechnungen, die nicht auf –,–0 oder –,–5 Euro enden, beim Bezahlen auf diese Beträge gerundet. Zwar kann man auch mit 1- oder 2-Cent-Münzen zahlen; sie werden jedoch nicht als Wechselgeld herausgegeben. Schon vor der Euro-Einführung war die kleinste Nominale der finnischen Mark nicht das 1-Penni-Stück, sondern das 10-Penniä-Stück gewesen und Beträge wurden entsprechend gerundet. In den Niederlanden (seit 1. September 2004; entsprechend auch schon mit dem Gulden nach der Abschaffung der 1-Cent-Münze) wurde dieses System später übernommen – begründet mit dem geringen Geldumlauf solcher Münzen.
Auch Belgien setzt seit Anfang Dezember 2019 auf diese Praxis.
Die Gegner der Abschaffung befürchten vor allem einen zweiten „Teuro-Effekt“, weil viele Einzelpreise auf volle fünf Cent aufgerundet werden könnten. Dagegen wird aber eingewendet, dass dies wegen der psychologisch wichtigen Schwellenpreise, die dann eher von –,99 auf –,95 herabgesetzt werden, nicht passieren würde. Allerdings existieren in niederländischen und finnischen Geschäften immer noch warenbezogene Schwellenpreise, die oft auf –,99 enden. Erst die Summe an der Kasse wird auf- oder abgerundet.
Die EU-Kommission machte am 14. Mai 2013 Vorschläge für eine Vergünstigung oder eine Abschaffung der 1- und 2-Cent-Münzen. Währungskommissar Olli Rehn stellte fest, die Herstellung und Herausgabe dieser Münzen übersteige ihren Wert. Zugleich müssten die Zentralbanken ausgerechnet von diesen Münzen besonders viele Exemplare herausgeben. Insgesamt seien in den letzten elf Jahren 45,8 Milliarden solcher Kleinstmünzen in Umlauf gebracht worden. Die Ausgabe der Kleinstmünzen habe die Euro-Staaten seit dem Start der Gemeinschaftswährung im Jahr 2002 zusammen etwa 1,4 Milliarden Euro gekostet. Die Kosten für die Cent-Münzen könnten etwa durch eine andere Materialmischung oder ein effizienteres Prägungsverfahren reduziert werden.
Fälschungssicherheit.
Banknoten.
Die Fälschungssicherheit der Eurobanknoten wird im internationalen Vergleich hoch angesehen. Um sie zu gewährleisten, sind die Scheine mit mehreren Sicherheitsmerkmalen ausgestattet. Bei der Produktion werden in das Banknotenpapier fluoreszierende Fasern und ein mittig verlaufender Sicherheitsfaden eingebracht, der in Gegenlicht dunkel erscheint und die Wertangabe als Mikrodruck trägt. Außerdem bestehen die Scheine aus Baumwollfasern, die ihnen eine charakteristische Struktur verleihen. Weiterhin werden Teile des Motivs mit fluoreszierender Farbe hergestellt, sodass unter UV-Licht die Fasern und das Motiv leuchten. Bei Nutzung von infrarotem Licht reflektieren die Scheine in unterschiedlichen Farben. Ein Wasserzeichen in den Noten lässt im Gegenlicht das jeweilige Architekturmotiv und die Wertzahl erkennen.
Das Durchsichtsregister in der linken oberen Ecke der Banknotenvorderseite lässt ebenfalls im Gegenlicht zusammen mit dem Rückseitenmotiv die Wertzahl erscheinen. Dies passiert dadurch, dass auf Vorder- und Rückseite jeweils nur Teile der Wertzahl gedruckt sind, die sich erst bei der Durchsicht zusammenfügen. Am Rand der 5-, 10- und 20-Euro-Banknoten ist ein durchlaufender metallisierter Folienstreifen aufgebracht, der je nach Beleuchtungswinkel entweder das Euro-Symbol oder den jeweiligen Wert des Scheines als Kinegramm erscheinen lässt. Die höherwertigen Euroscheine ab 50 Euro besitzen an dieser Stelle ein positioniertes Folienelement, das beim Kippen der Banknote in Form eines Hologramms – je nach Betrachtungswinkel – das jeweilige Architekturmotiv beziehungsweise die Wertzahl zeigt.
Durch das Druckverfahren der Banknoten, ein Stichtiefdruckverfahren kombiniert mit – als Irisdruck ausgeführtem – indirektem Hochdruck, entsteht auf der Geldscheinvorderseite ein ertastbares Relief, das die Fälschung der Banknoten erschwert und zugleich Sehbehinderten die Unterscheidung der Banknoten vereinfacht. Außerdem sind die Abbildungen der Fenster und Tore und die Abkürzungen der Europäischen Zentralbank (BCE, ECB, EZB, griech. ΕΚΤ (lat. EKT), EKP) ertastbar.
Die Scheine niedrigen Wertes haben auf der Rückseite einen goldtransparenten Perlglanzstreifen, während bei den Werten ab 50 Euro die Farbe der Wertziffer beim Kippen variiert (OVI = ). Zudem besitzen die Euroscheine maschinenlesbare Kennzeichen, die eine automatische Überprüfung der Echtheit gewährleisten. Eine Besonderheit ist das sogenannte „Counterfeit Deterrence System“ (CDS), das das Reproduzieren auf Kopiergeräten oder per PC verhindern soll. Die Deutsche Bundesbank empfiehlt generell, sich niemals nur auf ein einziges Sicherheitsmerkmal zu konzentrieren, und weist gleichzeitig darauf hin, dass es weitere Sicherheitsmerkmale gebe, die aber nicht veröffentlicht werden.
Europa-Serie.
Mario Draghi (Präsident der Europäischen Zentralbank) stellte am 10. Januar 2013 in Frankfurt als ersten Schein einer neuen, "Europa-Serie" genannten Banknotenserie eine neue 5-Euro-Note vor, die ab dem 2. Mai 2013 in Umlauf gebracht wurde. Sie weist zusätzliche Sicherheitsmerkmale auf, z. B. ein Wasserzeichen mit der Abbildung der mythologischen Gestalt Europa, einen Sicherheitsfaden, eine Ziffer „5“, die beim Kippen von Smaragdgrün nach Tiefblau changiert, einen glänzenden Hologrammstreifen sowie tastbare Linien an den Rändern. Zwecks längerer Haltbarkeit ist die neue Banknote mit einem Schutzlack versehen und fühlt sich deshalb wächsern-glatt an. Die parallel zirkulierenden alten Banknoten werden nach und nach aus dem Verkehr gezogen und verlieren „letztlich den Status als gesetzliches Zahlungsmittel […] behalten jedoch auf Dauer ihren Wert“.
Der Fünfer, die am intensivsten zirkulierende Euro-Banknote, hat in der alten Version eine Haltbarkeit von nur knapp einem Jahr.
Neu ist, dass in der Europa-Serie, die 2014 mit einem neuen 10-Euro-Schein und 2015 mit einem neuen 20-Euro-Schein fortgesetzt wurde, die Währungsbezeichnung nicht nur in lateinischer und griechischer Schreibweise ("EURO" bzw. "EYPΩ") erfolgt, sondern auch in kyrillischer Schrift (ЕВРО), und neun statt bisher fünf Akronyme für die Europäische Zentralbank erscheinen. Als einziges EU-Mitglied verwendet Bulgarien das kyrillische Alphabet.
Münzen.
Euromünzen sind wegen des niedrigeren Wertes nicht so stark von Fälschungen betroffen wie die Geldscheine, trotzdem müssen auch sie vor Fälschern geschützt sein. Sie verfügen über eine bestimmte Größe und eine genau definierte Masse. Die Ein- und Zwei-Euro-Münzen sind durch eine Kombination zweier Metalle bicolor gestaltet. Dies und ein komplexes, dreischichtiges Herstellungsverfahren gewährleisten die Fälschungssicherheit der Münzen.
Der Mittelteil echter Ein- und Zwei-Euro-Münzen ist leicht ferromagnetisch, die Ein-, Zwei- und Fünf-Cent-Stücke sind hingegen stark ferromagnetisch. Der Außenring der Ein- und Zwei-Euro-Münzen ist dagegen nicht ferromagnetisch, genau wie die übrigen drei Euromünzen. Da falsche Centmünzen oftmals aus anderen Metallen hergestellt sind als die echten, lassen sie auch oft einen falschen Klang beim Fall auf eine Tischplatte entstehen. Auch hinterlassen sie oft eine bleistiftähnliche Spur, wenn man sie über ein Blatt Papier streicht.
Gefälschte Münzen.
Dem Umlauf entzogene 1- und 2-Euro-Münzen wurden bis 2007 in Deutschland nicht (durch Verbiegen oder Plattwalzen ihrer Oberflächen) verunstaltet, sondern entkernt, also in Ring und Kern getrennt und nach Materialsorte sortiert. Solch sortierter Schrott wurde u. a. nach China verkauft. Betrügerisch sollen diese Münzenteile in großem Umfang wieder maschinell zusammengesetzt worden sein. Diese neu zusammengesetzten Münzen wurden z. B. durch Flugbegleiterinnen nach Deutschland eingeführt, als beschädigte Münzen der Bundesbank zur Rücknahme angeboten und von dieser angenommen. Betroffen waren 29 Tonnen bei 263 Transaktionen in drei Jahren, im (Schadens-)Wert von 6 Millionen Euro. Das ist wenig im Vergleich zu fast 70.000 t Münzeinzahlungen bei der Bundesbank pro Jahr und fiel dadurch nicht auf. Nach einjähriger Ermittlung wurde der Fall im April 2011 als gerichtsanhängig publik. Die Münzüberbringer gaben vor, „die Münzen seien in China beim Verarbeiten von Müll, Schrottautos und Altkleidern angefallen“. Ein Teil der Münzen war in die Teile zerfallen, bei einem Teil passten Ring und Kern herkunftsmäßig nicht zusammen, manche Spalten waren optisch durchscheinend oder wiesen Klebstoff auf. Seit 11. Januar 2011 gilt nunmehr eine neue EU-Verordnung, wonach nur noch "durch den normalen Gebrauch beschädigte Münzen" umgetauscht werden. Alle anderen werden ersatzlos eingezogen.
Die nationalen Behörden aller Euroländer stellten 2013 insgesamt 175.900 falsche Euromünzen sicher. Somit kam auf 100.000 echte Münzen eine Fälschung. Zwei von drei sichergestellten Falschmünzen waren 2-Euro-Münzen. Um den Fälschungsschutz des Euros zu verbessern, trat in Deutschland zum 1. Januar 2013 die "Bargeldprüfungsverordnung" in Kraft, die – nach einer Übergangsfrist von zwei Jahren – seit 1. Januar 2015 vorschreibt, wie Geldinstitute sicherzustellen haben, dass alle von ihnen wieder in Umlauf gebrachten Euromünzen echt sind.
Registriertes Falschgeld.
In Deutschland wurden im ersten Halbjahr 2010 rund 33.700 falsche Eurobanknoten eingezogen, die Schadensumme betrug 1,9 Millionen Euro. Dies bedeutete einen Anstieg gegenüber den vorigen Jahren. Mit acht Fälschungen auf 10.000 Einwohner lag Deutschland aber weiter unter dem EU-Durchschnitt. Bei über 60 % der gefälschten Noten handelte es sich um 50-Euro-Scheine. An falschen Euromünzen wurden rund 33.600 Stück eingezogen, davon über 80 % Zwei-Euro-Münzen.
Europaweit betrafen im gleichen Zeitraum je gut 40 % der Fälschungen 20- und 50-Euro-Scheine.
2011 wurden von der Deutschen Bundesbank 39.000, 2012 41.500 falsche Banknoten registriert, die Schäden von 2,1 Millionen bzw. 2,2 Millionen Euro verursachten. Mit 46 % aller „Blüten“ rangierte der 20-Euro-Schein vor dem 50er mit 34 % Anteil. 5er- und 500er-Noten machen nur jeweils 1 % des registrierten Falschgelds aus.
Europaweit wurden im ersten Halbjahr 2012 251.000 gefälschte Euro-Banknoten aus dem Verkehr gezogen. In Relation zu 14,6 Milliarden in Umlauf befindlichen echten Banknoten gilt der Anteil an gefälschten Scheinen als sehr gering. Die meisten Fälschungen wurden 2009/10 gezählt; seither (Stand: 2012) nimmt deren Zahl ab.
Auszeichnungen.
Im Jahre 2002 wurde der Euro mit dem Internationalen Karlspreis zu Aachen ausgezeichnet, da er „wie kein anderer Integrationsschritt zuvor die Identifikation mit Europa befördert und damit einen entscheidenden, epochemachenden Beitrag zum Zusammenwachsen der Völkerfamilie leistet“. |
1267 | 234994125 | https://de.wikipedia.org/wiki?curid=1267 | Ernest Rutherford | Ernest Rutherford, 1. Baron Rutherford of Nelson (* 30. August 1871 in Spring Grove bei Nelson, Neuseeland; † 19. Oktober 1937 in Cambridge, Vereinigtes Königreich), war ein neuseeländischer Physiker. Rutherford gilt als einer der bedeutendsten Experimentalphysiker.
1897 erkannte Rutherford, dass die ionisierende Strahlung von Uran aus mehreren Teilchenarten besteht. 1902 stellte er die Hypothese auf, dass chemische Elemente durch radioaktiven Zerfall in Elemente mit niedrigerer Ordnungszahl übergehen. Er unterschied 1903 die Radioaktivität in Alphastrahlung, Betastrahlung und Gammastrahlung nach ihrem zunehmenden Durchdringungsvermögen und führte den Begriff der Halbwertszeit ein. Diese Arbeit wurde 1908 mit dem Nobelpreis für Chemie ausgezeichnet.
Sein bekanntester Beitrag zur Atomphysik ist das Rutherfordsche Atommodell, das er 1911 aus seinen Streuversuchen von Alphateilchen an Goldfolie ableitete. Rutherford erweiterte das Atommodell von Thomson, der von einer gleichmäßigen Masseverteilung ausgegangen war.
Rutherford wies erstmals 1919 experimentell nach, dass durch Bestrahlung mit Alphateilchen ein Atomkern (anhand von Stickstoff) in einen anderen (in seinem Falle in das nächstschwerere Element Sauerstoff) umgewandelt werden kann. Bei diesen Experimenten entdeckte er das Proton. Unter seiner Anleitung „zertrümmerten“ John Cockcroft und Ernest Walton mit künstlich beschleunigten Teilchen einen Atomkern; mit Protonen beschossenes Lithium wandelte sich um in zwei Alphateilchen, also Helium-Kerne. Einem weiteren Wissenschaftler in Cambridge, James Chadwick, gelang es 1932, das Neutron experimentell nachzuweisen, welches Rutherford bereits Jahre vorher theoretisch postuliert hatte.
Leben und Wirken.
Herkunft und Ausbildung.
Ernest Rutherford war das vierte von zwölf Kindern von James Rutherford (1838–1928) und dessen Frau Martha Thompson (um 1843–1935). Seine Eltern waren im Kindesalter nach Neuseeland immigriert. Von Spring Grove zog die Familie 1876 nach Foxhill. Dort besuchte Rutherford ab März 1877 die von Henry Ladley geleitete Primary School. 1883 zog die Familie weiter nach Havelock, wo der Vater am Ruakaka River eine von ihm errichtete Flachsmühle betrieb. Aus wirtschaftlichen Gründen musste die Familie fünf Jahre später noch einmal umziehen, diesmal nach Pungarehu auf der neuseeländischen Nordinsel. Unterstützt durch ein Stipendium des Marlborough Education Boards besuchte Rutherford von 1887 bis 1889 das Nelson College. Dort spielte er unter anderem in der Rugby-Mannschaft und war 1889 Schulsprecher. Sein Interesse für Mathematik und Naturwissenschaften wurde durch seinen Lehrer William Still Littlejohn (1859–1933) gefördert.
Ab Februar 1890 studierte Rutherford am Canterbury College in Christchurch. Dort förderte der Professor für Mathematik und Naturphilosophie Charles Henry Herbert Cook (1843–1910) Rutherfords mathematische Begabung, während der Professor für Chemie Alexander William Bickerton (1842–1929), der ebenfalls Physik unterrichtete, Rutherfords Interesse für die Physik weckte. 1892 bestand Rutherford die Prüfungen für den Bachelor of Arts, 1893 erwarb er den Grad eines Master of Arts und ein Jahr später den Abschluss als Bachelor of Science. Rutherfords erste Forschungsarbeiten beschäftigten sich mit dem Einfluss von hochfrequenten Hertzschen Wellen auf die magnetischen Eigenschaften von Eisen und wurden in den "Transactions of the New Zealand Institute" veröffentlicht.
Während dieser Zeit wohnte Rutherford im Haus der verwitweten Mary Kate De Renzy Newton, einer Sekretärin der Woman’s Christian Temperance Union. Dort lernte er ihre Tochter kennen, seine spätere Frau Mary „May“ Georgina Newton (1876–1945).
Rutherford bewarb sich 1894 um den neuseeländischen Platz für ein „1851 Exhibition Scholarship“, ein aus den Überschüssen der Great Exhibition von 1851 in London finanziertes Stipendium. Er unterlag mit seiner Bewerbung dem Chemiker James Scott Maclaurin (1864–1939) vom Auckland University College. Als Maclaurin das mit 150 Pfund Sterling dotierte und für einen Studienaufenthalt in Großbritannien gedachte Stipendium nicht annahm, wurde es Rutherford als zweitem Bewerber zugesprochen.
Am 1. August 1895 verließ Rutherford von Wellington aus mit einem Dampfschiff Neuseeland. Bei einem Zwischenaufenthalt führte er William Henry Bragg an der University of Adelaide seinen Detektor für Hertzsche Wellen vor und erhielt von Bragg ein Empfehlungsschreiben. Im Oktober 1895 begann Rutherford seine Tätigkeit am von Sir Joseph John Thomson geleiteten Cavendish-Laboratorium der University of Cambridge. Zunächst beschäftigte er sich mit der Verbesserung der Empfindlichkeit seines Detektors, mit dem er bald Radiowellen in einer Entfernung von etwa einer halben Meile nachweisen konnte. Thomson, der Rutherfords experimentelles Talent schnell erkannte, lud Rutherford zu Beginn des Oster-Semesters 1896 ein, ihn bei seinen Untersuchungen der elektrischen Leitfähigkeit von Gasen zu unterstützen. Sie benutzten die wenige Monate zuvor entdeckten Röntgenstrahlen, um die Leitfähigkeit in den Gasen auszulösen. Rutherford entwickelte die experimentellen Techniken, um die Rekombinationsrate und die Geschwindigkeiten der unter der Einwirkung der Röntgenstrahlen entstehenden Ionen zu messen. In der Folgezeit setzte Rutherford diese Experimente unter Verwendung von Ultraviolettstrahlung fort.
Nach zwei Jahren in Cambridge erhielt Rutherford 1897 den „B. A. Research Degree“. Durch Thomsons Fürsprache wurde ihm 1898 das auf 250 Pfund pro Jahr dotierte Coutts-Trotter-Fellowship des Trinity College zugesprochen, das es Rutherford ermöglichte, ein weiteres Jahr in Cambridge zu verbringen.
Professor in Montreal, Manchester und Cambridge.
1898 erhielt Rutherford einen Ruf an die McGill-Universität in Montreal, wo er bis 1907 arbeitete. Danach begann er an der Universität Manchester in England zu lehren, wo er unter anderem mit späteren Nobelpreisträgern wie Niels Bohr und Patrick Blackett arbeitete.
Im Ersten Weltkrieg reiste Rutherford 1917 zusammen mit Henri Abraham und Charles Fabry in die USA, um die Frage der U-Boot-Abwehr zu diskutieren.
1919 ging Rutherford als Professor nach Cambridge, wo er Direktor des Cavendish-Laboratoriums war. 1921 erschien seine Schrift "Nuclear Constitution of Atoms" (deutsch: "Über die Kernstruktur der Atome)". Von 1925 bis 1930 war er Präsident der Royal Society.
1933 unterstützte Rutherford William Henry Beveridge bei der Gründung des "Academic Assistance Council" (AAC, heute Council for Assisting Refugee Academics), dessen erster Präsident er wurde.
1934 gelang ihm mit Mark Oliphant und Paul Harteck die Entdeckung des Tritiums und die erste gezielte Durchführung einer Kernfusionsreaktion.
Rutherfords Asche wurde in der Westminster Abbey in London nahe dem Grab von Isaac Newton beigesetzt.
Rutherford hatte auf junge Experimentalphysiker in England und darüber hinaus zu seiner Zeit einen sehr großen Einfluss. Selbst ein Scherz aus seinem Mund konnte nach P. M. S. Blackett bei ihnen zu einem Dogma werden wie sein Ausspruch "Alle Wissenschaft ist entweder Physik oder Briefmarkensammeln" ("All Science is either Physics or Stamp Collecting"), womit auf den Unterschied beschreibender Naturwissenschaften und der die Beobachtungen erklärenden Analyse – für Rutherford letztlich die Physik – angespielt wurde.
Auszeichnungen und Würdigung.
Rutherford zählt zu den weltweit am meisten geehrten Wissenschaftlern. Die britische Krone adelte ihn 1914 als Knight Bachelor, nahm ihn 1925 in den Order of Merit auf und erhob ihn 1931 als "Baron Rutherford of Nelson", of Cambridge in the County of Cambridge, zum erblichen Peer.
Ein 1906 neu entdecktes und von Willy Marckwald beschriebenes Uranylcarbonat-Mineral erhielt ihm zu Ehren den Namen Rutherfordin. Neben dem ihm 1908 verliehenen Nobelpreis für Chemie wurden Rutherford zahlreiche wissenschaftliche und akademische Preise und Ehrungen zuteil. Die Royal Society verlieh ihm 1904 die Rumford-Medaille und ehrte Rutherford 1922 mit ihrer höchsten Auszeichnung, der Copley-Medaille in Gold. Die Accademia delle Scienze di Torino würdigte ihn 1908 mit der Vergabe des Bressa-Preises (Premio Bressa). Die Columbia University verlieh Rutherford die alle fünf Jahre vergebene Barnard-Medaille für das Jahr 1910.
1906 wurde er in die Akademie der Wissenschaften zu Göttingen gewählt, 1911 in die National Academy of Sciences und 1915 in die American Academy of Arts and Sciences. Er erhielt 1924 die Franklin-Medaille des Franklin Institutes in Philadelphia, 1928 die Albert Medal der Royal Society of Arts und 1930 die Faraday-Medaille der Institution of Electrical Engineers. 1921 wurde er zum Ehrenmitglied ("Honorary Fellow") der Royal Society of Edinburgh gewählt. 1922 wurde er korrespondierendes und 1925 Ehrenmitglied der Akademie der Wissenschaften der UdSSR. 1932 wurde ihm die Ehrenmitgliedschaft der Deutschen Akademie der Naturforscher Leopoldina verliehen.
Die kanadische Regierung ehrte Rutherford am 29. Mai 1939 für sein Wirken und dabei besonders für die grundlegenden Entdeckungen in Bezug auf die Radioaktivität dadurch, dass sie ihn zu einer „Person von nationaler historischer Bedeutung“ erklärte.
Der Rat der Physical Society of London begründete 1939 die Rutherford Memorial Lecture (Rutherford-Gedenkvorlesung), aus der 1965 der Preis Rutherford Medal and Prize hervorging.
Mitte 1946 schlugen Edward Condon und Leon Francis Curtiss (1895–1983) vom US-amerikanischen National Bureau of Standards vor, eine neue physikalische Einheit Rutherford mit dem Einheitenzeichen "rd" zur Messung von Aktivität einzuführen, was sich jedoch nicht durchsetzte.
Am 3. November 1992 brachte die Bank of New Zealand einen 100-Dollar-Schein mit dem Bildnis Rutherfords in Umlauf. Zu seinen Ehren wurde 1997 das Element 104 endgültig als Rutherfordium benannt.
Bei der 2005 ausgestrahlten Sendereihe "New Zealand’s Top 100 History Makers" wurde Rutherford zum einflussreichsten Neuseeländer der Geschichte gewählt. In seinem Geburtsort entstand eine Gedenkstätte und seine ehemalige Grundschule in Foxhill pflegt mit der „Rutherford Memorial Hall“ sein Andenken.
1973 wurde ein Marskrater und 1976 ein Mondkrater nach ihm benannt. Seit 2008 trägt der Rutherford Ridge in der Antarktis seinen Namen, ein Asteroid trägt seit 2021 seinen Namen: (5311) Rutherford.
Schriften (Auswahl).
Bücher.
Englische Originalausgaben
Deutsche Übersetzungen |
1268 | 522317 | https://de.wikipedia.org/wiki?curid=1268 | Erich Honecker | Erich Ernst Paul Honecker (* 25. August 1912 in Neunkirchen (Saar); † 29. Mai 1994 in Santiago de Chile) war ein deutscher kommunistischer Politiker (Kommunistische Partei Deutschlands, KPD; Sozialistische Einheitspartei Deutschlands, SED). Von 1971 bis zu seiner Entmachtung 1989 war er der maßgebliche Politiker der Deutschen Demokratischen Republik.
Honecker war ab 1931 hauptamtlicher Funktionär der KPD. 1935 wegen Widerstands gegen den Nationalsozialismus zu zehn Jahren Haft verurteilt, war er nach der Befreiung vom Nationalsozialismus 1946 Mitbegründer der Jugendorganisation Freie Deutsche Jugend (FDJ). Er war 1961 als Sekretär für Sicherheitsfragen des ZK der SED und Sekretär des Nationalen Verteidigungsrates der DDR (NVR) maßgeblicher Organisator des Baus der Berliner Mauer und trug in diesen Funktionen den Schießbefehl an der innerdeutschen Grenze mit. Als einer seiner größten Erfolge gilt die Anerkennung der DDR als Vollmitglied der UNO 1973.
Im Laufe der 1980er Jahre wurden die wirtschaftliche Lage, die Beziehungen zur Führungsmacht Sowjetunion unter Gorbatschow und die innenpolitische Lage der DDR zunehmend schwieriger. Bei seinem offiziellen Besuch in der Bundesrepublik Deutschland im September 1987 wurde Honecker in Bonn von Bundeskanzler Helmut Kohl und in seiner saarländischen Heimat von Ministerpräsident Oskar Lafontaine empfangen.
Unter dem Eindruck der friedlichen Revolution in der DDR zwang das SED-Politbüro Honecker am 17. Oktober 1989 zum Rücktritt am Folgetag. Wegen seiner Verantwortung für Menschenrechtsverletzungen in der DDR kam er 1992 in Berlin vor Gericht; das Verfahren wurde aber aufgrund seiner Krankheit und seiner darauf bezogenen Verfassungsbeschwerde eingestellt. Honecker reiste umgehend zu seiner Familie nach Chile, wo er im Mai 1994 starb.
Honecker war 1946–1955 Erster Sekretär des Zentralrates der FDJ, 1946–1989 Mitglied des ZK der SED, 1948–1989 Abgeordneter des Volksrates der SBZ bzw. der Volkskammer der DDR, 1958–1989 Mitglied des Sekretariats des ZK der SED, 1958–1989 Mitglied des Politbüros des ZK der SED, 1971–1976 Erster Sekretär bzw. 1976–1989 Generalsekretär des ZK der SED und 1976–1989 Vorsitzender des Staatsrats der DDR.
Werdegang des Jungkommunisten.
Kindheit und Jugend.
Sein Vater Wilhelm Honecker (1881–1969) war Bergarbeiter und heiratete 1905 Caroline Catharina Weidenhof (1883–1963). Zusammen hatte das Paar sechs Kinder: Katharina (Käthe, 1906–1925), Wilhelm (Willi, 1907–1944), Frieda (1909–1974), Erich, Gertrud (verheiratete Hoppstädter, 1917–2010) und Karl-Robert (1923–1947).
Erich Honecker wurde in Neunkirchen (Saar) in der Karlstraße (seit 1945 Max-Braun-Straße) geboren; seine Familie zog wenig später in den heutigen Neunkircher Stadtteil Wiebelskirchen in die Kuchenbergstraße 88. Er besuchte die evangelische Grundschule. 1922 wurde er noch vor seinem zehnten Geburtstag in der fünfzig Mitglieder zählenden kommunistischen Kindergruppe von Wiebelskirchen untergebracht, die auch seine Geschwister Willi, Frieda und Gertrud besuchten und die später in Jung-Spartakus-Bund umbenannt wurde. Nach der dritten Klasse wechselte er in die evangelische Hauptschule, die er 1926 nach der achten Klasse verließ, womit automatisch seine Mitgliedschaft im Jung-Spartakus-Bund endete.
Die in ihrem Revier des Saarlandes familiär eng vernetzten Honeckers zählten als Hausbesitzer und Vermieter mit Obst- und Gemüsegarten und einer Agrarparzelle zu den wohlhabenderen Bergleuten in Wiebelskirchen und waren materiell vergleichsweise gut gesichert. Anders als die im Deutschen Reich verelendeten Arbeitermassen konnten sie ihren kleinen Besitz von Generation zu Generation weitergeben und besaßen hinter dem Haus Stallungen für eine Kuh und hielten Ziegen, Kaninchen und zeitweise ein oder zwei Schweine. Den Steckrübenwinter 1916/17, der zu einer reichsweiten Hungersnot führte, überstand die Familie durch ihre bescheidene Landwirtschaft, die ihre Ernährungslage während der Kriegsjahre verbesserte, während der Vater Wilhelm Honecker als Matrose an der Front kaum eingesetzt wurde. Entgegen den Darstellungen Erich Honeckers war sein Vater nicht am Kieler Matrosenaufstand beteiligt. Er war in Wahrheit bereits Ende Juli 1917 als „Reklamierter“ nach Wiebelskirchen zurückgekehrt, nachdem die Oberste Heeresleitung den Abzug von 40.000 Bergarbeitern von der Front angeordnet hatte, weil deren ziviler Einsatz unter Tage wegen der zwischenzeitlich dramatischen Brennstoffknappheit wichtiger als ihr Dienst als Soldaten geworden war. Ebenso trat Wilhelm Honecker nicht bereits in Kiel, wie sein Sohn behauptete, der USPD bei, sondern wahrscheinlich erst nach seiner Heimkehr ins Saarland, wo die USPD erst Anfang 1918 entstanden war.
Die im Saarland paritätisch von SPD- und USPD-Vertretern gebildeten Arbeiter- und Soldatenräte wurden bereits am 24. November 1918 von der einmarschierenden französischen Armee aufgelöst. Durch das im Versailler Vertrag integrierte Saarstatut wurde das Saargebiet als völkerrechtlich neues Gebilde fünfzehn Jahre lang Teil des französischen Zoll- und Währungsgebietes, politisch beherrscht von einer vom Völkerbund eingesetzten Regierungskommission. Die Familie Honecker behielt die deutsche Staatsbürgerschaft bei, stand aber dem katholischen Milieu fern, dem die Mehrheit der Saarbevölkerung angehörte, und wurde vom sich herausbildenden linksproletarischen Milieu angezogen.
Als Honecker nach der Schulzeit wegen der verschlechterten Wirtschaftslage keine Lehrstelle fand, drängten ihn seine Eltern zu Ostern 1926 als 13-Jährigen, eine anderweitige Beschäftigung auf dem ihm von der Kinderlandverschickung her bekannten Hof des Bauern Wilhelm Streich, im hinterpommerschen Neudorf, in der Nähe der Kreisstadt Bublitz, anzunehmen. Honeckers Memoiren zufolge habe er sich dort zwei Jahre lang nur für freies Essen und freie Kleidung aufgehalten, „um in der Landwirtschaft zu arbeiten“. Streich behandelte ihn jedoch fast als seinen künftigen Schwiegersohn, machte ihn zum Jungbauern, überantwortete Honecker infolge einer Kriegsverletzung schließlich die gesamte Feldbestellung und entlohnte ihn mit 20 Reichsmark monatlich. Im Frühjahr 1928 verzichtete Honecker auf die materiellen Verlockungen der in Aussicht gestellten Hofübernahme. Seine Gastfamilie kleidete ihn daraufhin neu ein, stattete ihn mit Geld aus und er kehrte nach Wiebelskirchen zurück. Da er als Landwirtschaftsgehilfe keine Anstellung fand, ließ er sich bei seinem Onkel Ludwig Weidenhof, der im Erdgeschoss seines Elternhauses ein Dachdeckergeschäft betrieb, als Gehilfe anlernen. Anschließend nahm er eine Lehre als Dachdecker beim Wiebelskirchener Dachdeckermeister Müller an.
Beginn der Tätigkeit für die KPD und stalinistische Schulung.
Am 1. Dezember 1928 trat er dem Kommunistischen Jugendverband Deutschland (KJVD) – Bezirk Saar bei. Der KJVD zählte zu dieser Zeit nur noch 200 Mitglieder in elf Ortsgruppen. In seiner späteren DDR-Kaderakte datierte er das KJVD-Eintrittsdatum auf 1926 zurück, um seine zweijährige Tätigkeit als Jungbauer in Hinterpommern in seiner politischen Kampfbiographie zu vertuschen. Er galt in den konkurrierenden Jugendverbänden der Sozialdemokratie und des Zentrums als „der Wortführer der Kommunisten“. 1929 wurde er in die Bezirksleitung des KJVD-Saar gewählt. Parallel absolvierte er diverse innerparteiliche Schulungen, um sich auf die Übernahme leitender Funktionen im KPD-Jugendverband vorzubereiten. Im Dezember 1929 beteiligte er sich in Dudweiler an einem zweiwöchigen Lehrgang der KJVD-Bezirksschule über marxistische Theorie und praktische Jugendarbeit. In seiner Freizeit widmete sich Honecker seinen Mitgliedschaften im örtlichen Spielmannszug und in der Jugendorganisation des Roten Frontkämpferbundes, "Roter Jungsturm", der später in "Rote Jungfront" umbenannt wurde. Im Kommunistischen Jugendverband war er zunächst Kassierer und später Leiter der Wiebelskirchener Ortsgruppe. Honecker schloss sich formell der KPD an, nachdem er bereits in verschiedenen Institutionen des kommunistischen Parteimilieus aktiv gewesen war. Das genaue Datum seines Parteieintritts konnte bis heute nicht ermittelt werden. Honecker selbst gab für seine Aufnahme in die KPD nach 1945 erst das Jahr 1930 und ein anderes Mal „Herbst 1931“ an. Schließlich verlegte er den Parteieintritt auf das mit dem Beginn der Weltwirtschaftskrise verbundene Jahr 1929 vor (und wurde entsprechend 1979 von der SED für seine fünfzigjährige Parteimitgliedschaft geehrt). Im Juli 1930 meldete sich Honecker mit 27 weiteren Auserwählten aus den verschiedenen KJVD-Bezirken beim Parteivorstand der KPD im Berliner Karl-Liebknecht-Haus – um an einem Vorbereitungslehrgang für ein Schulungsjahr an der Internationalen Lenin-Schule in Moskau teilzunehmen –, der an der Reichsparteischule der KPD in Fichtenau (heute ein Ortsteil von Schöneiche bei Berlin) stattfand. In dieser „Lehrstätte der Berufsrevolution“, so der Historiker Martin Sabrow, fand jener Übergangsritus statt, „der das Individuum in den Genossen verwandelte und einer von persönlichen Gefühlen, Skrupeln, Zweifeln nicht mehr erreichbaren Herrschaft der kommunistischen Lebenswelt und ihrer Partei unterwarf“. In einem symbolischen Aufnahmeakt bekam Honecker hier seinen auch in Moskau zu führenden neuen Parteinamen "Fritz Molter" zugeteilt und wurde mit den anderen Lehrgangsgenossen in die Grundlagen konspirativen Verhaltens eingeführt. Man vermittelte ihnen „die ersten Eindrücke einer charismatischen Auserwähltheit durch überlegene Einsicht, die zur Faszination der in paradoxer Weise rationalitätsgläubigen Herrschaft des Kommunismus im 20. Jahrhundert so entscheidend beitrug“.
Seine Dachdeckerlehre brach Honecker – wegen der Abreise im August 1930 zur Schulung an der vom Exekutivkomitee der Kommunistischen Internationale (EKKI) errichteten Moskauer stalinistischen Kaderschmiede – nach zwei Jahren ohne Gesellenprüfung ab. Im Sommer 1931 absolvierte er das obligatorische, von der Kommunistischen Jugendinternationale eingerichtete Praktikum des "KIM-Kurses", aus dem zahlreiche Kaderkräfte kommunistischer Machtapparate in Ostmitteleuropa nach 1945 hervorgingen. Während dieser Zeit nahm er mit 27 anderen Kursanten als „Internationale Stoßbrigade“ an einem Arbeitseinsatz in Magnitogorsk teil, wo seit 1929 ein Stahlwerk als künftiges Zentrum der sowjetischen Stahlgewinnung entstand. Honeckers Lehrer an der Leninschule war Erich Wollenberg, der während des Großen Terrors, im Zuge der Wollenberg-Hoelz-Verschwörung durch das NKWD als Gegner Stalins verfolgt wurde. In der Ära der Schulleiterin Kirsanowa, die bis zu ihrer endgültigen Absetzung 1937 als „eiserne Stalinistin“ galt, wurde Honecker „Reinigungsritualen“ durch Anklage und Selbstanklage unterzogen. Damit sollten sich seine Ich-Interessen innerhalb eines geschlossenen Weltbildes systematisch dem Kollektiv und den Interessen der Partei unterordnen. Sechs Tage in der Woche hatte er ein rigides tägliches Arbeitspensum von zehn Stunden und mehr abzuleisten. Das Pensum einer Schulstunde umfasste 4–5 Seiten Marx oder Engels, 6–7 Seiten Lenin, 7–8 Seiten Stalin und 20 Seiten Belletristik. Bis zu seinem Lebensende blieb Stalin – so Martin Sabrow – Honeckers prägendste politische Bezugsfigur.
Während seiner Moskauer Kaderschulung lernte Honecker auf einer der Kultur- und Tanzveranstaltungen des Elektrokombinats "Elektrosawod" seine erste Freundin Natascha Grejewna kennen, womit er gegen die strengen Konspirationsregeln der Kominternschule verstieß, die es ihm strikt untersagten, mit Unbekannten anzubändeln. Die Entdeckung dieser Liebelei hätte zum Abbruch von Honeckers Schullaufbahn führen können. Im August 1931 kehrte Honecker nach Wiebelskirchen zurück, um im September in Saarbrücken eine hauptamtliche Tätigkeit an der Spitze des KJVD im Saargebiet aufzunehmen.
Widerstand gegen den Nationalsozialismus.
Nach der Machtübernahme der NSDAP 1933 war die Arbeit der KPD in Deutschland nur noch im Untergrund möglich. Das Saargebiet jedoch gehörte nicht zum Deutschen Reich. Honecker wurde kurz in Deutschland inhaftiert, jedoch bald entlassen. Er kam 1934 ins Saargebiet zurück und arbeitete mit dem späteren ersten saarländischen Ministerpräsidenten Johannes Hoffmann in der Kampagne gegen die Wiederangliederung an das Deutsche Reich. In dieser Zeit im Widerstand in den Jahren 1934 und 1935 arbeitete er auch eng mit dem KPD-Funktionär Herbert Wehner, später SPD, zusammen. Bei der Saarabstimmung am 13. Januar 1935 stimmten jedoch 90,73 Prozent der Wähler für eine Vereinigung mit Deutschland („Heim ins Reich“). Der Jungfunktionär floh, wie 4000–8000 andere Menschen auch, zunächst nach Frankreich.
Am 28. August 1935 reiste Honecker unter dem Decknamen „Marten Tjaden“ mit einer Druckerpresse im Gepäck illegal nach Berlin und war wieder im Widerstand tätig. Am 4. Dezember 1935 wurde er von der Gestapo verhaftet. Nach fünftägigen Vernehmungen durch den Heydrich nahestehenden Heinrich Müller – ohne die sonst im Umgang mit dem kommunistischen Widerstand üblichen systematischen Foltermethoden – ging die Sache nach Ausstellung des Haftbefehls durch das Landgericht Berlin an den Volksgerichtshof, wo Hans-Joachim Rehse bis März 1937 – im Wesentlichen ohne zusätzliche Ergebnisse – weiter gegen Honecker ermittelte. Aus dem Hausgefängnis der Gestapo in der Prinz-Albrecht-Straße war dieser zunächst ins Columbia-Haus gebracht und am 15. Dezember 1935 ins Untersuchungsgefängnis Moabit überstellt worden.
Am 8. Juni 1937 wurde er von einem Senat des Volksgerichtshofes unter Vorsitz von Robert Hartmann der „Vorbereitung eines hochverräterischen Unternehmens unter erschwerenden Umständen“ für schuldig befunden und zu einer Zuchthausstrafe von zehn Jahren verurteilt; der ebenfalls angeklagte Bruno Baum wurde zu dreizehn Jahren Zuchthaus verurteilt. Nach den Gerichtsakten war es Honeckers mangelnde Vorsicht in heikler Lage, die zum Auffliegen einer tschechischen Kundschafterin und schließlich seiner gesamten Widerstandsgruppe beigetragen hatte. Die Akten belegen auch, dass Honecker ebenso wie Bruno Baum weitgehend gestand, was die Gestapo bis dahin bereits ermittelt hatte, sodass man einander unter den mitgefangenen Genossen auch wechselseitig belastete. Der spätere Stasi-Chef Erich Mielke verwahrte zu DDR-Zeiten in einem roten Koffer Akten über Honecker aus dieser Zeit, etwa die Korrespondenz des Vaters mit der Gefängnisleitung. Möglicherweise wollte Mielke etwas gegen Honecker in der Hand haben; denn jener sprach nie darüber.
Langjähriger Häftling in NS-Strafanstalten.
Nach dem Gerichtsurteil wurde Honecker für einen Monat in die Strafanstalt Plötzensee verlegt, ehe er ab 6. Juli 1937 im Zuchthaus Brandenburg-Görden einsaß. Aus der zunächst für ihn angeordneten Einzelhaft, die den langzeitverurteilten Jungkommunisten von politisch weniger gefährlich eingeschätzten Mithäftlingen fernhalten sollte, kam Honecker nach einem halben Jahr in eine Dreimannzelle und wurde zugleich für zwei Jahre Kalfaktor des Anstaltarztes. Noch in zwei weiteren Funktionen kam Honecker als Kalfaktor zur Organisation der Gefängnisarbeit zum Einsatz: bei der Garnverwertung und bei der Herstellung von Kriegsspielzeug.
Im Frühjahr 1943 teilte man ihn als gelernten Dachdecker einer Baukolonne zu, die mit LKW zu den durch Bomberangriffe beschädigten Gebäuden in der Umgebung gefahren wurde, um die Bombenschäden zu reparieren. Bald danach wurde die Baukolonne auch in Berlin eingesetzt, um in Häusern oder auf der Straße eingeschlagene Bomben zur Entschärfung durch Kampfmittelexperten freizulegen – ohne angemessene Ausrüstung und Ausbildung in Honeckers Worten ein „Himmelfahrtskommando“. Während des Winters 1943/44 wurde Honecker in Berlin immer wieder für Aufgaben eingesetzt, „die jeden weglaufen ließen, der nicht lebensmüde war“. Dazu gehörte das Ausgraben Verschütteter aus einsturzgefährdeten Kellern sowie auf Hausdächern die hastige Entfernung von Brandstäben und Löschungsversuche von Phosphorgeschossen durch Sandwürfe. Im Frühjahr 1944 wurde Honeckers Arbeitskommando nach Berlin verlegt und im Frauengefängnis Barnimstraße untergebracht, auf dessen Dach Honecker am 26. Februar 1945 bei einem schweren Luftangriff die Übersicht behielt. Honecker besorgte Lampen, Hacken und Schaufeln, um sich zu den Verschütteten unter dem von Luftminen getroffenen Zellenflügel des Frauengefängnisses durchzugraben. Die Verbringung eines verletzten Niederländers vorbei an SS-Wachen in den Bunker Friedrichshain gelang ihm mit Hilfe der Gefängnisaufseherin Charlotte Schanuel. Diese wurde 1946 seine erste Frau, was Honecker jedoch zeitlebens unerwähnt ließ.
Am 6. März 1945 flohen Honecker und der Mithäftling Erich Hanke auf hoch riskante Weise über den Dachfirst des Frauengefängnisses wohl vor der doppelten Gefahr, entweder als politische Häftlinge in letzter Kriegsstunde liquidiert zu werden oder wie andere „zur Bewährung als Deutsche“ noch in einen todbringenden Fronteinsatz gepresst zu werden. In notdürftig umgearbeiteter Häftlingskleidung durchstreiften beide – in steter Gefahr aufzufliegen – Straßenzüge Lichtenbergs und Neuköllns auf langer, vergeblicher Suche nach einem Unterschlupf bei Bekannten, die entweder nicht vor Ort oder deren Wohnungen ausgebombt waren. Schließlich ergab sich – bei Gefahr, ein ganzes konspiratives Untergrundnetz auffliegen zu lassen – eine Zuflucht in Neukölln für eine Nacht, und eine weitere Nacht bei einem Onkel Hankes. Danach musste sich Honecker allein durch die ihm fremde Stadt schlagen und beschloss, sich am Wohnort Charlotte Schanuels und ihrer Mutter („Oma Grund“) in der Landsberger Straße 37 unweit des Frauengefängnisses zu verstecken. Nach einer Woche erschien aber auch dort seine Lage so unhaltbar, dass er, wohl aus Furcht vor Entdeckung und Auslieferung an die Gestapo, den Weg zurück ins Frauengefängnis antrat und dort, unterstützt von Charlotte Schanuel und dem zuständigen Staatsanwalt Kolb – der Honeckers Einsatz vom 26. Februar gewürdigt hatte – straflos wieder aufgenommen wurde.
Befreiung, Kontakte zur kommunistischen Führung und erste Ehe.
Als am 21. April 1945 bei der Schlacht um Berlin die Panzer der Roten Armee die östliche Stadtgrenze Berlins erreichten, verließ Honeckers Baukolonne das Frauengefängnis in Friedrichshain, um über das Zuchthaus Plötzensee den Rückweg nach Brandenburg-Görden anzutreten, wo sie am 23. April eintraf. Nach der Befreiung des Zuchthauses durch einen Panzer der Roten Armee am 27. April machte sich Honecker ohne Rücksicht auf seine kommunistischen Genossen unter den Häftlingen, die erst am Folgetag geschlossen zum Marsch nach Berlin aufbrachen, in Begleitung des Mithäftlings Alfred Perl auf den Weg zu Charlotte Schanuel und ihrer Mutter. Dieses Handeln abseits von Partei- und Genossensolidarität bereitete Honecker später innerparteiliche Schwierigkeiten und belastete sein Verhältnis zu ehemaligen Mithäftlingen. Gegenüber der Öffentlichkeit verfälschte Honecker das Geschehen in seinen Lebenserinnerungen und in Interviews.
Die beiden eilig Aufgebrochenen kamen nicht weit, sondern wurden von polnischen und sowjetischen Militärs aufgegriffen und in Richtung Brandenburg zurückgeführt, wo sich ihre Wege trennten. Honecker wurde nach eigenen Angaben Berater des Komsomolsekretärs der Armeeeinheit, die ihn abgefangen hatte, und begleitete diesen bei dienstlichen Fahrten unter anderem nach Oranienburg und Bernau bei Berlin, wo er am 4. Mai in die Freiheit entlassen wurde und zu Fuß über Berlin-Weißensee noch am Abend bei den Schanuels in der Landsberger Straße 37 ankam.
Erste politische Nachkriegsaktivitäten Honeckers galten nach eigener Auskunft der Sammlung von Mitgliedern der KPD und des Kommunistischen Jugendverbands vor Ort in Friedrichshain sowie der Beschaffung von Flaggen der Siegermächte zur Ausschmückung der Landsberger Straße anlässlich der deutschen Gesamtkapitulation am 8. Mai 1945. Zwei Tage später begegnete Honecker in der Politischen Hauptverwaltung der Roten Armee in Berlin-Lichtenberg zufällig Richard Gyptner, der ihn in die Gruppe Ulbricht einführte, wo er auch alte Bekannte wie Hans Mahle und Grete Keilson traf. Durch Waldemar Schmidt wurde er mit Walter Ulbricht bekannt gemacht. Über die zukünftige Funktion Honeckers fiel bis zum Sommer 1945 noch keine Entscheidung, da er sich einem Parteiverfahren stellen musste, das mit einer strengen Rüge endete. Zur Sprache kam dabei auch seine Flucht aus dem Zuchthaus Anfang 1945. Doch berief man ihn im April 1946 in den achtzigköpfigen Parteivorstand; bald darauf wurde er Gründungsvorsitzender der FDJ. Die Zwangsvereinigung von SPD und KPD im April 1946 begründete Honeckers Mitgliedschaft in der SED.
Wegen seiner Beziehung mit Charlotte Schanuel, die er zu verbergen suchte, blieb Honecker anders als die anderen Führungskader, die im Hauptquartier der Gruppe Ulbricht konzentriert waren, in der Landsberger Straße 37 wohnen. Am 23. Dezember 1946 fand auf dem Standesamt Berlin-Mitte die Eheschließung statt, bei der nicht etwa politische Gesinnungsfreunde Honeckers als Trauzeugen fungierten, sondern zwei Strafvollzugsaufseherinnen, Kolleginnen von Charlotte Schanuel. Doch bereits knapp ein halbes Jahr später verstarb Honeckers erste Frau am 6. Juni 1947 im St.-Joseph-Krankenhaus in Berlin-Weißensee.
Karriere in der DDR.
Anlauf zur Macht.
In der im Oktober 1949 gegründeten DDR setzte Honecker seine politische Karriere zielstrebig fort. Als FDJ-Vorsitzender organisierte er 1950, 1954 und 1964 die drei Deutschlandtreffen der Jugend in Ost-Berlin und wurde einen Monat nach dem ersten Deutschlandtreffen als Kandidat ins Politbüro des ZK der SED aufgenommen. Er war ein ausgesprochener Gegner kirchlicher Jugendgruppen. In den innerparteilichen Auseinandersetzungen nach dem Aufstand vom 17. Juni 1953 stellte er sich gemeinsam mit Hermann Matern offen an die Seite Ulbrichts, den die Mehrheit des Politbüros um Rudolf Herrnstadt zu stürzen versuchte. Fortan genoss er Ulbrichts Vertrauen. Am 27. Mai 1955 gab er den FDJ-Vorsitz an Karl Namokel ab. Von 1955 bis 1957 hielt er sich zu Schulungszwecken in Moskau auf und erlebte den XX. Parteitag der KPdSU einschließlich der Geheimrede Chruschtschows zur Entstalinisierung mit. Nach seiner Rückkehr wurde er 1958 Mitglied des Politbüros, wo er die Verantwortung für Militär- und Sicherheitsfragen übernahm, und 1960 Sekretär des Nationalen Verteidigungsrates der DDR (NVR). Als Sekretär für Sicherheitsfragen des ZK der SED war er der maßgebliche Organisator des Baus der Berliner Mauer im August 1961 und trug in dieser Funktion den Schießbefehl an der innerdeutschen Grenze mit.
Auf dem 11. Plenum des ZK der SED, das im Dezember 1965 tagte, griff er als einer der Wortführer verschiedene Kulturschaffende wie die Regisseure Kurt Maetzig und Frank Beyer scharf an, denen er „Unmoral“, „Dekadenz“, „spießbürgerlichen Skeptizismus“ und „Staatsfeindlichkeit“ vorwarf. In diese Kritik bezog er auch die kulturpolitisch Verantwortlichen der SED mit ein, ohne sie allerdings namentlich zu nennen: Sie hätten „keinen prinzipiellen Kampf gegen die […] aufgezeigten Erscheinungen geführt“. Das Plenum beendete die Ansätze einer kulturpolitischen Liberalisierung der DDR, die sich nach dem VI. Parteitag der SED im Januar 1963 gezeigt hatten.
Generalsekretär des Zentralkomitees der SED.
Während Ulbricht mit dem Neuen Ökonomischen System der Planung und Leitung die Wirtschaftspolitik ins Zentrum gerückt hatte, um damit den Aufbau und die technologische und systemorientierte Weiterentwicklung der ökonomischen Basis voranzubringen, deklarierte Honecker die „Einheit von Wirtschafts- und Sozialpolitik“ zur Hauptaufgabe und leitete damit einen wirtschaftspolitischen Paradigmenwechsel ein. Es kam zum Machtkampf. Um sich seines Rivalen vor dem VIII. Parteitag 1971 zu entledigen, ließ Ulbricht Honecker auf einer außerordentlichen Politbürositzung am 1. Juli 1970 überraschend von der inoffiziellen Funktion des Leiters des Sekretariats des ZK suspendieren. Honecker wandte sich daraufhin hilfesuchend an die Sowjets. Leonid Breschnew, zu dem er ein gutes Verhältnis pflegte, ließ den nicht mit ihm abgestimmten Beschluss auf der Politbürositzung am 7. Juli 1970 rückgängig machen. Damit war die Machtfrage im Grunde entschieden. Nachdem sich Honecker nochmals der Unterstützung durch die sowjetische Führung vergewissert hatte, unterschrieben 13 von 20 Mitgliedern und Kandidaten des Politbüros einen unter Honeckers Federführung verfassten und auf den 21. Januar 1971 datierten Brief an Breschnew, in dem sie Ulbrichts Absetzung forderten.
Am 26. April 1971 fuhr Honecker, begleitet von mit Maschinenpistolen bewaffneten Personen der „Hauptabteilung Personenschutz“, zum Sommersitz Ulbrichts nach Groß Dölln. Dort ließ er alle Tore und Ausgänge besetzen, die Telefonleitungen kappen und zwang Ulbricht, ein Rücktrittsgesuch an das Zentralkomitee zu unterschreiben. Als Vorwand für die Entmachtung wurden öffentlich gesundheitliche Probleme Ulbrichts angeführt. Honecker wurde am 3. Mai 1971 als Nachfolger Ulbrichts "Erster Sekretär" (ab 1976 "Generalsekretär") des Zentralkomitees der SED. Wirtschaftliche Probleme und Unmut in den Betrieben und in der Partei spielten eine große Rolle bei diesem Machtwechsel. Nachdem er 1971 auch im NVR als Vorsitzender Ulbrichts Nachfolge angetreten hatte, wählte ihn die Volkskammer drei Jahre nach Ulbrichts Tod am 29. Oktober 1976 schließlich auch zum Vorsitzenden des Staatsrats.
Damit hatte Honecker die höchsten Staatsämter in Personalunion inne. Von nun an entschied er gemeinsam mit dem SED-Chefideologen, Kurt Hager, dem ZK-Sekretär für Wirtschaftsfragen, Günter Mittag, und dem Minister für Staatssicherheit, Erich Mielke, alle maßgeblichen Fragen. Bis zum Oktober 1989 stand die „kleine strategische Clique“ aus diesen vier Männern unangefochten an der Spitze der herrschenden Klasse der DDR, der zunehmend vergreisenden Monopolelite der etwa 520 Staats- und Parteifunktionäre. Nach Martin Sabrow erlangte Honecker gemeinsam mit diesen dreien eine „Machtfülle wie kein anderer Herrscher in der jüngeren deutschen Geschichte, Ludendorff und Hitler eingeschlossen“, weshalb er ihn als „Diktator“ beschreibt. Unter Honecker entwickelte sich das Politbüro rasch zu einem Kollektiv von kritiklosen, unterwürfigen Vollstreckern und Ja-Sagern. Honecker beantwortete Eingaben von Bürgern immer schnell, weshalb ihn Sabrow in Anlehnung an den aufgeklärten Absolutismus als „obersten Kümmerer seines Staats“ bezeichnet.
Honeckers engster persönlicher Mitarbeiter war der ZK-Sekretär für Agitation und Propaganda, Joachim Herrmann. Mit ihm führte er tägliche Besprechungen über die Medienarbeit der Partei, in denen auch das Layout des Neuen Deutschlands und die Abfolge der Meldungen in der Aktuellen Kamera festgelegt wurden. Auf schlechte Nachrichten über den Zustand der Wirtschaft reagierte er, indem er etwa 1978 das "Institut für Meinungsforschung" schließen ließ.
Große Bedeutung maß Honecker auch dem Feld der Staatssicherheit bei, das er einmal in der Woche jeweils nach der Sitzung des Politbüros mit Erich Mielke durchsprach. Honeckers langjährige Sekretärin war Elli Kelm.
Während seiner Amtszeit wurde der Grundlagenvertrag mit der Bundesrepublik Deutschland ausgehandelt. Außerdem nahm die DDR an den KSZE-Verhandlungen in Helsinki teil und wurde als Vollmitglied in die UNO aufgenommen (→ Deutschland in den Vereinten Nationen). Diese diplomatischen Erfolge gelten als die größten außenpolitischen Leistungen Honeckers.
Am 31. Dezember 1982 versuchte der Ofensetzer Paul Eßling, die Autokolonne Honeckers zu rammen, was in westlichen Medien als Attentat dargestellt wurde.
Innenpolitisch zeichnete sich anfangs eine Liberalisierungstendenz vor allem im Bereich der Kultur und Kunst ab, die aber weniger durch den Personalwechsel von Walter Ulbricht zu Erich Honecker hervorgerufen wurde, sondern Propagandazwecken im Rahmen der 1973 ausgetragenen X. Weltfestspiele der Jugend und Studenten diente. Nur wenig später erfolgten die Ausbürgerung von Regimekritikern wie Wolf Biermann und die Unterdrückung innenpolitischen Widerstands durch das Ministerium für Staatssicherheit. Zudem setzte Honecker sich für den weiteren Ausbau der innerdeutschen Staatsgrenze mit Selbstschussanlagen und den rücksichtslosen Schusswaffengebrauch bei Grenzdurchbruchsversuchen ein. 1974 sagte er dazu: „es sind die Genossen, die die Schußwaffe erfolgreich angewandt haben, zu belobigen.“ Wirtschaftspolitisch wurde unter Honecker die Verstaatlichung und Zentralisierung der Wirtschaft vorangetrieben. Neuere ökonomische und systemtheoretische Erkenntnisse in den Bereichen Heuristik, ökonomische Kybernetik, Operationsforschung und Organisationsentwicklung wurden aus ideologischen Gründen abgelehnt und verworfen, auch wenn damit erhebliche Nachteile in der wirtschaftlichen Entwicklung verbunden waren. Die schwierige wirtschaftliche Lage zwang zur Aufnahme von Milliardenkrediten von der Bundesrepublik Deutschland, um den Lebensstandard halten zu können.
Honeckers erster Staatsbesuch im westlichen Ausland führte ihn 1980 nach Österreich.
Die Londoner Financial Times sah Honecker 1981 auf der Höhe seiner Popularität und stellt diesen Vergleich zum damaligen Bundeskanzler auf:
1981 empfing er Bundeskanzler Helmut Schmidt im Jagdhaus Hubertusstock am Werbellinsee. Honeckers Einschätzung, die DDR habe „wirtschaftlich Weltklasseniveau erreicht und gehöre zu den bedeutendsten Industrienationen der Welt“, kommentierte Schmidt später mit dem Verdikt vom „Mann von beschränkter Urteilskraft“. Trotz der Wirtschaftsprobleme brachten Honecker die 1980er Jahre vermehrte internationale Anerkennung, insbesondere, als er am 7. September 1987 die Bundesrepublik Deutschland besuchte und von Bundeskanzler Helmut Kohl in Bonn empfangen wurde. Auf seiner Reise durch die Bundesrepublik kam er nach Düsseldorf, Wuppertal, Essen, Trier, Bayern sowie am 10. September in seinen Geburtsort im Saarland. In einer emotionalen Rede sagte Honecker in Wiebelskirchen: „… dann wird auch der Tag kommen, an dem Grenzen uns nicht mehr trennen, sondern Grenzen uns vereinen“, was bei den in Berlin verbliebenen Mitgliedern der DDR-Führung für Verstörung sorgte und den damaligen sowjetischen Botschafter in der DDR, Wjatscheslaw Iwanowitsch Kotschemassow, innerhalb von zwei Stunden zu einer Mitteilung nach Moskau veranlasste, dass „Honecker seltsame Dinge von sich gebe“. Diese Reise war seit 1983 geplant gewesen, war jedoch damals von der sowjetischen Führung blockiert worden, da man dem deutsch-deutschen Sonderverhältnis misstraute. 1988 war Honecker unter anderem auf Staatsbesuch in Paris. Sein großes Ziel, das er aber nicht mehr erreichte, war ein offizieller Besuch in den USA. Er setzte deshalb in den letzten Jahren der DDR auf ein positives Verhältnis zum Jüdischen Weltkongress als möglichem „Türöffner“.
Sturz und Rücktritt.
Auf dem Gipfeltreffen des Warschauer Paktes in Bukarest am 7. und 8. Juli 1989 im Rahmen des „Politisch-Beratenden Ausschusses“ der RGW-Staaten des Warschauer Paktes gab die Sowjetunion offiziell die Breschnew-Doktrin der begrenzten Souveränität der Mitgliedsstaaten auf und verkündete die „Freiheit der Wahl“: Die Beziehungen untereinander sollten künftig, wie es im Bukarester Abschlussdokument heißt, „auf der Grundlage der Gleichheit, Unabhängigkeit und des Rechtes eines jeden Einzelnen, selbstständig seine eigene politische Linie, Strategie und Taktik ohne Einmischung von außen auszuarbeiten“ entwickelt werden. Die sowjetische Bestandsgarantie für die Mitgliedsstaaten war damit in Frage gestellt. Honecker musste seine Teilnahme an dem Treffen abbrechen; am Abend des 7. Juli 1989 wurde er mit schweren Gallenkoliken in das rumänische Regierungskrankenhaus eingeliefert und dann nach Berlin ausgeflogen. Im Regierungskrankenhaus Berlin-Buch entfernte man ihm am 18. August 1989 die Gallenblase und einen Abschnitt des Dickdarms. Während der Operation wurde ein Nierentumor entdeckt, doch die Ärzte wagten es nicht, Honecker darüber zu unterrichten. Erst im September 1989 tauchte Honecker abgemagert und vergreist wieder im Politbüro auf. Währenddessen leitete Günter Mittag die wöchentlichen Sitzungen des Politbüros. Lediglich im August 1989 nahm Honecker einige Termine wahr. So zitierte er am 14. August 1989 bei der Übergabe der ersten Funktionsmuster von 32-Bit-Prozessoren durch das Kombinat Mikroelektronik Erfurt den Slogan: "„Den Sozialismus in seinem Lauf hält weder Ochs noch Esel auf.“"
Aber in den Städten der DDR wuchsen Zahl und Größe der Demonstrationen, und auch die Zahl der DDR-Flüchtlinge über die bundesdeutschen Botschaften in Prag und Budapest und über die Grenzen der „sozialistischen Bruderstaaten“ nahm stetig zu, monatlich waren es mehrere Zehntausend. Die ungarische Regierung öffnete am 19. August 1989 an einer Stelle und am 11. September 1989 überall die Grenze zu Österreich, die von Zehntausenden von DDR-Bürgern zur Flucht in die Bundesrepublik genutzt wurde. Die ČSSR erklärte den Zustrom der DDR-Flüchtlinge für inakzeptabel. Am 3. Oktober 1989 schloss die DDR faktisch ihre Grenzen zu den östlichen Nachbarn, indem sie den visafreien Reiseverkehr in die ČSSR aussetzte; ab dem nächsten Tag wurde diese Maßnahme auch auf den Transitverkehr nach Bulgarien und Rumänien ausgedehnt. Nun war die DDR nicht nur wie bisher durch den Eisernen Vorhang nach Westen abgeriegelt, sondern auch noch gegenüber den meisten Staaten des Ostblocks. Proteste von DDR-Bürgern bis hin zu Streikandrohungen aus den grenznahen Gebieten zur ČSSR waren die Folge.
Die Beziehung zwischen Honecker und dem Generalsekretär der KPdSU und Präsidenten der UdSSR Gorbatschow war schon seit Jahren gespannt: Honecker hielt dessen Politik der Perestroika und Kooperation mit dem Westen für falsch und fühlte sich von ihm speziell in der Deutschlandpolitik hintergangen. Er sorgte dafür, dass offizielle Texte der UdSSR, vor allem solche zum Thema Perestroika, in der DDR nicht mehr veröffentlicht oder in den Handel gebracht werden durften. Am 6. und 7. Oktober 1989 fanden die Staatsfeierlichkeiten zum 40. Jahrestag der DDR in Anwesenheit von Michail Gorbatschow statt, der mit „Gorbi, Gorbi, hilf uns“-Rufen begrüßt wurde.
Am Ende einer Krisensitzung am 10. und 11. Oktober 1989 forderte das SED-Politbüro Honecker auf, bis Ende der Woche einen Lagebericht abzugeben, der geplante Staatsbesuch in Dänemark wurde abgesagt und eine Erklärung veröffentlicht, die Egon Krenz gegen den Widerstand Honeckers durchgesetzt hatte. Ebenfalls überwiegend auf Initiative von Krenz folgten in den nächsten Tagen Besprechungen und Sondierungen zu der Frage, Honecker zum Rücktritt zu bewegen. Krenz sicherte sich die Unterstützung von Armee und Stasi und arrangierte ein Treffen zwischen Michail Gorbatschow und Politbüromitglied Harry Tisch, der den Kremlchef am Rande eines Moskaubesuchs einen Tag vor der Sitzung über die geplante Absetzung Honeckers informierte. Gorbatschow wünschte viel Glück, das Zeichen, auf das Krenz und die anderen gewartet hatten. Auch SED-Chefideologe Kurt Hager flog am 12. Oktober 1989 nach Moskau und besprach mit Gorbatschow die Modalitäten der Honecker-Ablösung. Hans Modrow dagegen wich einer Anwerbung aus.
Die für Ende November 1989 geplante Sitzung des ZK der SED wurde auf Ende der Woche vorgezogen, dringendster Tagesordnungspunkt: die Zusammensetzung des Politbüros. Per Telefon versuchten Krenz und Erich Mielke am Abend des 16. Oktober, weitere Politbüromitglieder für die Absetzung Honeckers zu gewinnen. Zu Beginn der Sitzung des Politbüros vom 17. Oktober 1989 fragte Honecker routinemäßig: „Gibt es noch Vorschläge zur Tagesordnung?“ Willi Stoph meldete sich und schlug als ersten Punkt der Tagesordnung vor: „Entbindung des Genossen Honecker von seiner Funktion als Generalsekretär und Wahl von Egon Krenz zum Generalsekretär“. Honecker schaute zuerst regungslos, fasste sich aber rasch wieder: „Gut, dann eröffne ich die Aussprache.“ Nacheinander äußerten sich alle Anwesenden, doch keiner machte sich für Honecker stark. Günter Schabowski erweiterte sogar den Antrag und forderte die Absetzung Honeckers auch als Staatsratsvorsitzender und Vorsitzender des Nationalen Verteidigungsrates. Auch Günter Mittag rückte von ihm ab. Alfred Neumann wiederum forderte die Ablösung von Günter Mittag und Joachim Herrmann. Angeblich soll Erich Mielke schließlich Honecker für fast alle aktuellen Missstände in der DDR verantwortlich gemacht und Honecker schreiend gedroht haben, kompromittierende Informationen, die er besitze, herauszugeben, falls Honecker nicht zurücktrete. Nach drei Stunden fiel der einstimmige Beschluss des Politbüros. Honecker votierte, wie es Brauch war, für seine eigene Absetzung. Dem ZK der SED wurde vorgeschlagen, Honecker, Mittag und Herrmann von ihren Funktionen zu entbinden.
Bei der ZK-Sitzung am folgenden Tag waren 206 Mitglieder und Kandidaten anwesend. Lediglich 16 fehlten, darunter Margot Honecker. Das ZK folgte der Empfehlung des Politbüros. Die einzige Gegenstimme kam von der 81-jährigen Hanna Wolf, der früheren Direktorin der Parteihochschule „Karl Marx“. Öffentlich hieß es: „Das ZK hat der Bitte Erich Honeckers entsprochen, ihn aus gesundheitlichen Gründen von der Funktion des Generalsekretärs, vom Amt des Staatsratsvorsitzenden und von der Funktion des Vorsitzenden des Nationalen Verteidigungsrates der DDR zu entbinden.“ Egon Krenz wurde per Akklamation einstimmig zum neuen Generalsekretär der SED gewählt. Am 20. Oktober 1989 musste auch Margot Honecker von ihren Ämtern zurücktreten.
Aspekte des Privatlebens.
Honecker war dreimal verheiratet. Nachdem Gertrud Margarete Charlotte Schanuel, geb. Drost (* 30. April 1903 in Berlin) im Juni 1947 an den Folgen eines Hirntumors verstorben war, kam er seiner FDJ-Stellvertreterin Edith Baumann bei einer Moskau-Reise im Sommer 1947 näher. Sie heirateten im Dezember 1949; die gemeinsame Tochter Erika wurde 1950 geboren. Diese heiratete später den deutlich älteren Diplomaten Karl Wildau, der die DDR als Botschafter in mehreren Ländern vertrat.
Im Dezember 1949 hatte Honecker in Moskau Margot Feist, damals Leiterin der "Pionierorganisation Ernst Thälmann", anlässlich der Feier zum 70. Geburtstag Josef Stalins näher kennengelernt und begann mit ihr eine Affäre. Nachdem sie im Dezember 1952 eine uneheliche Tochter, Sonja (1952–2022), von Honecker bekommen hatte, erfolgte 1953 unter Druck Ulbrichts die Scheidung Honeckers von Edith Baumann. Baumann, die mehr an Honecker hing als er an ihr, hatte zuvor Ulbricht in einem Brief ersucht, das Eindringen von Margot Feist in die Ehe mit Honecker zu unterbinden. Honecker ging erst Jahre später seine dritte Ehe mit Margot Feist ein.
Sonja Honecker heiratete den Chilenen Leonardo Yáñez Betancourt. Das Paar bekam einen Sohn, den 1974 geborenen Roberto Yáñez Betancourt, sowie eine Tochter, die 1988 geborene Vivian. Eine weitere Enkelin, Mariana, starb 1988 im Alter von zwei Jahren, was Honecker laut Sabrow schwer traf. 1993 wurde die Ehe geschieden. Sein Enkel Roberto schildert Honecker als fürsorglichen Großvater, der die Wochenenden regelmäßig mit seinem Enkel verbrachte und viel mit ihm unternahm. Margot Honecker starb 22 Jahre nach ihrem Mann im Exil in Santiago de Chile; ihre Enkel leben weiterhin in dem südamerikanischen Land.
Honeckers Hobby war die Jagd (vgl. Jagd in der DDR). Er war passionierter Jäger geworden, nachdem Klement Gottwald ihm noch als FDJ-Chef ein Jagdgewehr geschenkt hatte. Bald nach seinem Amtsantritt im Politbüro richtete Honecker die "Inspektion Staatsjagd" ein, eine Arbeitsgruppe, die zentral Bauvorhaben und Einweisungen der Jagdgäste in den Staatsjagd- und Diplomatenjagdgebieten vornahm. Das Jagdhaus Hubertusstock in der Schorfheide wurde Schauplatz von Besuchen westlicher Politiker und Manager. Seine eigene Jagdresidenz wurde das Jagdhaus Wildfang, in dem er mehrere Male pro Woche war. Honeckers Jagdpassion stand in Aufwand und Ausübung der Jagd in der systemübergreifenden Tradition – in der Schorfheide insbesondere in der von Wilhelm II. und Hermann Göring; er ging zuletzt am 8. November 1989 zur Jagd.
Die Memoiren.
Unter dem Titel "Aus meinem Leben" erschienen 1980 Honeckers Memoiren, ein für damalige Verhältnisse noch recht ungewöhnlicher Vorgang. Denn bei einem Vertreter der kommunistischen Idee in politischer Führungsfunktion hatte das Persönliche üblicherweise gegenüber seinen Aufgaben und der Rolle der Partei zurückzutreten, auch im „Leseland DDR“. Für eine solche Publikation mochte aus Sicht der SED-Führung sprechen, „dass alle Mittel der Diskurskontrolle des SED-Staats nicht gereicht hatten, um die umlaufenden Versionen und verstreut dokumentierten Zeitzeugenerinnerungen in eine kohärente Lebenserzählung Erich Honeckers zu integrieren und die sich zwischen ihnen auftuenden Widersprüche glaubwürdig aufzulösen“.
Den Anstoß für das Projekt gab der britische Printmedien-Unternehmer Robert Maxwell, der für eine Publikationsreihe "Leaders of the World" zuvor bereits autobiographisch angelegte Porträts von Leonid Breschnew und Morarji Desai herausgebracht hatte und Jimmy Carter und Helmut Schmidt als weitere Autoren ankündigte. Breschnew als Vorreiter machte den ansonsten kaum akzeptablen westlichen Verlag für den SED-Parteiapparat salonfähig, zumal die Medienpolitik in der Ära Honecker vermehrt auf die internationale Öffentlichkeit zielte und sich damit zugleich ihrer eigenen Glaubwürdigkeit versicherte „durch Bezugnahme auf den westlichen Gegner, dessen Denken sie unablässig als irreführend bekämpfte“.
Mit der Ausarbeitung der einzelnen Buchkapitel war das Institut für Marxismus-Leninismus (IML) beauftragt, wobei jeweils fertige Teile Honecker vorzulegen waren, der nur die Kapitel zur eigenen Jugendgeschichte bis zum Kriegsende selbst verfasste. So trugen letztlich nur die ersten neun von vierunddreißig Kapiteln des Werkes „nach Erzählhaltung und Schreibstil den Charakter persönlicher Erinnerungen, während sich die übrigen Abschnitte kaum verhüllt als eben die thematischen Rechenschaftsberichte des Parteiapparats zu unterschiedlichen Politikfeldern präsentierten, die sie ja tatsächlich auch waren“.
Nach der Entmachtung.
Strafverfolgung und Flucht nach Moskau.
Die Volkskammer der DDR setzte Mitte November 1989 einen Ausschuss zur Untersuchung von Korruption und Amtsmissbrauch ein, dessen Vorsitzender am 1. Dezember 1989 Bericht erstattete. Er warf den bisherigen SED-Machthabern umfassenden Missbrauch öffentlicher Ämter zu privaten Zwecken vor. Honecker habe zudem seit 1978 jährliche Zuwendungen von rund 20.000 Mark durch die Bauakademie der DDR erhalten. Die Staatsanwaltschaft der DDR leitete daraufhin strafrechtliche Ermittlungen gegen 30 ehemalige DDR-Spitzenfunktionäre ein, unter ihnen zehn Mitglieder des Politbüros. Die meisten davon kamen in Untersuchungshaft, so am 3. Dezember 1989 auch Honeckers Wandlitzer Nachbarn Günter Mittag und Harry Tisch wegen persönlicher Bereicherung und Vergeudung von Volksvermögen. Am selben Tag wurde Honecker vom ZK aus der SED ausgeschlossen. Er schloss sich daraufhin der 1990 neu gegründeten „Kommunistischen Partei Deutschlands“ an, deren Mitglied er von 1992 bis zu seinem Tod war.
Am 30. November 1989 wurde dem Ehepaar Honecker die Wohnung in Wandlitz gekündigt und am 7. Dezember 1989 durchsucht. Wegen der aufgeheizten Stimmung lehnten die Honeckers ein Wohnungsangebot am Bersarinplatz ab, beschwerten sich aber mehrfach, man habe sie obdachlos gemacht.
Am 5. Dezember 1989 wurde auch gegen ihn ein Ermittlungsverfahren eingeleitet. Honecker sei „verdächtig, seine Funktion als Vorsitzender des Staatsrates und des Nationalen Verteidigungsrates der DDR und seine angemaßte politische und ökonomische Macht als Generalsekretär des ZK der SED missbraucht“ und „seine Verfügungsbefugnisse als Generalsekretär des ZK der SED zum Vermögensvorteil für sich und andere missbraucht zu haben“. Federführend war bis Januar 1990 das Amt für Nationale Sicherheit (AfNS) der DDR, also der Nachfolger der Stasi, das hierzu einen „Maßnahmeplan im Ermittlungsverfahren gegen Erich Honecker“ erarbeitet hatte, später betrieb die Abteilung für Wirtschaftsstrafsachen beim Generalstaatsanwalt der DDR das Verfahren.
Am 6. Januar 1990 erfuhr Honecker nach einer erneuten Untersuchung durch eine Ärztekommission aus den Abendnachrichten der Aktuellen Kamera des DDR-Fernsehens, dass er Nierenkrebs hatte. Am 10. Januar 1990 entfernte der Urologe Peter Althaus einen pflaumengroßen Nierentumor. Am Abend des 28. Januar 1990 wurde Honecker in seinem Krankenzimmer der Charité festgenommen, am nächsten Tag in das Haftkrankenhaus des Gefängnisses Berlin-Rummelsburg eingeliefert und nach einem Tag wegen Haftunfähigkeit entlassen. Seit seiner Entmachtung erhielt er Unterstützung von Jassir Arafat; spätestens ab der Einlieferung ins Krankenhaus Anfang 1990 unterstützte die PLO ihn mit Geldspenden.
Rechtsanwalt Wolfgang Vogel wandte sich im Auftrag Honeckers an die Evangelische Kirche in Berlin-Brandenburg und bat um Hilfe. Pastor Uwe Holmer, Leiter der Hoffnungstaler Anstalten in Lobetal bei Bernau, bot daraufhin dem Ehepaar Unterkunft in seinem Pfarrhaus an. Althaus fuhr es noch am Abend des 30. Januar 1990 dorthin. Schon am selben Tag kam es zu Kritik und später zu Demonstrationen gegen die kirchliche Hilfe für das Ehepaar Honecker, da dieses Christen, die sich nicht dem SED-Regime angepasst hätten, benachteiligt hätte. Das Ehepaar wohnte dennoch – abgesehen von einer Unterbringung in einem Ferienhaus in Lindow, die im März 1990 schon nach einem Tag wegen politischer Proteste abgebrochen werden musste – bis zum 3. April 1990 weiter bei Holmers. Dann siedelte das Ehepaar Honecker in das sowjetische Militärhospital bei Beelitz über. Bei erneuten Untersuchungen auf Haftfähigkeit stellten dort die Ärzte bei Honecker die Verdachtsdiagnose eines bösartigen Lebertumors. Am 2. Oktober 1990, dem Vorabend der Deutschen Wiedervereinigung, wurden die wirtschaftsstrafrechtlichen Ermittlungsakten im Fall Erich Honecker von der Generalstaatsanwaltschaft der DDR an die der Bundesrepublik übergeben. Am 30. November 1990 erließ das Amtsgericht Tiergarten einen weiteren Haftbefehl gegen Honecker wegen des Verdachts, dass er den Schießbefehl an der innerdeutschen Grenze 1961 verfügt und 1974 bekräftigt habe. Der Haftbefehl war aber nicht vollstreckbar, da Honecker sich in Beelitz unter dem Schutz sowjetischer Stellen befand. Am 13. März 1991 wurde das Ehepaar nach vorheriger Information des Bundeskanzlers Kohl durch den sowjetischen Staatspräsidenten Gorbatschow mit einem sowjetischen Militärflugzeug von Beelitz nach Moskau ausgeflogen.
Auslieferung nach Deutschland.
Das Kanzleramt war durch die sowjetische Diplomatie über die bevorstehende Ausreise der Honeckers nach Moskau informiert worden. Die Bundesregierung beschränkte sich aber öffentlich auf den Protest, es liege bereits ein Haftbefehl vor, daher verstoße die Sowjetunion gegen die Souveränität der Bundesrepublik Deutschland und damit gegen Völkerrecht. Immerhin war zu diesem Zeitpunkt der Zwei-plus-Vier-Vertrag, der Deutschland die volle Souveränität zuerkennen sollte, vom Obersten Sowjet noch nicht ratifiziert. Erst am 15. März 1991 trat der Vertrag mit der Hinterlegung der sowjetischen Ratifizierungsurkunde beim deutschen Außenminister offiziell in Kraft. Von diesem Augenblick an wuchs der deutsche Druck auf Moskau, Honecker zu überstellen.
Zwischen Michail Gorbatschow und Honecker bestand ohnehin ein seit Jahren stetig schlechter werdendes Verhältnis, die UdSSR befand sich in der Auflösung. Den Augustputsch in Moskau überstand Gorbatschow nur geschwächt. Der neue starke Mann, Boris Jelzin, Präsident der russischen Teilrepublik RSFSR, verbot die KPdSU, deren Generalsekretär Gorbatschow war. Am 25. Dezember 1991 trat Gorbatschow als Präsident der Sowjetunion zurück. Die russische Regierung unter Jelzin forderte Honecker im Dezember 1991 auf, das Land zu verlassen, da andernfalls die Abschiebung erfolge. Am 11. Dezember 1991 flüchteten die Honeckers daher in die chilenische Botschaft in Moskau. Nach Erinnerung Margot Honeckers hatten zwar auch Nordkorea und Syrien Asyl angeboten, von Chile erhoffte man sich aber besonderen Schutz: Nach dem Militärputsch von 1973 unter Augusto Pinochet hatte die DDR unter Honecker vielen Chilenen, auch dem Botschafter Clodomiro Almeyda, Exil in der DDR gewährt, und Honeckers Tochter Sonja war mit einem Chilenen verheiratet. In Anspielung auf die DDR-Flüchtlinge in den bundesdeutschen Botschaften in Prag und Budapest wurde das Ehepaar Honecker ironisch „letzte Botschaftsflüchtlinge der DDR“ genannt. Chile allerdings wurde damals durch eine links-bürgerliche Koalition regiert, und die deutsche Bundesregierung äußerte, wenn Russland und Chile ihren Anspruch einlösen wollten, Rechtsstaaten zu sein, müsste Honecker, da mit Haftbefehl in Deutschland gesucht, in die Bundesrepublik überstellt werden. Am 22. Juli begründete der deutsche Botschafter Klaus Blech im russischen Außenministerium: „Nach Auffassung der deutschen Regierung verstößt die widerrechtliche Verbringung von Herrn Honecker gegen den Vertrag über die Bedingungen des befristeten Aufenthalts und die Modalitäten des planmäßigen Abzugs der sowjetischen Truppen aus dem Gebiet der Bundesrepublik Deutschland und gegen allgemeines Völkerrecht, weil sie dazu diente, eine wegen Anstiftung zur mehrfachen vorsätzlichen Tötung durch Haftbefehl gesuchte Person der Strafverfolgung zu entziehen.“
Allerdings war der bei Honecker bereits in Beelitz erhobene Verdacht auf Leberkrebs im Februar 1992 in Moskau durch eine Ultraschall-Untersuchung mit dem Befund „herdförmiger Befall der Leber – Metastase“ bestärkt worden. Drei Wochen später aber soll die grundsätzlich zuverlässigere Untersuchung durch ein Computertomogramm ergeben haben: „Werte für einen herdförmigen Befall der Leber wurden nicht festgestellt“. Nun wurde über Honecker verbreitet, er sei ein Simulant. Drei Tage später verkündete der russische Justizminister Fjodorow im deutschen Fernsehen, Honecker werde nach Deutschland überstellt, sobald er die Botschaft verlassen habe. Am 7. März 1992 hieß es, die chilenische Regierung korrigiere ihre Haltung im Fall Honecker, Botschafter Almeyda sei zur Berichterstattung nach Santiago beordert, man sei verärgert über seinen Versuch, mit offenbar manipulierten Berichten über den todkranken Honecker dessen Einreise nach Chile zu erreichen. Almeyda wurde von seinem Posten abberufen. Zwar protestierte am 18. März 1992 eine Gruppe von Ärzten aus dem russischen Parlament und machte geltend, es sei die März-Diagnose, die manipuliert worden sei. Aber für die Öffentlichkeit schien Honeckers altersgerecht guter Allgemeinzustand gegen eine Krebserkrankung zu sprechen. Im Juni 1992 sicherte der chilenische Präsident Patricio Aylwin schließlich Bundeskanzler Helmut Kohl zu, Honecker werde die Botschaft in Moskau verlassen. Die Russen ergänzten, sie sähen „keinen Grund“, von ihrer Entscheidung von Dezember 1991 abzurücken, „wonach Honecker nach Deutschland zurückzukehren hat“. Am 29. Juli 1992 wurde Erich Honecker nach Berlin ausgeflogen, wo er verhaftet und in die Justizvollzugsanstalt Moabit gebracht wurde. Margot Honecker dagegen reiste per Direktflug der Aeroflot von Moskau nach Santiago de Chile, wo sie zunächst bei ihrer Tochter Sonja unterkam und bis zu ihrem Tod am 6. Mai 2016 lebte.
Strafverfolgung.
Am 29. Juli 1992 wurde Honecker im Krankenhaus der Berliner Vollzugsanstalten in Berlin-Moabit in Untersuchungshaft genommen.
Die Schwurgerichtsanklage vom 12. Mai 1992 warf ihm vor, als Vorsitzender des Staatsrats und des Nationalen Verteidigungsrates der DDR gemeinsam mit mehreren Mitangeklagten, unter anderem Erich Mielke, Willi Stoph, Heinz Keßler, Fritz Streletz und Hans Albrecht, in der Zeit von 1961 bis 1989 am Totschlag von insgesamt 68 Menschen beteiligt gewesen zu sein, indem er insbesondere als Mitglied des NVR angeordnet habe, die Grenzanlagen um West-Berlin und die Sperranlagen zur Bundesrepublik auszubauen, um ein Passieren unmöglich zu machen. Insbesondere zwischen 1962 und 1980 habe er mehrfach Maßnahmen und Festlegungen zum weiteren pioniertechnischen Ausbau der Grenze durch Errichtung von Streckmetallzäunen zur Anbringung der Selbstschussanlagen und der Schaffung von Sicht- und Schussfeld entlang der Grenzsicherungsanlagen getroffen, um Grenzdurchbrüche zu verhindern. Außerdem habe er im Mai 1974 in einer Sitzung des NVR dargelegt, der pioniermäßige Ausbau der Staatsgrenze müsse weiter fortgesetzt werden, überall müsse ein einwandfreies Schussfeld gewährleistet werden und nach wie vor müsse bei Grenzdurchbruchsversuchen von der Schusswaffe rücksichtslos Gebrauch gemacht werden. „Die Genossen, die die Schusswaffe erfolgreich angewandt haben“, seien „zu belobigen“.
Diese Anklage wurde durch Beschluss des Landgerichts Berlin vom 19. Oktober 1992 unter Eröffnung des Hauptverfahrens zugelassen. Am gleichen Tag wurde das Verfahren hinsichtlich 56 der angeklagten Fälle abgetrennt, deren Verhandlung zurückgestellt wurde. Die verbliebenen 12 Fälle waren Gegenstand der am 12. November 1992 begonnenen Hauptverhandlung. Ebenfalls am 19. Oktober 1992 erließ die Strafkammer einen Haftbefehl hinsichtlich der verbliebenen zwölf Fälle.
Eine zweite Anklageschrift vom 12. November 1992 legte Honecker zur Last, in der Zeit von 1972 bis Oktober 1989 Vertrauensmissbrauch in Tateinheit mit Untreue zum Nachteil sozialistischen Eigentums begangen zu haben. Es handelte sich hierbei um Vorgänge im Zusammenhang mit der Versorgung und Betreuung der Waldsiedlung Wandlitz. In diesem Zusammenhang erging am 14. Mai 1992 ein weiterer Haftbefehl.
Der Prozess hatte nach Ansicht vieler Juristen einen ungewissen Ausgang, da umstritten war, nach welchen Gesetzen der Staatschef der untergegangenen DDR eigentlich verurteilt werden konnte. Auch mussten die Politiker der alten Bundesrepublik befürchten, ihrem „vormaligen Bankettgesellen“ (so der DDR-Schriftsteller Hermann Kant), den sie noch 1987 in Bonn, München und anderen Städten mit allen protokollarischen Ehren empfangen hatten, im Gerichtssaal gegenübergestellt zu werden.
In seiner am 3. Dezember 1992 vor Gericht vorgetragenen Erklärung übernahm Honecker zwar die politische Verantwortung für die Toten an Mauer und Stacheldraht, doch sei er „ohne juristische oder moralische Schuld“. Er rechtfertigte den Bau der Mauer damit, dass aufgrund des sich zuspitzenden Kalten Krieges die SED-Führung 1961 zu dem Schluss gekommen sei, dass anders ein „dritter Weltkrieg mit Millionen Toten“ nicht zu verhindern gewesen sei, betonte die Zustimmung der sozialistischen Führungen sämtlicher Ostblockstaaten zu dieser gemeinschaftlich getroffenen Entscheidung und verwies auf die Funktionen, die der DDR in seiner Amtszeit im UN-Weltsicherheitsrat trotz des Schießbefehls an der Mauer zugestanden worden seien. Im Weiteren führte er an, dass der Prozess gegen ihn aus rein politischen Motiven geführt werde, und verglich die 49 Mauertoten, deretwegen er angeklagt war, etwa mit der Anzahl der Opfer im von den USA geführten Vietnamkrieg oder der Selbstmordrate in westlichen Ländern. Die DDR habe bewiesen, „dass Sozialismus möglich und besser sein kann als Kapitalismus“. Öffentliche Kritik an Verfolgungen durch die Stasi tat er damit ab, dass auch der „Sensationsjournalismus“ in westlichen Ländern mit Denunziation arbeite und die gleichen Konsequenzen habe.
Honecker war zu dieser Zeit bereits schwer krank. Eine erneute Computertomographie am 4. August 1992 bestätigte die Moskauer Ultraschall-Untersuchung: Im rechten Leberlappen befand sich ein „fünf Zentimeter großer raumfordernder Prozess“, vermutlich eine Spätmetastase des Nierenkrebses, der Honecker im Januar 1990 in der Charité entfernt worden war. Daraufhin stellten Honeckers Anwälte Nicolas Becker, Friedrich Wolff und Wolfgang Ziegler den Antrag, das Verfahren, soweit es sich gegen Honecker richte, abzutrennen, einzustellen und den Haftbefehl aufzuheben. Das Verfahren sei eine Nagelprobe für den Rechtsstaat. Ihr Mandant leide an einer unheilbaren Krankheit, die entweder durch Ausschaltung der Leberfunktion direkt oder durch Metastasierung in anderen Bereichen zum Tode führe. Seine Lebenserwartung sei geringer als die auf mindestens zwei Jahre geschätzte Prozessdauer. Es sei zu fragen, ob es human sei, gegen einen Sterbenden zu verhandeln.
Den gestellten Antrag lehnte die Strafkammer mit Beschluss vom 21. Dezember 1992 ab. Das Landgericht führte in seiner Begründung aus, dass kein Verfahrenshindernis bestehe. Zwar habe sich die Einschätzung der voraussichtlich eintretenden Verhandlungsunfähigkeit aufgrund der aktualisierten schriftlichen Gutachten zeitlich verdichtet. Die Prognose des Eintritts der Verhandlungsunfähigkeit sei jedoch im Hinblick auf die Schwere und Bedeutung des Tatvorwurfs und des sich daraus ergebenden Gewichts der verfassungsrechtlich gebotenen Pflicht zur Strafverfolgung noch immer zu ungewiss, als dass eine sofortige Einstellung des Verfahrens zwingend geboten erscheine.
Die hiergegen eingelegte Beschwerde verwarf das Kammergericht durch Beschluss vom 28. Dezember 1992. Das Kammergericht kam jedoch zu dem Ergebnis, aufgrund der Stellungnahmen und Gutachten der medizinischen Sachverständigen sei davon auszugehen, dass infolge eines bösartigen Tumors im rechten Leberlappen Honeckers eine Verhandlungsfähigkeit mit hoher Wahrscheinlichkeit nicht mehr lange bestehen werde und Honecker mit an Sicherheit grenzender Wahrscheinlichkeit den Abschluss des Verfahrens nicht überleben werde. Das Kammergericht sah sich gleichwohl gehindert, das Verfahren selbst einzustellen, weil dies gemäß Abs. 3 StPO nach Beginn der Hauptverhandlung nur noch vom Landgericht durch Urteil ausgesprochen werden könne. Dementsprechend könne es auch den bestehenden Haftbefehl nicht aufheben, bevor das Landgericht über das Vorliegen eines Verfahrenshindernisses entschieden habe.
Hiergegen erhob Honecker Verfassungsbeschwerde vor dem Verfassungsgerichtshof des Landes Berlin. Honecker führte aus, die Entscheidungen verletzten sein Grundrecht auf Menschenwürde. Die Menschenwürde gelte als tragendes Prinzip der Verfassung auch gegenüber dem staatlichen Strafvollzug und der Strafjustiz uneingeschränkt. Die Fortführung eines Strafverfahrens und einer Hauptverhandlung gegen einen Angeklagten, von dem mit Sicherheit zu erwarten sei, dass er vor Abschluss der Hauptverhandlung und mithin vor einer Entscheidung über seine Schuld oder Unschuld sterben werde, verletze dessen Menschenwürde. Die Menschenwürde umfasse insbesondere das Recht eines Menschen, in Würde sterben zu dürfen.
Mit Beschluss vom 12. Januar 1993 entsprach der Verfassungsgerichtshof der Verfassungsbeschwerde Honeckers. Aufgrund der Feststellungen des Kammergerichts, wonach Honecker den Abschluss des Verfahrens mit an Sicherheit grenzender Wahrscheinlichkeit nicht mehr erleben werde, sei davon auszugehen, dass das Strafverfahren seinen gesetzlichen Zweck auf vollständige Aufklärung der Honecker zur Last gelegten Taten und gegebenenfalls Verurteilung und Bestrafung nicht mehr erreichen könne. Das Strafverfahren werde damit zum Selbstzweck, wofür es keinen rechtfertigenden Grund gäbe. Die Aufrechterhaltung des Haftbefehls verletze den Anspruch Honeckers auf Achtung seiner Menschenwürde. Der Mensch werde zum bloßen Objekt staatlicher Maßnahmen insbesondere dann, wenn sein Tod derart nahe sei, dass ein Strafverfahren seinen Sinn verloren habe.
Noch am selben Tag stellte das Landgericht Berlin das Verfahren nach StPO ein und hob den Haftbefehl auf. Den hiergegen von der Staatsanwaltschaft und den Nebenklägern erhobenen Beschwerden half das Landgericht nicht ab. Der Antrag auf Erlass eines neuen Haftbefehls wurde mit Beschluss vom 13. Januar 1993 abgelehnt.
Am 13. Januar 1993 lehnte das Landgericht Berlin in Bezug auf die Anklageschrift vom 12. November 1992 die Eröffnung des Hauptverfahrens ab und hob auch den zweiten Haftbefehl auf. Nach insgesamt 169 Tagen wurde Honecker aus der Untersuchungshaft entlassen, was Proteste von Opfern des DDR-Regimes nach sich zog.
Ausreise nach Chile.
Honecker flog unmittelbar darauf nach Santiago de Chile zu seiner Frau Margot und der gemeinsamen Tochter Sonja, die dort mit ihrem chilenischen Ehemann Leonardo Yáñez und ihren Kindern wohnte. Seine Mitangeklagten wurden dagegen am 16. September 1993 zu Freiheitsstrafen zwischen vier und siebeneinhalb Jahren verurteilt. Am 13. April 1993 wurde ein letzter zur Verfahrensbeschleunigung abgetrennter Prozess gegen Honecker in Abwesenheit des Angeklagten vom Berliner Landgericht ebenfalls eingestellt. Am 17. April 1993, dem 66. Geburtstag seiner Frau Margot, rechnete Honecker in einer Rede mit dem Westen ab und bedauerte seine Genossen, die noch im Gefängnis in Moabit saßen und „dem Klassenfeind trotzten“. Er schloss seine Rede mit den Worten: „Sozialismus ist das Gegenteil von dem, was wir jetzt in Deutschland haben. Sodass ich sagen möchte, dass unsere schönen Erinnerungen an die DDR viel aussagen von dem Entwurf einer neuen, gerechten Gesellschaft. Und dieser Sache wollen wir für immer treu bleiben.“
Tod und Beisetzung.
In den letzten Monaten musste Honecker künstlich ernährt werden. Am 29. Mai 1994 starb er im Alter von 81 Jahren in Santiago de Chile. Sein Leichnam wurde im Krematorium des Zentralfriedhofs von Santiago eingeäschert, die Urne nach der Trauerfeier von Margot Honecker wohl mit nach Hause genommen. Die Datenbank des Friedhofs nennt als Tag der Kremierung den 30. Mai 1994 und bestätigt die Mitnahme der Asche nach außerhalb. Nach Aussage des Honecker-Enkels Roberto Yáñez befindet sich die Urne noch im Besitz eines Freundes der Familie. Während Tochter Sonja die Asche ihrer Eltern dem Pazifik übergeben wolle, sei er selbst für eine Beisetzung in Deutschland.
Rezeptionsaspekte.
Lebenslauf.
Martin Sabrow findet erstaunlich, wie stark Honeckers „individuelle und generationelle Lebenserfahrung bei genauerem Hinsehen durch den unpersönlichen Charakter der SED-Herrschaft hindurchschimmert“. Er nimmt dabei speziell auf Honeckers Aufwachsen und frühes Wirken im Saarland Bezug und präsentiert zwei auf je eigene Weise plausible Lesarten von Honeckers Werdegang und Lebensgeschichte.
Einerseits lassen sich laut Sabrow Unstimmigkeiten und Misslingensaspekte in Honeckers Vita in einem „Demaskierungsgestus“ präsentieren: Honeckers Aufwachsen in eher kleinbürgerlichen Verhältnissen als nach klassisch proletarischem Muster; der bei den Nazis mittuende jüngere Bruder; Honeckers zwischenzeitliches Liebäugeln mit einer landwirtschaftlichen Existenz in Hinterpommern; das klägliche Scheitern im „Saarkampf“; das ungeschickte und die ganze Berliner Untergrundorganisation belastende Agieren im Zusammenhang mit seiner Verhaftung Ende 1935 durch die Gestapo; der hoch riskante und letztlich perspektivlose Fluchtversuch Anfang März 1945, bei dem er wiederum Genossen im Untergrund gefährdete; das eigenbrötlerische Vorgehen nach der Befreiung „unter anrüchigen persönlichen Umständen im Lebensumfeld seines eigenen Kerkerpersonals“.
Andererseits lasse sich ebenso plausibel eine Gegenrechnung im Sinne des auf Standfestigkeit angelegten „Typus der kommunistischen Herrscherbiographie“ aufmachen: Honeckers frühes, in der Familientradition angelegtes, uneigennütziges Engagement für die kommunistische Bewegung; der rasche Aufstieg zum Bezirksleiter Saar im kommunistischen Jugendverband; das mit Beginn der NS-Herrschaft unverzügliche Wirken im Widerstand; die nicht nachlassende Energie und Verantwortungsbereitschaft bei der nervenaufreibenden illegalen Verbandsarbeit bis zur Verhaftung nach fast drei Jahren; die auch nach langjähriger Haft in NS-Gefängnissen fortbestehende Treue zu der sein Leben bestimmenden Menschheitsidee.
Honeckers geistige Verankerung in der eigenen Jugendbiographie zeigte sich Sabrow zufolge auch 1989 und über seinen Sturz hinaus. Sein „lebensgeschichtlich bedingter Starrsinn gegenüber Veränderungen […] drückte sich in einer bemerkenswerten Unempfindlichkeit gegenüber der historischen Niederlage des Sozialismus aus“. Aufgrund eigener Erfahrung konnte er sich sagen, „dass die Verlierer von heute unfehlbar die Sieger von morgen seien“. Das aufbegehrende DDR-Volk schien ihm irregeführt, zumal er die leichte Manipulierbarkeit des Volkes als geschichtlich erwiesen behandelte. Ohne klare Führung durch eine marxistische Partei gehe es nun einmal nicht. Der Untersuchungsarzt im Moabiter Haftkrankenhaus hielt als Selbstcharakterisierung Honeckers fest: „Ich war Kommunist, bin Kommunist und werde Kommunist bleiben.“
Auftreten.
Honecker wird wie sein Vorgänger als Staats- und Parteichef, Ulbricht, von einigen Historikern als wenig charismatisch in seinen öffentlichen Auftritten und als nicht sonderlich redebegabt beschrieben, während ihm andere eine gewisse Rhetorik zugestehen. Vor allem seine Reden auf Parteitagen und bei diplomatischen Anlässen, die Kabarettisten und Satirikern außerhalb der DDR-Öffentlichkeit Vorlagen zu Parodien boten, wurden vielfach als im Stil ungelenk und hölzern beschrieben. In seiner Zeit als Generalsekretär wurde seine Haltung einmal als „fast unheimliche, einstudierte Unbeweglichkeit“ skizziert. Bei seinem Besuch 1987 im Saarland, dem Ort seiner Kindheit, sei die innere Erregung des ansonsten starr wirkenden, alten Mannes hingegen deutlich zu bemerken gewesen. Er habe auf dem Höhepunkt seiner Macht befindlich, bei dieser ersten Reise in die Bundesrepublik einen „ganz passablen Eindruck“ hinterlassen. Laut den Memoiren eines seiner von der Stasi gestellten Leibwächter verlor der abgeschirmt von der Bevölkerung lebende Honecker zunehmend den „Kontakt zur Realität“. Auch Michail Gorbatschow äußerte am 1. November 1989 in einem Gespräch mit Egon Krenz: „Genosse Erich Honecker habe sich offensichtlich für die Nummer 1 im Sozialismus, wenn nicht sogar in der Welt gehalten. Er habe nicht mehr real gesehen, was wirklich vorgehe.“ Auch wahrheitsgetreue Berichte der Staatssicherheit über massive Probleme in der Wirtschaft sollen von Honecker ärgerlich zurückgewiesen worden sein.
In Bild und Ton.
Honecker wurde zweimal auf Briefmarken abgebildet: in der DDR 1972 von der Deutschen Post gemeinsam mit Leonid Breschnew anlässlich des 25. Jahrestags der Gründung der Gesellschaft für Deutsch-Sowjetische Freundschaft; und 1984 von der Post Nordkoreas gemeinsam mit Kim Il-sung zu Ehren von dessen Besuch in der DDR.
Udo Lindenbergs größter kommerzieller Erfolg, der Song "Sonderzug nach Pankow", zur Melodie Chattanooga Choo Choo, richtete sich in ironischer Weise direkt an den damaligen Staatsratsvorsitzenden, thematisierte dessen mangelnde Lockerheit und erreichte in der DDR große Popularität. Um einen Konzertauftritt im Palast der Republik anzubahnen, schenkte er Honecker 1987 eine Lederjacke. Im Gegenzug erhielt er von Honecker, der in seiner Jugend beim Roten Frontkämpferbund Schalmei gespielt hatte, ein solches Instrument. Bei seinem Staatsbesuch 1987 in der Bundesrepublik Deutschland schenkte ihm Lindenberg eine E-Gitarre mit der Aufschrift „Gitarren statt Knarren“.
Dmitri Wrubels Graffito "Mein Gott, hilf mir, diese tödliche Liebe zu überleben" an der Berliner Mauer (Frühjahr 1990), das einen „Bruderkuss“ zwischen Leonid Breschnew und Erich Honecker thematisierte, wurde weltweit bekannt.
In dem die Ereignisse des Jahres 1989 in der DDR aufgreifenden dokumentarischen Fernsehfilm "Wer zu spät kommt – Das Politbüro erlebt die deutsche Revolution" von 1990 wird Honecker vom Schauspieler Hans Christian Blech verkörpert.
2017 wurde Erich Honecker in zwei Filmen dargestellt. Am 3. Oktober 2017 zeigte die ARD die Filmkomödie "Willkommen bei den Honeckers" mit Martin Brambach als Honecker. Kurze Zeit später erschien der Kinofilm "Vorwärts immer!", in dem Honecker vom Schauspieler Jörg Schüttauf dargestellt wird. Im Film "Honecker und der Pastor" (2022) von Jan Josef Liefers wird Honecker von Edgar Selge dargestellt.
In der Kunst.
Eine Statue von Honecker befindet sich auf dem Lehrpfad der unholdigen Personen.
Auszeichnungen und Ehrungen.
Honecker erhielt alle wichtigen Auszeichnungen der DDR, darunter den Karl-Marx-Orden, den Ehrentitel Held der DDR mit dazugehöriger Goldmedaille, den Vaterländischen Verdienstorden mit Ehrenspange, Banner der Arbeit, Held der Arbeit, und von der Sowjetunion als höchste Auszeichnung den Leninorden.
1981 wurde Honecker während seines Staatsbesuches in Japan die Ehrendoktorwürde der Nihon-Universität Tokio verliehen. Während eines Staatsbesuches in Mexiko im selben Jahr erhielt er die Ehrenbürgerschaft von Mexiko-Stadt. 1985 bekam Honecker vom IOC den Olympischen Orden in Gold. |
1269 | 1141235 | https://de.wikipedia.org/wiki?curid=1269 | Erika Eleniak | Erika Maya Eleniak (* 29. September 1969 in Glendale, Kalifornien) ist eine US-amerikanische Schauspielerin und ehemaliges Playmate. Sie wurde unter anderem durch die Rolle der "Shauni McClain" in der Fernsehserie "Baywatch" bekannt.
Leben und Leistungen.
Eleniaks Vater, der aus Kanada in die USA kam, um Schauspieler zu werden, spornte auch seine Tochter an, in diesem Bereich tätig zu werden. So trat sie bereits als Kind in verschiedenen Werbespots auf und arbeitete in den folgenden Jahren immer wieder als Werbemodel. Im Jahr 1982 trat sie erstmals in einem Film auf. In "E. T. – Der Außerirdische" spielte sie Elliots Klassenkameradin während der Frosch-Sezierungsszene, in welcher Elliot sie zum Schluss küsste. Nachdem sie in ihrer Highschool-Zeit Alkohol und andere Drogen nahm, schaffte sie es 1988, ihre Sucht zu besiegen und bekam verschiedene kleinere Rollen in Serien wie "Charles in Charge" und "Broken Angel".
1989 bemühte sie sich, Playmate zu werden, um ihrer stagnierenden Karriere Schwung zu verleihen. Ihr Plan ging auf, und nachdem sie in zwei Playboy-Ausgaben erschienen war, wurde ihr eine Hauptrolle in der neuen Serie "Baywatch" angeboten. Zwei Staffeln lang arbeitete sie bei der Erfolgsserie, bis sie sie aufgrund ihres Partners und Co-Stars Billy Warlock verließ und so Platz für Pamela Anderson schuf. Nach der Trennung von Warlock gelang ihr 1992 der bislang größte Erfolg: Neben Steven Seagal spielte sie in "" ein Playmate. Ein Jahr darauf wurde die Komödie "Die Beverly Hillbillies sind los!" veröffentlicht, die jedoch bei den Filmkritikern floppte. Ihr nächster Film "Chasers – Zu sexy für den Knast" von Regisseur Dennis Hopper war ebenfalls erfolglos.
In den Folgejahren versuchte sich Eleniak an verschiedenen Independent- und Fernsehfilmen. Ein weiterer Erfolg blieb ihr jedoch verwehrt.
Eleniak ist Mutter einer 2006 geborenen Tochter. |
1271 | 62997 | https://de.wikipedia.org/wiki?curid=1271 | Eiben | Die Eiben ("Taxus") bilden eine Pflanzengattung in der Familie der Eibengewächse (Taxaceae). Die zehn bis elf Arten sind hauptsächlich in den gemäßigten Gebieten der Nordhalbkugel verbreitet; in Europa ist die Europäische Eibe ("Taxus baccata") als einzige Art heimisch.
Die Eibe ist ein Baum, dem oft ein hohes Alter zugeschrieben wird, ohne dass es dafür Beweise gibt. Da die ältesten bekannten Eiben den größten Teil ihres Kernholzes durch Fäulnis verloren haben, ist eine Altersschätzung anhand von Baumringen meist nicht möglich. Es ist jedoch wahrscheinlich, dass auf den Britischen Inseln Eiben () vorkommen, die 2000 Jahre oder älter sind.
Beschreibung.
Vegetative Merkmale.
Eiben-Arten sind immergrüne Sträucher oder kleine bis mittelgroße Bäume. Junge Zweige besitzen anfangs eine grüne bis gelblich-grüne Rinde; an ihrem unteren Bereich kann man einige Knospenschuppen beobachten. Später wird die Rinde rötlich-braun, an älteren Ästen entwickelt sich eine schuppige, rötlich-braune Borke.
Die Nadeln sind spiralig am Zweig angeordnet, sind aber gescheitelt, so dass sie zweireihig angeordnet zu sein scheinen. Die linealischen, biegsamen Nadeln können gerade oder gebogen sein. Sie enden in einer kleinen aufgesetzten, aber nicht stechenden Spitze. Auf der Oberseite der Nadeln tritt die Mittelader hervor, auf der Unterseite befinden sich zwei helle Streifen mit den Stomata.
Generative Merkmale.
Eiben-Arten sind meist zweihäusig getrenntgeschlechtig (diözisch): Männliche und weibliche Blüten stehen auf separaten Pflanzenexemplaren, gelegentlich sind sie einhäusig getrenntgeschlechtig (monözisch). Die männlichen Zapfen sind kugelig und gelblich. Sie weisen vier bis 16 Sporophyllen auf, die jeweils zwei bis neun Sporangien besitzen.
Die Samen reifen im Jahr der Befruchtung. Weibliche Pflanzen tragen im Herbst rote „Früchte“, die in der Mitte einen einzelnen Samen enthalten. Das den Samen umgebende rote, fleischige Gewebe – der Samenmantel (Arillus) – entwickelt sich nicht aus der Samenschale (Testa), sondern aus dem Stielbereich der Samenanlage (Funiculus). Der becherförmige Arillus weist je nach Art unterschiedliche Rottöne auf. Man spricht in diesem Fall nicht von einer Frucht (im botanischen Sinne), sondern von einem Samenmantel (Arillus), da es Früchte per definitionem nur bei Bedecktsamigen Pflanzen geben kann.
Ökologie.
Die Ausbreitung des Pollens erfolgt über den Wind (Anemophilie). Die Samen werden hauptsächlich von Vögeln ausgebreitet, die den fleischigen Samenmantel verzehren und den Samen später wieder ausscheiden (Endochorie). Die Keimung erfolgt epigäisch, es sind zwei Keimblätter vorhanden.
Hirsche und Elche fressen gelegentlich Eibennadeln.
Inhaltsstoffe.
Die meisten Eibenarten, wie die Europäische Eibe ("Taxus baccata"), enthalten sehr giftige Inhaltsstoffe wie Taxin B. Insbesondere die Pazifische Eibe ("Taxus brevifolia") enthält Paclitaxel (Taxol), das zur Behandlung von Brust- und Eierstockkrebs eingesetzt wird. Giftig sind Rinde, Nadeln und Samen. Der rote Samenmantel enthält jedoch keine Giftstoffe. Fälle von tödlichen Vergiftungen durch Eiben sind von Menschen, Rindern und Pferden bekannt. Das Vorkommen von Ecdysteron wurde mehrfach beschrieben.
Vorkommen.
Die Eiben-Arten sind hauptsächlich in der gemäßigten Zone der Nordhalbkugel verbreitet. In der Neuen Welt erreichen sie südwärts noch Mexiko, Guatemala und El Salvador. In Südostasien sind sie in tropischen Gebirgswäldern vertreten und überschreiten auf Celebes den Äquator. Während sie im Norden ihres Verbreitungsgebietes in tieferen Lagen vorkommen, erreichen sie in den Tropen Höhenlagen von 3000 Meter.
Die Europäische Eibe ("Taxus baccata") war ursprünglich in Deutschland rund um die Bergregionen verbreitet. Im Jahr 1568 unterrichtete Herzog Albrecht den Kaiserlichen Rat in Nürnberg, dass sich in ganz Bayern keine hiebreife Eibe mehr befinde. Der Grund dafür war, dass aus dem Holz der Eiben die englischen Langbögen hergestellt wurden. Von Nürnberg aus wurden sie zu Tausenden als früher Exportschlager nach Antwerpen verschifft. Der Paterzeller Eibenwald hat sich als kleines Eibenwaldrelikt im ehemaligen Klosterforst von Wessobrunn bis heute erhalten, ebenso im "Naturwaldreservat Eibenwald" in Gößweinstein. Weitere größere Vorkommen befinden sich in Süd-Niedersachsen nahe Bovenden nördlich von Göttingen sowie in Thüringen im Ibengarten bei Dermbach in der Rhön, und im Naturschutzgebiet "Dissau und Steinberg" bei Rudolstadt.
Im Obereichsfeld sind zahlreiche Eibenbstände am Lengenberg westlich von Lutter (4500), im Heiligenstädter Stadtwald (2500), Auf dem Stein/Rachelsberg (1370), im Küllstedter Grund (1300), Faulungen (920), im Ohmgebirge/Bleicheröder Berge (2500) und weiteren Standorten mit insgesamt etwa 12000 Eiben nachgewiesen. Im Lengenberg wurde eine Eibenlehrpfad eingerichtet.
Von europäischer Bedeutung ist der Eibenbestand auf dem Schweizer Uetliberg, wo die Stadt Zürich sogar einen Eibenlehrpfad einrichtete.
Eiben wachsen in der Strauchschicht feuchter Wälder oder bilden einen Teil der Kronenschicht.
Ortsnamen mit dem Bestandteil „ib“ und Flur-/Bergnamen (wie Iberg oder Ibenkuppe) weisen auf frühere Eibenbestände hin, zum Beispiel Unteribental oder Unteriberg.
Der Musiker Roland Zoss besingt die Mythologie der Eibe in den Baumliedern.
Systematik.
Die Gattung "Taxus" wurde durch Carl von Linné aufgestellt. Der wissenschaftliche Gattungsname "Taxus" wird etymologisch hergeleitet über neupersisch "taχš" für „Armbrust, Pfeil“ und altgriechisch τόξον für „Pfeilbogen“ (für deren Herstellung sich Eibenholz besonders eignet) mit (vielleicht beiden Wörtern zugrundeliegendem) skythisch *"taχša-" verbunden sowie mit dem nicht näher bestimmbaren altindischen Baumnamen "takṣaka-".
Die systematische Abgrenzung der Arten und Varietäten innerhalb der Gattung ist schwierig und bei den Autoren teils unterschiedlich. Aljos Farjon unterscheidet folgende Arten:
Nutzung.
Es gibt zahlreiche Kreuzungen. Die bekannteste Kreuzung ist die Hybrid-Eibe ("Taxus" ×"media" ), eine 1900 in Massachusetts entstandene Kreuzung aus "Taxus baccata" und "Taxus cuspidata". Ihre breit säulenförmig wachsende Zuchtform ‘Hicksii’ wird relativ häufig in Parks und Gärten verwendet.
Das selten im Handel erhältliche Holz der Europäischen und der Pazifischen Eibe ist relativ hart, sehr zäh und elastisch. Es wird überwiegend für Drechslerarbeiten, daneben für Furniere, den Bau von Musikinstrumenten und seit alter Zeit für die Herstellung von Bögen verwendet. |
1272 | 779406 | https://de.wikipedia.org/wiki?curid=1272 | Edwin Hubble | Edwin Powell Hubble (* 20. November 1889 in Marshfield, Missouri; † 28. September 1953 in San Marino, Kalifornien) war ein US-amerikanischer Astronom.
Er klassifizierte die Spiralgalaxien, befasste sich mit der Expansion des Weltalls und entdeckte die Hubble-Konstante der galaktischen Kosmologie, die Rotverschiebung des Sternenlichts bei zunehmender Entfernung („Hubble-Effekt“). Er ist Namensgeber des Hubble-Weltraumteleskops.
Leben.
Hubble studierte Physik und Astronomie in Chicago und beendete dies 1910 mit dem Abschluss als Bachelor of Science. Anschließend verließ er die USA zum Studium der Rechtswissenschaft in Oxford, das er mit dem Master abschloss. Nach drei Jahren kehrte er in die USA zurück. Dort studierte er in Chicago ab 1914 Astronomie und Mathematik und wurde 1917 promoviert.
Als es Vesto Slipher 1912 am Lowell-Observatorium in Flagstaff (Arizona) gelang, erstmals die Radialgeschwindigkeit eines Spiralnebels zu messen, war auch Hubble als Student mit der Relativgeschwindigkeit des Andromedanebels (M31) zum Milchstraßensystem befasst. Am Mount-Wilson-Observatorium konnte er 1923 nachweisen, dass M31 weit außerhalb unserer Galaxis liegt. Die Ergebnisse seiner Beobachtungen und Berechnungen, "Cepheids in Spiral Nebulae," legte er zur Jahreswende 1924/25 der Jahrestagung der American Astronomical Society (AAS) vor, auf der sie am 1. Januar 1925 vorgetragen wurden.
Aufgrund der räumlichen Verteilung anderer Galaxien sowie ihrer im Spektrum u. a. von Milton Humason nachgewiesenen Rotverschiebung postulierte der belgische Priester Georges Lemaître im Juni 1927 die Expansion des Weltalls im Einklang mit Einsteins Allgemeiner Relativitätstheorie. Hubble veröffentlichte zwei Jahre später mit zusätzlichen Daten denselben linearen Zusammenhang zwischen der Rotverschiebung und der Verteilung extragalaktischer Nebel, zog jedoch nicht die physikalische Schlussfolgerung einer Expansion des Weltalls und vermutete ein bisher unentdecktes Naturprinzip hinter der Rotverschiebung. Dennoch wird in der öffentlichen Wahrnehmung diese Entdeckung Lemaîtres häufig Hubble zugeschrieben.
Hubble und Humason entdeckten auf Basis der Arbeiten Sliphers, dass die Spektren verschiedener Galaxien nicht etwa zu gleichen Teilen ins Rote und Blaue verschoben sind, sondern dass es erheblich mehr rotverschobene Spektren gibt. Interpretiert man die Frequenzverschiebung als Dopplereffekt, so lässt sich ableiten, dass sich fast alle beobachteten Galaxien von uns entfernen. Hubble war auch der erste, der einen direkt proportionalen Zusammenhang zwischen Rotverschiebung und Entfernung der Galaxien aufstellte, was bedeuten würde, dass sich diese fernen "Weltinseln" umso schneller von uns fortbewegen, je weiter sie entfernt sind. Hubble selbst benutzte den Ausdruck „scheinbare Geschwindigkeit“, da er zurückhaltend war in der physikalischen Interpretation der Beobachtungen.
Die Größe, die diese Expansion beschreibt, wird ihm zu Ehren die Hubble-Konstante "H" genannt. Mit ihrer Hilfe lässt sich das Alter des Universums abschätzen.
Hubble hat auch die Hubble-Sequenz entwickelt, ein morphologisches Ordnungsschema für Galaxien. Am 30. August 1935 entdeckte er den Asteroiden Cincinnati.
Am 28. September 1953 starb Hubble mit 63 Jahren an einem Schlaganfall, während er die Vorbereitungen für mehrere Beobachtungsnächte auf dem Palomar-Observatorium traf.
Zitat aus Hubbles „Das Reich der Nebel“, 1938.
Wegen der Bedeutung von Hubbles Forschung auch für die moderne Kosmologie sei im Folgenden eine Originalarbeit in der Übersetzung von Jürgen Hamels "Geschichte der Astronomie" (Magnus-Verlag 2004, S. 325–327) unter Ergänzung von Links und kleineren Ergänzungen in Klammern wiedergegeben.
Die Verteilung der Nebel.
"Die Erforschung des beobachtbaren Raums als Ganzes hat zu zwei Ergebnissen von besonderer Bedeutung geführt: Das eine ist die Homogenität des Raumes – die gleichförmige Verteilung der Nebel im Großen –, das andere die Geschwindigkeits-Entfernungs-Beziehung."
"Die Verteilung der Nebel im Kleinen ist sehr ungleichmäßig. Man findet einzelne Nebel, Nebelpaare, Nebelgruppen verschiedener Größe und auch Nebelhaufen. Das galaktische System ist Hauptteil eines dreifachen Nebels, von welchem die Magellanwolken die anderen Bestandteile bilden. Das Dreiersystem bildet mit einigen anderen Nebeln die „lokale Gruppe“ […]. Deren Mitglieder lieferten uns die ersten Entfernungen, und das Cepheiden-Entfernungskriterium ist bis heute nur auf diese Gruppe anwendbar."
"Vergleicht man [hingegen] große Himmelsbereiche oder Raumbereiche miteinander, so mitteln sich die kleinen Unregelmäßigkeiten heraus und es bleibt die sehr gleichmäßige Verteilung im Großen. Die Verteilung über den Himmel erhält man, indem man die Nebelzahlen innerhalb einer ausgewählten, in gleichmäßigen Abständen über den ganzen Himmel verstreuten Bezirken, bis zu einer bestimmten Grenzgröße der Mittel miteinander vergleicht."
"Die wahre Verteilung bleibt uns durch örtliche Verdunklung teilweise verborgen. Im [Himmels]gebiet der Milchstraße beobachten wir keine Nebel, und nur wenige an ihrem Rande [… was zusammenhängt mit dem] Vorhandensein großer Staub- und Gaswolken, die über das ganze Sternsystem, besonders über die galaktische Ebene, verstreut sind. Diese Wolken verbergen uns die entfernteren Sterne und Nebel […]"
"Die Verteilung in der Tiefe, d. h. die Nebelzahlen zwischen zwei aufeinanderfolgenden Entfernungsstufen, findet man durch Vergleich der Nebelzahlen mit scheinbaren Helligkeiten zwischen zwei entsprechenden aufeinanderfolgenden Helligkeitsstufen. Es handelt sich dabei um den Vergleich zwischen den Nebelzahlen und dem Raumteil, den die Nebel erfüllen. Da diese Zahlen im gleichen Verhältnis wachsen wie die Raumgrößen […], so müssen die Nebel gleichmäßig verteilt sein […]"
Die Geschwindigkeits-Entfernungs-Beziehung.
"[…] Die Nebel zeigen im allgemeinen sonnenähnliche Absorptionsspektren, sodass man annehmen kann, dass der Sonnentypus unter den Nebelsternen vorherrscht. Die Spektren sind notwendigerweise kurz, weil das Licht zu schwach ist, als dass man es zu einem langen Spektrum auseinanderziehen könnte. Die H- und K-Linie des Kalziums kann man aber noch trennen. Auch erkennt man die G-Bande des Eisens und einige Wasserstofflinien […]"
"Nebelspektren fallen durch die seltsame Tatsache auf, dass ihre Linien nicht die Lage [bezüglich der Wellenlänge] zeigen, wie man sie bei nahen Lichtquellen beobachtet. Wie man durch geeignete Vergleichsspektren beobachtet hat, sind sie ins Rote verschoben. Die Verschiebungen, die man als Rotverschiebung bezeichnet, nehmen im Durchschnitt mit abnehmender scheinbarer Helligkeit zu. Da die scheinbare Helligkeit [annähernd] die Entfernung misst, so folgt, dass die Rotverschiebungen mit der Entfernung zunimmt. Eingehendere Untersuchungen zeigen, dass die Beziehung linear ist. […] Bei dieser Auffassung nimmt man also an, dass sich die Nebel von unserem Raumteil mit Geschwindigkeiten entfernen, die ihrer Entfernung proportional sind […]" |
1273 | 229474695 | https://de.wikipedia.org/wiki?curid=1273 | Echelon | Echelon ist ein weltweites Spionagenetz, das von Nachrichtendiensten der USA, Großbritanniens, Australiens, Neuseelands und Kanadas betrieben wird. Das System dient zum Abhören bzw. zur Überwachung von über Satellit geleiteten privaten und geschäftlichen Telefongesprächen, Faxverbindungen und Internet-Daten. Die Auswertung der gewonnenen Daten wird vollautomatisch durch Rechenzentren vorgenommen. Die Existenz des Systems gilt seit einer Untersuchung des europäischen Parlaments von 2001 als gesichert.
Überblick.
Die Organisationen
sind daran beteiligt. Seit den 1970er Jahren gab es Gerüchte über die Existenz eines geheimen Spionagesystems dieser Organisationen. Bestätigt ist die Existenz des Netzwerks spätestens seit der Veröffentlichung des Europäischen Parlaments vom 5. September 2001.
Bezeichnung.
Das dieses Spionagenetz bezeichnende Wort geht zurück auf eine in der Antike als "Echelon" bekannte Form der Schlachtordnung (siehe Schiefe Schlachtordnung). Im englischen Sprachraum wird heute unter "echelon formation" eine gestaffelte Kampfanordnung verstanden; eine militärische Staffel heißt im Französischen ebenfalls „échelon“. Mitunter wird auch die Flugformation von Zugvögeln wie Kranichen so genannt.
Der Ausdruck bezieht sich in diesem Fall auf die Architektur der Spionage-Software, mit der in den entsprechenden Abhörstationen die signalerfassende Aufklärung aufgefangene Kommunikationsinhalte nach bestimmten Stichworten durchsucht.
Zielsetzung.
Die Ziele bewertet das Europäische Parlament wie folgt:
Pressemeldungen mutmaßten zuvor, dass Echelon zunächst nur dazu gedacht sei, die militärische und diplomatische Kommunikation der Sowjetunion und ihrer Verbündeten abzuhören. Heute soll das System zur Suche nach terroristischen Verschwörungen, Aufdeckungen im Bereich Drogenhandel und als politischer und diplomatischer Nachrichtendienst benutzt werden. Seit Ende des Kalten Krieges soll das System außerdem der Wirtschaftsspionage dienen. Diese Vorwürfe wurden durch das Europäische Parlament nicht bestätigt, wenn auch einzelne Ausschussmitglieder in dieser Hinsicht Bedenken äußerten.
Anderen Quellen zufolge dient Echelon der Umgehung nationaler Gesetze. Amerikanischen Geheimdiensten ist es verboten, die Telefongespräche amerikanischer Staatsbürger abzuhören. Gleiches gilt auch in Großbritannien. Indem nun der britische Geheimdienst Amerikaner und der amerikanische Geheimdienst britische Telefongespräche abhört und die gewonnenen Daten mit dem jeweils anderen Dienst ausgetauscht werden, wird dieses Verbot umgangen.
Struktur des Systems.
Alle Mitglieder des Echelon-Systems sind Teil der nachrichtendienstlichen Allianz UKUSA, deren Wurzeln bis zum Zweiten Weltkrieg zurückreichen. Die Mitgliedsstaaten der Allianz stellen Abhörstationen und Weltraumsatelliten bereit, um Satelliten-, Mikrowellen- und teilweise auch Mobilfunk-Kommunikation abzuhören. Es gibt laut Untersuchungsbericht des EU-Parlaments keine Hinweise darauf, dass die Technologie auch das großflächige Abhören drahtgestützter Kommunikation (d. h. Telefon, Internet-Backbones innerhalb Europas, Fax usw.) ermöglicht.
Die Erfassung der Signale erfolgt wahrscheinlich hauptsächlich durch in Radarkuppeln aufgestellte Antennen, eine meist kugelförmige Hülle, die die Inneneinrichtung in erster Linie vor äußeren mechanischen Einflüssen wie Wind oder Regen schützt. Es wird vermutet, dass die eingefangenen Signale, hauptsächlich aus der Satellitenkommunikation, teilweise durch die National Security Agency (NSA) ausgewertet werden, die die hierzu erforderlichen Erkennungssysteme besitzt.
Der Öffentlichkeit bekannt gemacht wurde das Spionagesystem erstmals 1976 durch Winslow Peck. Am 5. Juli 2000 beschloss das Europäische Parlament, einen nichtständigen Ausschuss über das Abhörsystem Echelon einzusetzen, 2001 wurde ein 192 Seiten langer Bericht veröffentlicht, in dem die Existenz bestätigt und die Bedeutung und Auswirkungen dargelegt wurden.
Stützpunkte.
Großanlagen zur Überwachung von Satellitenkommunikation sind wegen der aufwändigen Empfangstechnik schwierig zu verstecken. Die Standorte dieser Anlagen sind daher bekannt. Über die Techniken zur Überwachung der kabelgebundenen und mikrowellenübermittelten Kommunikation ist hingegen wenig bekannt.
Echelon betreibt fünf Großstationen zur Überwachung des Verkehrs via Intelsat. In Europa befindet sich eine in Morwenstow (Cornwall) unter Aufsicht der GCHQ für die Überwachung des Atlantiks und des Indischen Ozeans. Zwei Stationen werden von der NSA betrieben, eine in Sugar Grove (West Virginia) und auf dem Armeestützpunkt Yakima im Bundesstaat Washington. Eine neuseeländische Station in Waihopai und eine australische in Geraldton vervollständigen die Kette.
Die Überwachung der nicht-Intelsat-gestützten Kommunikation erfolgt bzw. erfolgte von mindestens fünf Standorten aus, nämlich aus Bad Aibling (Bayern, 2004 abgebaut), Menwith Hill (Yorkshire), Shoal Bay (Nordaustralien), Leitrim (Kanada) und Misawa (Nordjapan).
Im Verdacht stehen folgende Standorte:
Entwicklung ab 1990.
Nach Beendigung des Kalten Krieges im Jahr 1990 fiel der Hauptfeind, der Ostblock, als potentieller Gegner weg. Die neue geheimdienstliche Priorität, die Wirtschaftsspionage, wurde von George Bush sen. durch die Nationale Sicherheitsdirektive 67 – herausgegeben vom Weißen Haus am 20. März 1992 – festgelegt. Die freigewordenen Kapazitäten sollen die Echelon-Beteiligten genutzt haben, um die eigenen Verbündeten auf dem Gebiet der Wirtschaft auszuspionieren.
Medien berichteten seit Ende der 1990er Jahre, der US-Geheimdienst NSA hätte 1994 das deutsche Unternehmen Enercon mit Hilfe von Echelon abgehört. Die so gewonnenen Daten seien dem amerikanischen Mitbewerber "Kenetech Windpower Inc." übermittelt worden. Anderen Berichten zufolge hatte das amerikanische Unternehmen drei Jahre vor der angeblichen Abhöraktion die in Frage stehenden Eigenschaften patentieren lassen, was dieser Theorie widerspricht.
Die Wirtschaftsspionage wird auch durch die Aussage des ehemaligen CIA-Chefs James Woolsey im Wall Street Journal vom 17. März 2000 bestätigt. Woolsey bemühte sich allerdings darzulegen, die USA hätten lediglich Informationen über Bestechungsversuche europäischer Unternehmen im Ausland gesucht, denn „die meiste europäische Technologie lohnt den Diebstahl einfach nicht“. Airbus soll einen milliardenschweren Vertrag mit Saudi-Arabien verloren haben, da die NSA vermutlich durch Echelon herausgefunden hatte, dass Airbus die saudischen Geschäftsleute bei der Auftragsvergabe bestochen hatte.
Entwicklung ab 2000.
Die sich in Bad Aibling (Bayern) befindliche Echelonbasis Bad Aibling Station konnte bis 2004 große Bereiche Europas abdecken; abhören konnte man aber wie in allen Fällen nur Kommunikation, die über Richtfunkstrecken oder Satelliten geleitet wurde; kabelgebundene Kommunikation wie z. B. die Internet-Backbones können mit dieser Technik nicht abgehört werden. In dem zitierten EU-Report wurde festgestellt, dass diese Anlage nach dem Ende des Kalten Krieges mehrheitlich der Wirtschaftsspionage diente, und es wurde vorgeschlagen, diese zu schließen.
Bedingt durch die Terroranschläge des 11. September 2001 wurde dieser Beschluss erst verspätet im Jahre 2004 umgesetzt. In seinem Bericht an das EU-Parlament am 5. September 2001 stellte der „Berichterstatter des nicht ständigen EU-Untersuchungsausschusses zu Echelon“ Gerhard Schmid nochmals fest, dass innereuropäische Kommunikation kaum betroffen ist, sondern hauptsächlich transatlantische Verbindungen über Satellit. Als Ersatz für die Anlage in Bad Aibling stand von 2004 bis 2008 am Rand des ehemaligen August-Euler-Flugplatzes (von den USA auch als Dagger Complex bezeichnet) in Darmstadt ein System mit fünf Radomen, das laut einigen Quellen ebenfalls Abhörzwecken gedient haben soll. Die Anlage wurde im Frühjahr 2004 fertiggestellt; im Sommer 2008 wurden die Radome wieder demontiert.
Der BND betreibt mit der genannten Fernmeldeverkehrstelle des Bundesnachrichtendiensts die Bad Aibling Abhörstation weiter. (Siehe auch: Zusammenarbeit von Bundesnachrichtendienst und NSA). In Bad Aibling bestehen ein Verbindungsbüro zum US-Geheimdienst NSA ("SUSLAG", Special US Liaison Activity Germany) und zwei Übergabepunkte, die "Joint SIGINT Activity" (JSA) und das "Joint Analysis Center" (JAC).
Am 23. April 2015 berichteten Medien erneut über das Ausmaß der Kooperation zwischen BND und NSA in Bad Aibling. Aufgrund eines Beweisantrags der Bundestagsfraktionen wurde untersucht, wie viele der 800.000 Selektoren (IP-Adressen, E-Mail-Adressen, Telefonnummern, Geokoordinaten, MAC-Adressen) gegen deutsche und europäische Interessen gerichtet waren. Es ist jedoch unklar, inwieweit diese Selektoren auch auf die Datenströme der Echelon-Stationen zur Abhörung vorwiegend satellitengestützter Kommunikation angewendet wurden. |
1275 | 804504 | https://de.wikipedia.org/wiki?curid=1275 | Edel-Tanne | Die Edel-Tanne ("Abies procera", Syn.: "Abies nobilis"), standardsprachlich Edeltanne, auch Pazifische Edel-Tanne und Silbertanne genannt, ist eine Pflanzenart aus der Gattung der Tannen ("Abies") in der Familie der Kieferngewächse (Pinaceae) aus höheren Lagen des Kaskadengebirges im Westen der USA. Als größte aller Tannen besitzt sie unter den pazifischen Tannen Nordamerikas dennoch das kleinste Areal und ist auch die lichtbedürftigste neuweltliche Tanne. Nachdem im Frühjahr 1942 durch das Lend-Lease System die Produktion von Sitka-Fichtenholz nicht die Nachfrage der US-amerikanischen und britischen Flugzeugindustrie im Zweiten Weltkrieg decken konnte, fanden sich im Holz der Edel-Tanne sowie der Westlichen Hemlock die einzigen Baumarten, die eine Neukonstruktion im Flugzeugdesign nicht erforderten. Damit gewann die Edel-Tanne im Sommer 1942 als Substitut der Sitka-Fichte große wirtschaftliche und kriegstechnische Bedeutung, die 1943 zur maximalen Ressourcen-Nutzung der Edel-Tannen in Bergwäldern des Pazifischen Nordwestens führte.
Etymologie.
Die Art wurde am 7. September 1825 von David Douglas am Columbia River (Columbia gorge) unweit der Grand Rapids im heutigen Oregon zusammen mit der Purpur-Tanne ("Abies amabilis") entdeckt. Er nannte sie zuerst "Pinus nobilis" – noble Tanne ("Pinus" war im 19. Jahrhundert noch regelmäßig Gattungsbegriff der Tanne). Ihr taxonomisch heute richtiges Artepitheton "procera" stammt vom lateinischen procerus ab und bedeutet „hoch“. Für David Douglas war die Edel-Tanne der eindrucksvollste Baum den er auf seinen Expeditionen im Westen der heutigen USA entdeckt hatte. 1830 schrieb er: „Ich verbrachte drei Wochen in einem Wald, bestehend aus dieser Baumart, und Tag für Tag konnte ich nicht aufhören, ihn zu bewundern; meine Worte sind nur eintönige Ausdrücke von diesem Gefühl“. Dieser besondere Eindruck natürlicher Edel-Tannenwälder entsteht durch deren hohen säulenfömigen Schäfte, die in der Regel auch zu zwei Drittel astfrei bleiben. Hieraus zählen sie ebenfalls zu den besten Lieferanten für Konstruktionshölzer unter den Weichholzbäumen der westlichen USA.
Die Schreibweise mit Bindestrich ist in der deutschen botanischen Fachliteratur gebräuchlich. Umgangssprachlich wird auch die in Europa heimische Weiß-Tanne ("Abies alba" Mill.) auch als „Edeltanne“ oder „Silbertanne“ bezeichnet.
Beschreibung.
Habitus.
Die Edel-Tanne ist ein immergrüner Baum, der die größten Wuchshöhen unter den Tannen erreicht, es werden Wuchshöhen über 80 Meter und Stammdurchmesser (BHD) über 2 Meter erreicht. Sie hat auffallend gerade, säulenförmige Stämme. Die Baumkrone ist symmetrisch kegelförmig. Sie ist nicht so dicht wie bei anderen Tannenarten und erscheint deshalb häufig durchsichtig. Im Gipfel sterben häufig Leittriebe ab; im Alter überragen die Seitenäste den Gipfeltrieb, und es bildet sich die sogenannte „Storchennest-Krone“. Die Zweige stehen meist im rechten Winkel vom Stamm ab, können aber im unteren Teil der Krone auch hängen. Die schlanken Zweige sind rötlich-braun gefärbt und behaart. Die Zweigoberseite ist meistens durch die dicht anliegenden Nadeln nicht zu erkennen. Die Edel-Tanne kann bis zu 800 Jahre alt werden und erreicht damit das höchste Alter aller Tannenarten.
Knospen und Nadeln.
Die runden Knospen sind sehr klein und mit rotbraunen Schuppen versehen. Sie werden häufig von den Nadeln verdeckt. Die blaugrünen schimmernden, dichtstehenden Nadeln haben eine Lebensdauer bis zwölf Jahre. Die, im Querschnitt viereckigen, Nadeln sind 25 bis 35 Millimeter lang und oberseits rinnig vertieft. Sowohl auf der Ober- wie auch auf der Unterseite befinden sich Stomabänder. Nadeln an lichtexponierten Stellen sind meist blaugrün gefärbt und stehen aufwärts gerichtet spiralig um den Zweig. Schattennadeln sind meist dunkelgrün gefärbt und stehen gescheitelt an den Zweigunterseiten. Die Nadeln liegen im ersten Viertel dem Zweig an und krümmen sich auf.
Blüten, Zapfen und Samen.
Die Edel-Tanne ist einhäusig getrenntgeschlechtig (monözisch). Sie wird mit 20 bis 30 Jahren mannbar, die volle Samenproduktion setzt allerdings erst mit 50 bis 60 Jahren ein. Die männlichen Blütenzapfen sind dunkelrot gefärbt und sitzen in Gruppen von bis zu 30 Blütenzapfen auf der Zweigunterseite. Die unscheinbaren weiblichen Blütenzapfen sind gelblich gefärbt mit einem schwach rötlichen Ton und stehen meist einzeln, aber auch zu zweit, selten zu fünft auf der Oberseite vorjähriger Triebe.
Die Zapfen weisen eine Länge von 10 bis 24 Zentimeter und einen Durchmesser von 5 bis 7 Zentimeter auf. Sie sind damit die größten Zapfen aller bekannten Tannenarten. Schon an jungen Bäumen von nur 2 bis 3 Meter Wuchshöhe werden Zapfen angesetzt. Die reifen Zapfen sind blass purpurbraun, wirken aber blassgrün, da sie überwiegend durch die grünlichen Deckschuppen überdeckt werden. Die Samenschuppen sind etwa 2,5 Zentimeter × 3 Zentimeter groß. Der rötlich-braune Same weist eine Größe von 13 Millimeter × 6 Millimeter auf und besitzt einen hellbraunen bis strohfarbenen Flügel, der nur wenig länger ist als das Samenkorn. Das Tausendkorngewicht beträgt rund 30 Gramm und die Keimfähigkeit liegt bei 30 bis 70 %. Die Keimlinge besitzen meist fünf bis sechs (vier bis sieben) Keimblätter (Kotyledonen).
Rinde.
Die Rinde von jungen Bäumen ist glatt und gräulich bis leicht rötlich gefärbt. Die Borke der älteren Bäume ist grau, teilweise mit einem lilafarbenen Ton, und bricht in rechteckige Platten auf. Sie ist mit 2 bis 5 Zentimeter relativ dünn, weshalb die Bäume durch Waldbrände gefährdet sind. Die Rinde der Zweige ist rötlichbraun und feinbehaart.
Wurzeln.
Es ist nur sehr wenig über die Wurzeltracht der Edel-Tanne bekannt. Man weiß, dass sie keine Pfahlwurzel ausbildet und deshalb auf Windwurf anfällig ist.
Holz.
Das weiche, weißliche, elastische Holz der Edel-Tanne gilt als das qualitativ hochwertigste aller nordamerikanischen Tannenarten und insgesamt auch innerhalb der Gattung. Es besitzt ein sehr gutes Steifigkeits-/Gewichtsverhältnis das mit den besten Weichhölzern wie denen von Sitka-Fichte sowie der in ihrem natürlichen Areal sympatrisch vorkommenden Westamerikanischen Hemlocktanne konkurrieren kann. Von der Qualität wird es unter den Koniferen-Hölzern nur vom schwereren Holz der Douglasie übertroffen.
Verbreitung und Ökologie.
Die Edel-Tanne kommt im humiden pazifischen Nordwesten der USA vor. Ihr Verbreitungsgebiet reicht von Washington über Oregon bis nach Nordwestkalifornien. Sie wächst im Küstengebirge und in der Kaskadenkette in Höhenlagen zwischen 650 und 1.680 Meter. Sie kommt meistens in Mischwäldern mit der Douglasie ("Pseudotsuga menziesii"), der Purpur-Tanne ("Abies amabilis") und der Westamerikanischen Hemlocktanne ("Tsuga heterophylla") vor, es werden aber auch Reinbestände gebildet.
Die Edel-Tanne bevorzugt kontinentales oder gemäßigtes Klima mit kühlen Sommern und hohen Niederschlägen (2000 bis 2500 Millimeter/Jahr). An den Boden stellt sie geringe Ansprüche, meidet aber Kalk. Gegen Winterkälte, Spätfröste, Schneedruck und Wind ist sie widerstandsfähig, verträgt aber als Lichtbaumart nur sehr wenig Schatten. Temperaturen von −20 °C und weniger übersteht sie problemlos. Im Jugendstadium reagiert sie allerdings auf Frosttrocknis sehr empfindlich. Sie meidet sehr trockene und staunasse Böden. Der pH-Wert sollte nicht hoch sein, optimal ist ein Wert von 5,5.
Im Unterschied zu den weiteren 8 Tannen der Amerikanischen Westküste ist "Abies procera" ähnlich wie die Douglasie eine auf Licht angewiesene Pionierpflanze. Ihre großen, wenig zahlreichen Zapfen, tragen demnach auch besonders große Samen, die einen Sämling bis zu einem Jahr mit Nährstoffen versorgen können, bis dieser sich am Standort etabliert. Ein Vorteil gegenüber der Douglasie ergibt sich an schneereichen Lagen, wo die Sämlinge unter dem auf der winterlichen Schneedecke ansammelnden pflanzlichen Detritus verschüttet werden können. Während Douglasien sich auf solchen Standorten schlecht verjüngen, leiden Sämlinge und Jungbäume der Edel-Tanne wenig. Zudem sind ihre großen und schweren Samen an schneereiches Klima viel besser angepasst als die kleinen Samen der Douglasie – die Samen werden über Schnee weit transportiert. Nach Ausbruch des Mount Saint Helens im Jahr 1980 fanden sich am vom Vulkan verwüsteten Hängen bald Edel-Tannen ein – bis zu 5 km vom nächsten erwachsenen Baum entfernt. Auch nach Feuer regenerieren Edel-Tannen schnell. Sie werden daher heute oft auf Standorten, die für die Douglasie ungeeignet sind, gepflanzt.
Die Edel-Tanne ist im Urwald-Optimalstadium von bis zu 300 Jahre alten nemoralen Berg-Wäldern des Pazifiks eine dominante Klimaxart. Nach 300 Jahren beginnt ihr rapider Verfall. Während des Urwald-Zerfallstadiums sinkt ihr Prozentsatz. In bis zu 400 Jahre alten Beständen zeigen einzelne überlebende Edel-Tannen stark alterungsbedingte Zerfallsmerkmale.
Taxonomie.
Synonyme für "Abies procera" sind: "Pinus nobilis" , "Abies nobilis" nom. illeg., "Picea nobilis" und "Pseudotsuga nobilis" . Der Name "Abies procera" wurde 1940 von Alfred Rehder in „Rhodora“, Band 42, Seite 522 veröffentlicht.
Entdeckungsgeschichte.
Die Hudson Bay Company ermöglichte 1824 eine botanische Sammelreise im Pazifischen Nordwesten. Joseph Sabine übertrug David Douglas die Aufgabe. Es wurde Douglas bedeutendste Sammelreise für die Royal Horticultural Society, die nach der Umrundung des Kap Horn im April 1825 die Küste Oregons, am 10. April Cape Disappointment und einen Tag darauf Fort George sowie anschließend flussaufwärts des Columbia River Fort Vancouver erreichte. Er botanisierte bis 1827 im Einzugsgebiet des Columbia River. So befuhr er den Columbia River zumeist in Begleitung eines kanadischen Führers mittels eines Kanus, für das regelmäßig indigene Chinook als Paddler angeheuert wurden, bis in die Region der Columbia Rapids. Auf der Südseite des Flusses fand er während einer 15 stündigen Expedition auf einem der Berggipfel der Cascades neben Edel-Tanne auch die Purpur-Tanne. Aufgrund Douglas mühsamer Reisen durch abgelegene Regionen der westlichen USA ging viel gesammeltes Material verloren. Jedoch gelang es ihm, einige der gefundenen Exemplare zu erhalten und nach London zu senden. Douglas selbst führte über seine Expedition 1823–1827 ein Reisejournal, in dem neben seinem Iterinar die Fundorte mit Datum der Neuentdeckungen verzeichnet sind. So ist bekannt, dass er zeitgleich Edel- und Purpur-Tanne am 7. September, jedoch in unterschiedlichen Höhen bei seiner Wanderung und in Begleitung seines Kanadischen Führers Chumtalia erstmals wissenschaftlich entdeckte. Hierbei versuchte er Samen und Zapfen aufzusammeln, konnte aber weder mit seiner Büchse einen Ast mit Zapfen treffen, noch auf eine der stattlichen Bäume bis in die Krone, wo Tannen ausschließlich ihre Zapfen tragen, klettern. Es gelang ihm daher auch erst später am Mt. Hood brauchbare Belege aufzusammeln.
Krankheiten und Schädlinge.
In ihrem natürlichen Verbreitungsgebiet wird die Edel-Tanne weder durch Schadinsekten noch durch Schadpilze ernsthaft gefährdet. Sämlinge leiden manchmal unter der Grauschimmelfäule "Botrytis cinerea" sowie an dem Schneeschimmel "Herpotrichia nigra". Rüsselkäfer fressen, insbesondere in neu angelegten Kulturen, an der Rinde. Alte Bäume werden häufig von Borkenkäfern befallen.
Befälle mit "Melampsorella caryophyllacearum", dem Erreger des Tannenkrebses, verlaufen meist ohne nennenswerte Folgen.
Die Edel-Tanne erleidet häufig Rindenschäden durch Schwarzbären.
In sehr kalten Wintern kann Frosttrocknis auftreten.
Nutzung.
Holznutzung.
Allgemein wird das Holz der Edel-Tanne mit vier weiteren Tannen der amerikanischen Pazifikküste (Pracht-Tanne, Küsten-Tanne, Felsengebirgs-Tanne und Purpur-Tanne) sowie der westamerikanischen Hemlocktanne zumeist als Hem-Fir vermarktet, der geläufigen US-Abkürzung der Sägeholz-Produzenten „Western Forest Products“ und „Western Woods Product Association“. Dabei ist neben der Eignung als Konstruktionsholz Edel-Tanne ein bevorzugtes Material für Leitersprossen. Hierbei wird Holz das dichte Jahresringe aufweist und somit höhere Festigkeit aufweist bevorzugt.
Das Weich-Holz der Edel-Tanne ist leicht und dabei trotzdem von hoher Steifigkeit, leicht zu bearbeiten und eignet sich allgemein sehr gut als Bau- und Konstruktionsholz. Es ist vor allem in Japan sehr begehrt.
Im Zweiten Weltkrieg spielte es eine Rolle im Flugzeugbau, wobei ursprünglich ausschließlich Sitka-Fichte in Frage kam. Aber deren ungenügende Verfügbarkeit machte die Suche nach geeigneten Substituten erforderlich. Nachdem die Vereinigten Staaten vier Arten zur Substitution zugelassen hatten, wurden als Resultat des „Forest Products Research Laboratory“ nur noch Edel-Tanne und Westliche Hemlock empfohlen. Im Lend-Lease System wurden somit Edel-Tannenholz-Produkte an das Vereinigte Königreich sowie Kanada geliefert und dort besonders im Bau der de Havilland DH.98 Mosquito eingesetzt.
Gastbaumart.
Die Edel-Tanne wird für forstliche Nutzung auch außerhalb ihres natürlichen Verbreitungsgebietes empfohlen. In Deutschland ist sie jedoch im Vergleich zu den hier etablierten Douglasien und Großen Küstentannen relativ selten. Forstliche Versuchsanbauten belegten, dass bei geeigneter Provenienzwahl gleichwertige oder höhere Zuwachsleistungen als bei Fichte und Douglasie möglich sind. In Bayern wurden Herkünfte aus Nord-Oregon und Washington empfohlen.
Sonstige Nutzungsarten.
Die Edel-Tanne wird weltweit als Ziergehölz und als Christbaum angebaut. Außerdem finden ihre Zweige Verwendung als Schmuckreisig.
Weihnachtsbaum.
In Deutschland machten Edel-Tannen 2012 etwa 5 Prozent der 29,2 Millionen verkauften Weihnachtsbäume aus. Damit steht diese in den Absatzzahlen hinter der Nordmann-Tanne, für die ein Marktanteil von 75 Prozent angegeben wird, und der Blau-Fichte mit 20 Prozent Marktanteil insgesamt an dritter Stelle der beliebtesten Weihnachtsbäume in Deutschland. In den Angaben des Landesverbandes Sachsen in der Schutzgemeinschaft Deutscher Wald entscheiden sich deutsche Haushalte zu 3 Prozent für die Edel-Tanne als Weihnachtsbaum, womit sie an vierter Stelle stehen würde. In anderen europäischen Ländern ist die Edel-Tanne teilweise beliebter als die Nordmann-Tanne. So stellt sie etwa in Irland den beliebtesten Weihnachtsbaum dar.
In den USA war die Edel-Tanne bis in die 1960er Jahre praktisch nur in den Staaten der Pazifischen Nordwestküste, insbesondere in Oregon, als Weihnachtsbaum von Bedeutung. Danach wurde diese in den westlichen USA immer populärer und stellt heute die wichtigste Weihnachtsbaumart in diesen Gebiet dar. Durch ihre gute Fähigkeit, die Feuchtigkeit der Nadeln länger als andere Arten aufrechtzuerhalten, haben Edel-Tannen und Fraser-Tanne in den USA durch diese als wesentlich für die Posternte-Qualität erachtete Eigenschaft eine dominierende Position bei den Produzenten wie den Konsumenten erlangt. Die Edel-Tanne ist in ihrer Fähigkeit, Prozesse der Nadeltrocknis aufzuhalten, auch der Nordmann-Tanne überlegen.
Aufgrund der langen Nadelhaltbarkeit und der silbergraublauen Farbe der Blätter ist sie für die Produktion von Schmuckreisig eine der interessantesten Baumarten. Größter Produzent in Europa ist Dänemark, hier wurden (2007) jährlich 35.000 Tonnen Schmuckreisig produziert, 20.000 Tonnen des Europäischen Bedarfs an Schmuckreisig werden mit der Edeltanne gedeckt, was etwa 70 % des Bedarfs ausmachen.
Die Empfindlichkeit der Edel-Tanne gegenüber Kahlfrösten sowie ihre Neigung zu meist unregelmäßigen Wuchs sorgt dafür, dass sie am europäischen Markt nur eine eher untergeordnete Rolle spielt. Ihre hohen Ansprüchen an Standort- und Bodenverhältnisse (wenig verdichtete Böden mit niedrigen pH-Werten, eine hohe Luftfeuchtigkeit sowie ausgeglichene Temperaturen) versucht man in der Weihnachtsbaum-Kultur mittels geeigneter Saatgutwahl entgegenzuwirken. |
1276 | 568 | https://de.wikipedia.org/wiki?curid=1276 | Enrico Fermi | Enrico Fermi (* 29. September 1901 in Rom; † 28. November 1954 in Chicago, Illinois) war ein italienischer Physiker und einer der bedeutendsten Kernphysiker des 20. Jahrhunderts. 1938 erhielt er den Nobelpreis für Physik.
Leben.
Bereits im Alter von 17 Jahren begann er ein Physikstudium an der Scuola Normale Superiore in Pisa, das er 1922 "magna cum laude" mit einer experimentellen Arbeit über Röntgenstreuung an Kristallen mit dem Laurea-Abschluss beendete. 1923 hatte Fermi dank eines Stipendiums einen mehrmonatigen Forschungsaufenthalt in Göttingen bei Max Born. Göttingen war damals das führende Zentrum der theoretischen Physik, hier entstanden viele wesentliche Arbeiten für die Quantenmechanik. 1924 arbeitete er mehrere Monate in den Niederlanden bei Paul Ehrenfest, ebenfalls ein Mitbegründer der Quantenmechanik. Im Januar 1925 wurde Fermi zunächst als Professor für Mathematik nach Florenz berufen. 1926 ging er als Professor für theoretische Physik an die Universität Rom (La Sapienza) auf den von Orso Mario Corbino neu gegründeten Lehrstuhl für theoretische Physik, den er bis 1938 innehatte. Fermi war seit 1924 Mitglied des Freimaurerbundes. Seit 1928 war er mit Laura Capon (1907–1977) verheiratet und hatte mit ihr zwei Kinder: Nella (1931–1995) und Giulio (1936–1997). In der Zeit von 1926 bis 1932 entstanden wichtige Arbeiten von Fermi zur Quantenmechanik mit Anwendungen zum Beispiel in der Festkörperphysik und Quantenstatistik (Fermi-Dirac-Statistik für Fermionen, Fermis Goldene Regel, Fermifläche, Fermi-Resonanz, Thomas-Fermi Theorie des Atoms). In Rom entstand um Fermi eine sehr aktive Gruppe theoretischer und experimenteller Physiker. Ihr gehörten Gian-Carlo Wick, Ugo Fano, Giovanni Gentile, Giulio Racah, Ettore Majorana sowie die Experimentatoren Franco Rasetti, Giuseppe Cocconi, Emilio Segrè, Edoardo Amaldi und Bruno Pontecorvo an.
Angeregt durch die Entdeckung des Neutrons durch James Chadwick im Jahr 1932 sowie durch den Nachweis von Kernumwandlungen nach Bestrahlung mit Alphateilchen durch Irène und Frédéric Joliot-Curie wandte sich Fermi 1934 der Experimentalphysik zu. Seine bahnbrechende Entdeckung war, dass Kernumwandlungsprozesse durch Neutronenstrahlung wesentlich effektiver ablaufen. Eine weitere Verbesserung der Ausbeute erhält man, wenn die Neutronen stark abgebremst werden (thermische Neutronen). 1934 veröffentlichte Fermi seine Theorie des Beta-Zerfalls („Fermi-Wechselwirkung“). Schon 1933 hatte er die Bezeichnung Neutrino für eines der am Beta-Zerfall beteiligten Teilchen geprägt, dessen Existenz drei Jahre zuvor von Wolfgang Pauli postuliert worden war.
Durch Neutronenbestrahlung des damals schwersten bekannten Elementes Uran erzielten Fermi und seine Mitarbeiter ebenfalls Veränderungen im Ausgangsmaterial (anderes chemisches Verhalten, geänderte Halbwertszeiten der austretenden Strahlung) und interpretierten diese irrtümlich als Kernumwandlung zu Transuranen ("Nature"-Artikel 1934). Ida Noddack kritisierte das und wies schon auf die Möglichkeit einer Kernspaltung hin, was dann vier Jahre später Otto Hahn und Fritz Straßmann mittels chemisch-analytischer Techniken zeigten; die theoretischen Grundlagen wurden von Lise Meitner und Otto Frisch erarbeitet (siehe Geschichte der Kernspaltung). Das erste Transuran konnte erst 1942 nachgewiesen werden, allerdings nach einer gänzlich anderen Synthesevorschrift. 1938 erhielt Fermi für seine Arbeiten den Nobelpreis für Physik (laut offizieller Begründung für die Identifizierung neuer radioaktiver Elemente produziert nach Bestrahlung mit Neutronen und seine Entdeckung von Kernreaktionen, die durch langsame Neutronen bewirkt werden), obschon seine Interpretation des Neutronenexperiments (Erzeugung von Transuranen) nach heutigem Kenntnisstand falsch war.
Im selben Jahr emigrierte Fermi aufgrund der 1938 erlassenen antisemitischen Gesetze des Mussolini-Regimes, die seine jüdische Frau Laura, seine beiden Kinder und einige seiner Mitarbeiter betrafen, mit seiner Familie in die USA. Anfang der 1940er-Jahre arbeitete Fermi mit Isidor Isaac Rabi und Polykarp Kusch an der Columbia-Universität in New York. Ihm gelang am 2. Dezember 1942 um 15:25 Uhr an der University of Chicago mit dem Kernreaktor Chicago Pile No. 1 erstmals eine kritische Kernspaltungs-Kettenreaktion, eine Leistung, die auf der theoretischen Vorarbeit von Leó Szilárd fußte.
Im April 1943 schlug Fermi Robert Oppenheimer die Möglichkeit vor, mittels der radioaktiven Nebenprodukte aus der Anreicherung die deutsche Lebensmittelversorgung zu verseuchen. Hintergrund war Angst davor, dass das deutsche Atombombenprojekt schon in einem fortgeschrittenen Stadium wäre und Fermi war auch zum damaligen Zeitpunkt skeptisch, ob eine Atombombe schnell genug entwickelt werden konnte. Oppenheimer besprach den „vielversprechenden“ Vorschlag mit Edward Teller, welcher die Verwendung von Strontium-90 vorschlug. Auch James Bryant Conant und Leslie R. Groves wurden unterrichtet, Oppenheimer wollte aber nur dann den Plan in Angriff nehmen, falls mit der Waffe genug Nahrungsmittel verseucht werden könnten, um eine halbe Million Menschen zu töten.
Im Sommer 1944 zog Fermi mit seiner Familie nach Los Alamos (New Mexico) in das geheime Atom-Forschungslabor der USA. Als Berater von Robert Oppenheimer spielte Fermi eine wichtige Rolle bei Entwicklung und Bau der ersten Atombomben. Nach dem Zweiten Weltkrieg beschäftigte sich Fermi wieder mit der Grundlagenforschung im Kernforschungszentrum an der Universität Chicago. Nach einer Europareise 1954 wurde bei Fermi Magenkrebs diagnostiziert. Er unterzog sich am 9. Oktober einer Operation und starb sieben Wochen später.
Fortwirken.
Fermi war für seine schnellen Abschätzungen und seine physikalische Intuition bekannt – er war ein Meister der „back of the envelope“-Rechnungen (die nicht mehr Platz als die Rückseite eines Briefkuverts benötigen). Sprichwörtlich sind auch die "Fermi questions" (Fermi-Probleme), wie etwa aus wenigen Daten die Anzahl der Klavierstimmer in einer Stadt wie Chicago abzuschätzen.
Nach ihm wurden das Elektronengas (auch "Fermigas") (vgl. hierzu Metallbindung), eine Gruppe von Elementarteilchen (Fermionen), das künstlich hergestellte chemische Element Fermium und ein Energieniveau in Vielteilchensystemen (Fermi-Energie) benannt. Die Atomic Energy Commission der USA stiftete zu seinem Gedenken den z. Z. mit 50.000 US-Dollar dotierten "Enrico-Fermi-Preis". Das Fermi National Accelerator Laboratory bei Chicago ist nach ihm benannt und die regelmäßigen Kurse der "International School of Physics Enrico Fermi" der italienischen physikalischen Gesellschaft und deren Premio Enrico Fermi.
Werke.
Bücher:
Einige Aufsätze:
Ehrungen.
Auszeichnungen und Mitgliedschaften.
Er war auswärtiges Mitglied der Royal Society (1950), der Royal Society of Edinburgh, Mitglied der National Academy of Sciences und der Leopoldina (1935).
1936 wurde er Ehrendoktor der Ruprecht-Karls-Universität Heidelberg, 1946 der Yale University und der Washington University, 1948 der Harvard University und 1952 der University of Rochester. 1953 war er Präsident der American Physical Society.
In Italien war er Mitglied der Accademia d’Italia.
Nach Enrico Fermi benannte Begriffe.
"Siehe auch":
Physikalische Konzepte:
Philosophische und methodische Konzepte:
Sonstiges: |
1278 | 3679771 | https://de.wikipedia.org/wiki?curid=1278 | Ernst Thälmann | Ernst Johannes Fritz Thälmann (* 16. April 1886 in Hamburg; † 18. August 1944 im KZ Buchenwald) war ein deutscher Politiker in der Weimarer Republik. Er war von 1925 bis zu seiner Verhaftung im Jahr 1933 Vorsitzender der Kommunistischen Partei Deutschlands (KPD), die er von 1924 bis 1933 im Reichstag vertrat und für die er in den Reichspräsidentenwahlen von 1925 und 1932 kandidierte. Thälmann führte von 1925 bis zum Verbot 1929 den Roten Frontkämpferbund (RFB) an, der als paramilitärische "Schutz- und Wehrorganisation" der KPD vor allem in Straßenkämpfen mit politischen Gegnern und der Polizei in Erscheinung trat.
Er schloss die in den Statuten der Kommunistischen Internationale vorgesehene Umstrukturierung der KPD als Partei neuen Typus ab. Aufbauend auf die sowjetische Sozialfaschismusthese bekämpfte die KPD, die sich unter seiner Führung zunehmend stalinisierte, die SPD als politischen Hauptfeind innerhalb der Weimarer Republik. Diese Entwicklung ging besonders von Thälmann selbst aus, der den Befehlen Stalins folgte. So wurde auch in der KPD der Pluralismus in der Partei unterdrückt und Mitglieder wie Funktionäre aus der Partei gedrängt oder ausgeschlossen.
Seine Verhaftung erfolgte am 3. März 1933, zwei Tage vor der Reichstagswahl März 1933 und einige Tage nach dem Reichstagsbrand. Thälmann wurde im August 1944, nach über elf Jahren Einzelhaft, vermutlich auf direkten Befehl Adolf Hitlers, erschossen.
Leben.
Herkunft.
Ernst Thälmann wurde 1886 in Hamburg geboren. Er war das erste Kind des Knechts Johannes „Jan“ Thälmann (* 11. April 1857; † 31. Oktober 1933) und dessen Ehefrau Maria-Magdalene, geborene Kohpreiss (* 8. November 1857; † 9. März 1927). Seine jüngere Schwester war Frieda Thälmann (* 4. April 1887; † 8. Juli 1967). Die parteilosen Eltern heirateten 1884 in Hamburg. Dort war Johannes Thälmann als Speditionskutscher tätig.
Nach Ernsts Geburt übernahmen die Eltern als "Fleegenwirte" eine Kellerwirtschaft am Alten Wall 68 in der Hamburger Altstadt, zwischen Hafen und Rathaus. Im März 1892 wurden sie wegen Hehlerei zu zwei Jahren Zuchthaus verurteilt, weil sie entwendete Waren gekauft oder für Schulden in Zahlung genommen hatten. Die Kinder Ernst und Frieda wurden in unterschiedliche Familien zur Pflege gegeben. Die Eltern wurden vorzeitig aus der Haft entlassen; die Mutter im Mai 1893 und der Vater im Oktober.
Jugend.
Von 1893 bis 1900 besuchte Thälmann die Volksschule. 1895 eröffneten seine Eltern ein kleines Gemüse-, Steinkohlen- und Fuhrwerksgeschäft Ecke Wandsbeker Chaussee/Friedenstraße, später direkt in der Wandsbeker Chaussee, in Hamburg-Eilbek. In diesem Geschäft musste Thälmann nach der Schule aushelfen. Sein Wunsch, Lehrer zu werden oder ein Handwerk zu erlernen, erfüllte sich nicht, weil seine Eltern ihm die Finanzierung verweigerten. Er musste daher weiter im Kleinbetrieb seines Vaters arbeiten, was ihm, nach eigenen Aussagen, großen Kummer bereitete. Durch das frühzeitige „Schuften“ im elterlichen Betrieb kam es zu vielen Auseinandersetzungen mit seinen Eltern. Thälmann wollte für seine Arbeit einen richtigen Lohn und nicht nur ein Taschengeld. Darum suchte er sich eine Arbeit als „Ungelernter“ im Hafen. Hier kam Thälmann bereits als Zehnjähriger mit den Hafenarbeitern beim Hamburger Hafenarbeiterstreik vom November 1896 bis Februar 1897 in Kontakt. Der Arbeitskampf wurde von allen Beteiligten erbittert geführt. Er selbst schrieb 1936 aus dem Gefängnis an seine Tochter, dass „der große Hafenarbeiterstreik in Hamburg vor dem Kriege, […] der erste sozialpolitische Kampf“ gewesen sei, „der sich für immer in […] (sein) Herz“ eingeprägt habe.
Anfang 1902 verließ Thälmann im Streit das Elternhaus und kam zunächst in einem Obdachlosenasyl unter, später in einer Kellerwohnung. Am 15. Mai 1903 wurde er Mitglied der SPD. Am 1. Februar 1904 trat er dem "Zentralverband der Handels-, Transport- und Verkehrsarbeiter Deutschlands" bei, in dem er zum Vorsitzenden der "Abteilung Fuhrleute" aufstieg. 1906 wurde er zum Militär eingezogen, aber nach einem Jahr als „unbrauchbar“ entlassen. 1907 arbeitete er als Heizer auf dem Transatlantik-Dampfer "Amerika" und war später für kurze Zeit als Landarbeiter in der Nähe von New York tätig. Nach seiner Rückkehr nach Hamburg arbeitete er als Speicherarbeiter, Schauermann und Kutscher für eine Wäscherei.
Erster Weltkrieg.
Im Januar 1915 wurde Thälmann zur Teilnahme am Ersten Weltkrieg ins Ersatz-Bataillon des Lauenburgischen Fußartillerie-Regiments Nr. 20 eingezogen und kam nach dreimonatiger Ausbildung an die Westfront, an der er bis zum Kriegsende als Kanonier kämpfte. Zweimal kam er nach Verwundungen in verschiedene Lazarette. Im September 1916 kam es laut Eintragung in seinen Militärpass zu einer „Quetschung beider Beine und der linken Schulter durch Einsturz des Geschützstandes infolge Volltreffers“, die er im nachfolgenden September und Oktober in Köln auskurierte. Ein Jahr später im September 1917 erkrankte er an einer Magen-Darm-Entzündung, von der er im Oktober/November in Bayreuth genas.
Thälmann selbst gab an, an folgenden Schlachten und Gefechten teilgenommen zu haben:
Er erhielt im Krieg mehrere Auszeichnungen:
Wenige Tage vor Beginn seines Kriegsdienstes heiratete Thälmann am 13. Januar 1915 die Plätterin Rosa Koch. Aus dieser Ehe ging die spätere Funktionärin des Demokratischen Frauenbund Deutschlands Irma Thälmann als Tochter hervor.
Novemberrevolution.
Am 9. November 1918 verließ Thälmann gemeinsam mit vier befreundeten Soldaten die Front, nachdem zwei Tage zuvor das Waffenstillstandsangebot bekanntgemacht worden war, und trat seinen Heimweg nach Hamburg an. Er erreichte die Stadt am 11. November und beteiligte sich am Aufbau des dortigen Arbeiter- und Soldatenrates. Er trat der USPD bei und wurde von der Parteileitung als Referent für Partei- oder öffentliche Versammlungen eingesetzt. Seinen Lebensunterhalt verdiente er zu dieser Zeit mit der Aushilfe bei seinem Vater oder auch als Notstandsarbeiter im Hamburger Stadtpark. Die USPD nominierte Thälmann als einen ihrer zwölf Kandidaten im 37. Wahlkreis (Hamburg, Bremen, Stade) für die Wahlen zur Weimarer Nationalversammlung. Nach der Niederschlagung des Januaraufstands in Berlin und der Ermordung von Rosa Luxemburg und Karl Liebknecht bedrohten rechte Freikorps die Bremer Räterepublik. Im Hamburger Arbeiter- und Soldatenrat wurde daher „die Bewaffnung der Hamburger Arbeiterschaft innerhalb 48 Stunden“ und „die Unterstützung Bremens mit allen militärischen Mitteln“ gefordert. Eine zeitnahe bewaffnete Unterstützung der nahen Räterepublik mit Beständen aus Polizeigebäuden und Kasernen unter der Beteiligung Thälmanns schlug jedoch fehl.
Bei der vom Hamburger Arbeiter- und Soldatenrat angesetzten Neuwahl der Hamburgischen Bürgerschaft am 16. März 1919 erhielt die USPD in freier und gleicher Wahl 42.852 Stimmen (8,1 Prozent) und zog mit Thälmann und zwölf weiteren Abgeordneten seiner Partei in die Bürgerschaft ein; die SPD errang die absolute Mehrheit (50,5 Prozent). Mit der konstituierenden Sitzung der Bürgerschaft am 26. März löste sich der Arbeiter- und Soldatenrat auf. Thälmann blieb bis zu seiner Verhaftung durch die Nationalsozialisten 1933 Mitglied der Bürgerschaft. Am 11. Mai 1919 wurde Thälmann zum Ersten Vorsitzenden der Ortsgruppe Hamburg der USPD gewählt. Im gleichen Monat trat er auf Vorschlag des sozialdemokratischen Bürgerschaftsabgeordneten und Vorsitzenden des Hamburger Arbeitsamts Emil Hüffmeier eine Anstellung im selbigen Amt an. Beide Politiker kannten sich aus der gemeinsamen gewerkschaftlichen Arbeit. Auf einem außerordentlichen Parteitag der Gesamt-USPD in Halle vom 12. bis zum 17. Oktober 1920 wurde mit großer Mehrheit eine Resolution angenommen, die den sofortigen Anschluss der Partei an die Kommunistische Internationale (Komintern) und die Vereinigung mit der KPD forderte. Ein gemeinsamer Parteitag von USPD und KPD vom 4. bis zum 7. Dezember schloss den Vereinigungsprozess zur Vereinigte Kommunistische Partei Deutschlands (VKPD) ab. Unter dem Vorsitz Thälmanns, der die Vereinigung befürwortete, schlossen sich 98 Prozent der Hamburger USPD-Mitglieder der VKPD an. Die verbleibenden Teile der USPD schlossen sich 1922 der MSPD sowie 1931 der SAPD an.
Thälmann blieb auch in der VKPD Vorsitzender der Hamburger Ortsgruppe und war Mitglied der Bezirksleitung Waterkant. Nach der Bürgerschaftswahl vom 20. Februar 1921 stieg Thälmann zum Vorsitzenden der VKPD-Fraktion in der Hamburgischen Bürgerschaft auf. Er nahm ab 22. Juni 1921 als Delegierter am III. Weltkongress der Komintern in Moskau teil, auf dem er unter anderem Lenin kennenlernte. Der Weltkongress fand nach den für die VKPD und andere linke Kräfte gescheiterten Märzkämpfen in Mitteldeutschland statt, in deren Nachfolge die Partei zwei Drittel ihrer 450.000 Mitglieder sowie eine Reihe einflussreicher Funktionäre wie ihren Parteivorsitzenden Paul Levi verlor. Thälmann verlor in diesem Zusammenhang am 29. März 1921 seine Anstellung beim Arbeitsamt, nachdem er unerlaubt seinem Arbeitsplatz ferngeblieben war, um einem Aufruf der VKPD zu den Waffen zu folgen und sich den Märzkämpfen anzuschließen. Die VKPD-Delegation um Thälmann agierte auf dem Weltkongress auf der Basis der "Offensivtheorie", die die revolutionäre Eroberung der Macht im Staat und die Bekämpfung der Sozialdemokratie beinhaltete. Zusammen mit den österreichischen und italienischen Delegationen wurde erfolglos versucht, Änderungen im Leitantrag des Kongresses zu "Thesen über die Taktik" der Komintern durchzusetzen. Diese sollten die Kritik an der "Offensivtheorie", an den begangenen Fehlern in den Märzkämpfen und an der Forderung zur Gewinnung der Mehrheit der Arbeiterklasse abschwächen. Die Annahme der Thesen durch den Weltkongress bedeutete die Hinwendung zur Theorie der Einheitsfront, die die (V)KPD unter der Losung „Heran an die Massen!“ aufgriff.
Sprengstoffanschlag.
Im Juni 1922 kam es vermehrt zu Sprengstoffanschlägen in Hamburg, beginnend mit der versuchten Sprengung des Denkmals für die "Gefallenen der Revolutionsjahre 1918–1920" auf dem Friedhof von Ohlsdorf. In der gleichen Nacht explodierte am Schaufenster der kommunistischen Hamburger "Volkszeitung" ein Sprengsatz, der die Auslage im Fenster und dadurch das Haus an der Börsenbrücke in Brand setzte. Am 3. und am 13. Juni detonierten Sprengsätze vor einer kommunistischen Buchhandlung in der Admiralitätstraße. Parallel kam es in Kassel am 4. Juni zu einem Blausäure-Anschlag auf den ehemaligen Reichsministerpräsidenten Philipp Scheidemann. In Hamburg kam es am 16. Juni erneut zu einem Brand bei der "Volkszeitung", und am 22. Juni wurden vor dem Haus der Freideutschen Jugend in der Johnsallee vier Bomben deponiert, von der lediglich eine zur Explosion kam.
Auf Thälmanns Parterrewohnung in der Hamburger Siemssenstraße wurde in der Nacht vom 17. auf den 18. Juni 1922 ein Sprengstoffanschlag verübt. Eine mit Zeitzünder und am Fenster der Wohnung angebrachte Handgranate explodierte, bei einer zweiten versagte die Zündung. Thälmann selbst war nicht anwesend, seine Familie überlebte unverletzt, weil sie sich in einem anderen Teil der Wohnung aufhielt, so dass nur Sachschaden entstand. Nachdem bereits ein Jahr zuvor Matthias Erzberger als vermeintlicher Erfüllungspolitiker ermordet worden war, wurde am 24. Juni Walther Rathenau erschossen. Die Täter konnten schnell mit der extrem rechten Organisation Consul in Verbindung gebracht werden. Auch die Anschläge in Hamburg konnten nach Hausdurchsuchungen der „Sprengkolonne Warnecke“ aus Mitgliedern der Organisation Consul zugeordnet werden.
Mitte Juli 1922 trat als Folge des rechten Terrors in der ganzen Weimarer Republik das Gesetz zum Schutz der Republik in Kraft. Allein in Hamburg wurden 24 rechte Organisationen verboten, darunter die Hamburger Ortsgruppe der NSDAP, der Verbindungen zur Tätergruppe der Sprengstoffanschläge nachgewiesen werden konnten. 25 Personen aus der „Sprengkolonne Warnecke“ und deren Umfeld wurden mit geringen Strafen rechtlich belangt.
Verhaftung, Gefangenschaft und Ermordung.
Verhaftung in Berlin.
Am Nachmittag des 3. März 1933 nahmen acht Beamte des Polizeireviers 121 Thälmann zusammen mit seinem persönlichen Sekretär Werner Hirsch in der Wohnung der KPD-Mitglieder Hans und Martha Kluczynski in Berlin-Charlottenburg (Lützower Straße 9, heute Alt-Lietzow 11) fest. Dass Thälmann die Wohnung des Ehepaares seit 1923 häufig und nun wieder seit Weihnachten 1932 benutzte, war in der Nachbarschaft bekannt. Als nach der Machtergreifung eine Jagd auf bekannte Kommunisten begann, erreichten die Polizei ab Februar 1933 mehrere entsprechende Meldungen, die jedoch unter hunderten anderen unbeachtet blieben. Erst das Insistieren Hermann Hilliges, eines Nachbarn der Kluczynskis in einer Kleingartenkolonie in Berlin-Gatow, führte am 3. März zur Verhaftung. Thälmann hatte am 27. Februar eine Sitzung des Politbüros in einem Lokal in der Lichtenberger Gudrunstraße geleitet und war nach seiner Rückkehr über den Reichstagsbrand und die schlagartig einsetzenden Massenverhaftungen kommunistischer Funktionäre informiert worden. In den nächsten Tagen verließ er die Wohnung nicht mehr und stand nur noch über Mittelsmänner mit der restlichen Parteiführung in Verbindung. Seinen für den 3. März geplanten Umzug in ein vom AM-Apparat vorbereitetes illegales Quartier, ein Forsthaus bei Wendisch Buchholz, hatte Thälmann bis in den Nachmittag hinein verzögert, weil er einen Kurier des Exekutivkomitees der Kommunistischen Internationale (EKKI) erwartete. Thälmanns Festnahme war rechtswidrig, da seine nach Artikel 40a der Reichsverfassung als Mitglied des Ausschusses zur Wahrung der Rechte der Volksvertretung gewährleistete Immunität auch durch die Reichstagsbrandverordnung nicht aufgehoben worden war. Erst am 6. März stellte ein Berliner Staatsanwalt „im Interesse der öffentlichen Sicherheit“ einen – formell ebenfalls rechtswidrigen – Haftbefehl aus, der dann rückdatiert wurde.
Einige Ungereimtheiten im Zusammenhang mit der die KPD stark verunsichernden Festnahme Thälmanns waren nach 1933 Gegenstand von parteiinternen Untersuchungen. Zu diesen zählte etwa, dass Thälmann trotz der offenen Verfolgung der Partei wochenlang ein und dieselbe, für eine derartige Situation nicht vorgesehene Wohnung genutzt hatte, vor allem aber der erstaunliche Umstand, dass weder das Gebäude noch die Wohnung selbst von Angehörigen des Parteiselbstschutzes gesichert worden war. Dadurch liefen nach einigen Stunden auch noch Erich Birkenhauer, Thälmanns politischer Sekretär, und Alfred Kattner, der persönliche Kurier des Parteichefs, in die Arme der Polizei. Bei den parteiinternen Ermittlungen geriet insbesondere Hans Kippenberger ins Zwielicht, der als Leiter des AM-Apparats die Verantwortung für die Sicherheit des Parteichefs trug und mit Blick auf die Ereignisse des 3. März auch ausdrücklich übernahm („eine Katastrophe und eine Schande vor der ganzen Internationale“). In den folgenden Jahren kam es dennoch wiederholt zu Vertuschungsversuchen und gegenseitigen Verdächtigungen der mittel- und unmittelbar beteiligten Personen, die noch durch gezielte Desinformationsmaßnahmen und vor allem durch weitere Verhaftungserfolge der Gestapo angeheizt wurden. Dieser war es gelungen, Kattner in der Haft „umzudrehen“ und mit dessen Hilfe am 9. November 1933 den Thälmann-Nachfolger John Schehr sowie am 18. Dezember auch Hermann Dünow, der Kippenberger abgelöst hatte, festzunehmen. Kattner, dem von der Gestapo obendrein eine tragende Rolle im geplanten Prozess gegen Thälmann zugedacht worden war, wurde am 1. Februar 1934 in Nowawes von Hans Schwarz, einem Mitarbeiter des AM-Apparats, erschossen. Birkenhauer, dem Thälmann die Schuld an der Verzögerung seines Quartierwechsels und damit an seiner Festnahme gegeben hatte, und Kippenberger wurden im sowjetischen Exil hingerichtet, Hirsch kam in sowjetischer Haft ums Leben.
Die nationalsozialistische Justiz plante zunächst, Thälmann wegen Hochverrats vor Gericht zu stellen. Hierfür sammelte sie intensiv belastendes Material, das die behauptete „Putschabsicht“ der KPD beweisen sollte. Ende Mai 1933 wurde Thälmanns „Schutzhaft“ aufgehoben und eine formelle Untersuchungshaft angeordnet. In diesem Zusammenhang wurde er vom Polizeipräsidium am Alexanderplatz in die Untersuchungshaftanstalt Moabit verlegt. Dieser Ortswechsel durchkreuzte den ersten einer Reihe von unterschiedlich konkreten Plänen, Thälmann zu befreien.
Thälmann wurde 1933 und 1934 mehrfach von der Gestapo in deren Zentrale in der Prinz-Albrecht-Straße verhört und dabei auch misshandelt. Bei einem Verhör am 8. Januar schlug der Kriminalkommissaranwärter und SA-Standartenführer Karl Belding ihm vier Zähne aus und traktierte ihn anschließend mit einer Nilpferdpeitsche. Am 19. Januar suchte Hermann Göring den zerschundenen Thälmann auf und ordnete seine Rückverlegung in das Untersuchungsgefängnis Moabit an. Die in dieser Phase entstandenen Verhörprotokolle wurden bis heute nicht aufgefunden und gelten als verloren. Thälmann blieb unterdessen lange ohne Rechtsbeistand; der jüdische Anwalt Friedrich Roetter, der sich seiner angenommen hatte, wurde nach kurzer Zeit aus der Anwaltschaft ausgeschlossen und selbst in Haft genommen. 1934 übernahmen die Rechtsanwälte Fritz Ludwig, ein NSDAP-Mitglied, und Helmut R. Külz die Verteidigung Thälmanns. Vor allem Ludwig, der für ihn Kassiber aus der Zelle bzw. Zeitungen und Bücher in die Zelle schmuggelte sowie die als Geheime Reichssache deklarierte Anklageschrift an Unterstützer im Ausland weiterleitete, vertraute Thälmann sehr. Über die Anwälte – daneben auch über Rosa Thälmann – lief ein Großteil der verdeckten Kommunikation zwischen Thälmann und der KPD-Führung. Mit Rücksicht auf das Ausland, vor allem aber, weil die Beweisabsicht der Staatsanwaltschaft erkennbar wenig gerichtsfest war und ein mit dem Reichstagsbrandprozess vergleichbares Desaster vermieden werden sollte, einigten sich die beteiligten Behörden im Laufe des Jahres 1935, von einer „justizmäßigen Erledigung“ Thälmanns Abstand zu nehmen. Am 1. November 1935 hob der II. Senat des Volksgerichtshofes die Untersuchungshaft auf (ohne das Verfahren als solches einzustellen) und überstellte Thälmann gleichzeitig als „Schutzhäftling“ an die Gestapo.
1935/36 erreichte die internationale Protestbewegung gegen die Inhaftierung Thälmanns einen Höhepunkt. Zu seinem 50. Geburtstag am 16. April 1936 bekam er Glückwünsche aus der ganzen Welt, darunter von Maxim Gorki, Heinrich Mann, Martin Andersen Nexø und Romain Rolland. Im selben Jahr begann der Spanische Bürgerkrieg. Die XI. Internationale Brigade und ein ihr untergliedertes Bataillon benannten sich nach Ernst Thälmann.
Gefängnis und Zuchthaus.
1937 wurde Thälmann als Schutzhäftling von Berlin in das Gerichtsgefängnis Hannover überführt. Hier bekam er später eine größere Zelle, in der er Besuch empfangen konnte. Dies war ein Vorwand, um ihn in der Zelle abzuhören. Allerdings wurde ihm die Information über das heimliche Abhören zugespielt. Um sich dennoch frei „unterhalten“ zu können, nutzten er und seine Besucher kleine Schreibtafeln und Kreide.
Als Deutschland und die Sowjetunion 1939 ihre Beziehungen verbessert hatten (Hitler-Stalin-Pakt), setzte Stalin sich offenbar nicht für Thälmanns Freilassung ein. Nach der Befreiung seiner Familie durch die Rote Armee im Jahr 1945 erfuhren die Angehörigen sogar, dass Thälmanns Rivale Walter Ulbricht alle ihre Bitten ignoriert und nicht für die Befreiung von Thälmann Position bezogen hatte.
Anfang 1944 schrieb Ernst Thälmann in der Justizvollzugsanstalt Bautzen "Antwort auf die Briefe eines Kerkergenossen."
Ermordung in Buchenwald.
Die genauen Umstände von Thälmanns Tod konnten bisher nicht umfassend aufgeklärt werden und sind in der Forschung umstritten, doch geht die Mehrheit der Wissenschaft sowie die Gedenkstätte des KZ Buchenwald vom 18. August 1944 als Todesdatum aus. Thälmanns Hinrichtung steht dabei im Zusammenhang mit der "Aktion Gitter" und der nationalsozialistischen Repressionen gegen Regimegegner nach dem fehlgeschlagenen Attentat vom 20. Juli 1944. Am 14. August 1944 traf der Reichsführer SS Heinrich Himmler mit Adolf Hitler in seinem Hauptquartier in Ostpreußen zusammen. In einem überlieferten Zettel Himmlers zum Gesprächsinhalt des Treffens ist neben einigen Namen aus dem Verschwörerkreis des 20. Julis als letzter Punkt "12. Thälmann" mit der handschriftlichen Ergänzung "ist zu exekutieren" vermerkt. In dem vom Bundesgerichtshof aufgehobenen Urteil des Landgerichts Krefeld zur Ermordung Thälmanns wurde festgehalten, dass der SS-Stabsscharführer Wolfgang Otto als „rechte Hand des Lagerkommandanten“ Hermann Pister telefonisch oder per Fernschreiben vorab am Nachmittag oder Abend des 17. August die Ankündigung des RSHA erhielt, dass ein wichtiger Häftling eintreffen werde, der im Lager zu exekutieren und sofort zu verbrennen sei.
Der rekonstruierte Hergang war demnach, dass Thälmann am 17. August 1944 durch zwei Beamte der Gestapo aus dem Zuchthaus Bautzen ins KZ Buchenwald gebracht wurde, das die Geheimpolizei häufig als verdeckten Hinrichtungsort nutzte. Hier soll Thälmann ohne Gerichtsverfahren erschossen worden sein. Die Erschießung soll am frühen Morgen des 18. August in einem Heizungskeller nahe dem Krematorium geschehen und seine Leiche im Anschluss sofort verbrannt worden sein. So berichten Zeugen, dass am Nachmittag des 17. August auf Befehl sofort ein Verbrennungsofen anzuheizen war und die Asche nach der Verbrennung dunkel gewesen sei, was auf eine Verbrennung mit Kleidung zurückzuführen wäre. Der polnische Häftling Marian Zgoda soll die Tat sogar – versteckt hinter einem Schlackehaufen – direkt beobachtet haben. Zgoda sagte vor dem Landgericht Krefeld aus, er habe gehört, einer der Schützen habe die Frage eines anderen bejaht, ob es sich bei dem Erschossenen um Thälmann handele. Bei einem der mutmaßlichen Täter sollte es sich dieser Aussage nach um den SS-Stabsscharführer Wolfgang Otto gehandelt haben. Nach einem mehrjährigen Verfahren wurde Otto im Jahre 1988 in der Bundesrepublik freigesprochen. Auch der SS-Oberscharführer Werner Berger und der SS-Obersturmführer Erich Gust werden mit der Ermordung Thälmanns in Verbindung gebracht. Der Buchenwald-Häftling Walter Hummelsheim schilderte dagegen, Thälmann sei erst vier oder fünf Tage nach dem Luftangriff auf das KZ Buchenwald am 24. August 1944, zusammen mit neun anderen Kommunisten, in der Stallanlage des Lagers erschossen worden. Die dort Ermordeten seien nie in die offiziellen Lagerlisten aufgenommen worden.
Gesichert ist, dass am 14. September die offizielle zentrale Presseagentur des Deutschen Reichs, das Deutsche Nachrichtenbüro, wahrheitswidrig die Meldung verbreitete, dass Thälmann und der ehemalige Vorsitzende der SPD-Reichstagsfraktion Rudolf Breitscheid bei einem alliierten Bombenangriff auf die Umgebung von Weimar am 28. August im Konzentrationslager ums Leben gekommen seien, der u. a. bereits vier Tage früher am 24. August geflogen wurde. Die Meldung wurde von den verschiedensten nationalsozialistischen Organen wortgleich übernommen:
Mit dem Bekanntwerden der Ermordung Thälmanns im Konzentrationslager organisierten kommunistische Häftlinge um den Gewerkschafter Willi Bleicher im Lager eine illegale Gedenkfeier, auf der der ehemalige sächsische Landtagsabgeordnete Robert Siewert die Gedenkrede hielt.
Rosa und Irma Thälmann waren im April bzw. Mai 1944 verhaftet und ins KZ Ravensbrück eingeliefert worden.
Politisches Denken und Handeln.
Hamburger Aufstand.
Thälmann soll nach Festhaltungen von KPD und der späteren DDR Teilnehmer und einer der Organisatoren des Hamburger Aufstandes vom 23. bis 25. Oktober 1923 im Rahmen des Deutschen Oktobers gewesen sein. Der Aufstand scheiterte, und Thälmann musste neben anderen Vertretern der KPD für eine Weile untertauchen. Erich Wollenberg schrieb später in den "Schwarzen Protokollen", dass Thälmann weder an den Kämpfen teilnahm, noch diese organisierte, weil er als führender Funktionär der lokalen KPD nichts mit der Tätigkeit des konspirativ und illegal organisierten "Militärischen Apparats" der KPD zu tun gehabt hätte.
Thälmann urteilte zur zweijährigen Wiederkehr des Beginns des Aufstandes in der Berliner Ausgabe des Parteiorgans "Die Rote Fahne":
Das Scheitern des Aufstandes wurde vor allem den ehemaligen KPD-Vorsitzenden und „Rechtsabweichlern“ Heinrich Brandler und August Thalheimer vorgeworfen. Die fehlende Bolschewisierung sei schuld an der Niederlage gewesen. Zu einem ähnlichen Schluss kam Georgi Dimitrow nach dem gescheiterten „Antifaschistischen Septemberaufstand“ 1923 in Bulgarien.
Parteivorsitzender.
Ab Februar 1924 war er stellvertretender Vorsitzender und ab Mai Reichstagsabgeordneter der KPD. Unter seiner Führung lehnte die Partei die Kritik Rosa Luxemburgs am Leninismus als "Luxemburgismus" ab, was sich in der unkritischen Solidarität mit Stalin bemerkbar machte. Die Entwicklung der bolschewistischen Partei in der Sowjetunion, die sich mehr auf Stalin und seine gesonderte Interpretation des Kommunismus konzentrierte, machte sich auch unter ihm in der KPD bemerkbar. Das Reichstagsmandat hatte Thälmann bis zum Ende der Weimarer Republik inne. Im Sommer 1924 wurde er auf dem V. Kongress der Komintern in ihr Exekutivkomitee und kurze Zeit später ins Präsidium gewählt. Am 1. Februar 1925 wurde er Vorsitzender des Roten Frontkämpferbundes und am 1. September des Jahres Vorsitzender der KPD, als Nachfolger von Ruth Fischer, die kurze Zeit später als „ultralinke Abweichlerin“ aus der KPD ausgeschlossen wurde. Im Oktober 1926 unterstützte Thälmann in Hamburg den dortigen Hafenarbeiterstreik. Er sah dies als Ausdruck der Solidarität mit einem englischen Bergarbeiterstreik, der seit dem 1. Mai anhielt und sich (positiv) auf die Konjunktur der Unternehmen im Hamburger Hafen auswirkte. Thälmanns Absicht war, dieses „Streikbrechergeschäft“ von Hamburg aus zu unterbinden. Am 22. März 1927 beteiligte sich Ernst Thälmann an einer Demonstration in Berlin, wo er durch einen streifenden Säbelhieb über dem rechten Auge verletzt wurde. 1928 fuhr Thälmann nach dem VI. Kongress der Komintern in Moskau nach Leningrad, wo er zum Ehrenmitglied der Besatzung des Kreuzers "Aurora" ernannt wurde.
Reichspräsidentenwahl 1925.
Thälmann kandidierte für die KPD bei der Reichspräsidentenwahl 1925 für das Amt des Reichspräsidenten im ersten und zweiten Wahlgang. Nachdem im ersten Wahlgang durch die Zersplitterung des Kandidatenfeldes keiner der Kandidierenden die absolute Mehrheit erreichen konnte, bildete sich um die Weimarer Koalition von SPD, DDP und Zentrum der republikanische „Volksblock“. Im zweiten Wahlgang unterstützte dieser den bereits im ersten Wahlgang kandidierenden Wilhelm Marx. Der ebenfalls nun zusammengeschlossene antirepublikanische „Reichsblock“ zog seine unterschiedlichen Kandidierenden aus dem ersten Wahlgang zurück und stellte als neuen Kandidaten Paul von Hindenburg auf. Thälmann erhielt im ersten Wahlgang mit 1.871.815 Stimmen einen Anteil von 7,0 Prozent der abgegebenen Stimmen. Trotz gegenteiliger Empfehlung des EKKI trat Thälmann auch im zweiten Wahlgang, in dem die einfache Mehrheit für einen Kandidaten genügte. Er folgte damit einen Beschluss seiner KPD-Zentrale vom 11. April 1925. Die Partei erkläre hierzu öffentlich:
Der zweite Wahlgang konnte durch von Hindenburg mit 48,3 Prozent gegen Marx mit 45,3 Prozent der Stimmen gewonnen werden. Thälmann konnte mit 1.931.151 Stimmen sein Ergebnis absolut verbessern, mit den erreichten 6,4 Prozent der Stimmen jedoch nicht relativ. "Die Rote Fahne", das Zentralorgan der KPD, deutete den Wahlausgang als „Symbol der Vollendung des Sieges der Bourgeoisie“. Diese habe seit den Revolutionstagen Schritt für Schritt die Macht wiedererlangt. Nach dem Nichtbeachten der Empfehlung des EKKI durch die KPD veröffentlichte diese wenige Tage später nach der Einschätzung der KPD zum Wahlergebnis im gleichen Medium einen Aufruf, der die Entscheidung zum erneuten Wahlantritt Thälmanns kritisierte:
Die Entscheidung der KPD im zweiten Wahlgang erneut anzutreten, wurde in der Geschichtsschreibung der DDR als Verantwortung ultralinker und sektiererischer Kräfte innerhalb der Partei und dessen Führung angesehen.
Wittorf-Affäre.
Bei der Rückkehr vom VI. Weltkongress der Kommunistischen Internationale berichtete Thälmann Wilhelm Florin über die Veruntreuung von Parteigeldern in Höhe von mindestens 1.500 Mark seitens des Politischen Sekretärs des KPD-Bezirks Wasserkante, John Wittorf. Bei dieser Gelegenheit gab er zu, bereits seit Mai von der Unterschlagung gewusst zu haben, sie jedoch verschwiegen zu haben, um Schaden von der Partei im Rahmen der Reichstagswahl 1928 abzuwenden für die Wittorf auch kandidierte. Er hatte seit 1927 seine Funktion im Bezirk Wasserkante inne und war seit dem 11. Parteitag Mitglied im ZK. Willy Presche, Ludwig Riess und John Schehr waren auf die Unterschlagung aufmerksam geworden und baten um ein Gespräch Thälmanns mit Wittorf. Er konnte Wittorf davon überzeugen, Schuldscheine auszustellen und über diese das Geld der Partei zurückzuzahlen.
Am Abend des 26. September 1928 schloss das Zentralkomitee der Partei den Hamburger Wittorf aus der Partei aus und entfernte ihn von allen politischen Ämtern. Die Parteirechte – die "Versöhnler" – forderte sogar den Ausschluss Thälmanns aus der Partei. Dieser beantragte – den Statuten entsprechend – eine Diskussion im Exekutivkomitee der Kommunistischen Internationale (EKKI) und bekannte sich zu seinen Fehlern in der Wittorf-Affäre. Am Ende der ZK-Sitzung fokussierte man eine öffentliche Parteidiskussion, indem man einen Text über Thälmanns Verfehlungen im Partei-Organ "Die Rote Fahne" platzierte. In der Druckerei zog man in Erwägung, den Text nicht abzudrucken. Thälmann sollte all seiner Ämter enthoben werden. Er erklärte, sein Parteiamt bis zur endgültigen Klärung des Falles ruhen zu lassen. (Die oft anzutreffende Aussage, Thälmann sei abgesetzt worden, ist unzutreffend.) Weitergehende Anträge waren der Ausschluss von Presche, Ries und Schehr, die Thälmann auf die Unterschlagung Wittorfs hinwiesen, die Einberufung eines Sonderparteitags, die Umformung des Zentralkomitees mit der Einbeziehung von Heinrich Brandler und August Thalheimer in die Parteiarbeit und die Einstellung der "Hetze" gegen die "Rechten" in der Partei. Es wurde versucht, die Affäre auszunutzen, um einen Putsch innerhalb der Partei durchzuführen und die Beschlüsse des 11. Parteitags in Essen zu revidieren. Es kam zu Protesten innerhalb der Partei und der "Roten Fahne".
Das EKKI setzte Thälmann am 6. Oktober nach einer Intervention Stalins wieder in seine Parteifunktionen ein. Stalin verurteilte die Fraktionsbildung innerhalb der KPD, die Lenin schon in seinem Werk "Was tun?" kritisiert hatte und die bei den Mitgliedsparteien der KI verboten war, obgleich die Broschüre sich auf die besondere Rolle der Parteien im damaligen zaristischen System konzentrierte, da eine legale Parteiarbeit unmöglich erschien. Des Weiteren wurden die Beschlüsse des Essener Parteitags durch das EKKI bestätigt, der Ausschluss Wittorfs und die fehlerhafte Haltung Thälmanns bestätigt. Dem EKKI-Präsidium lag ein Telegramm vor, das am 5. Oktober Otto Kuusinen zugegangen war. Darin distanzierten sich 25 Mitglieder des deutschen ZK von dessen am 26. September gefassten Beschluss gegen Thälmann. Philipp Dengel, der als Sekretär des ZK den Vorsitz mit Thälmann innehatte und ebenfalls für dessen Absetzung stimmte, wurde auf dem nachfolgenden Parteitag der KPD nicht wieder bestätigt und war nur einfaches Mitglied im ZK. Thälmann besaß nun den alleinigen Vorsitz der Partei. Daraufhin kehrte Heinrich Brandler, der bis dahin im "Moskauer Ehrenexil" weilte, zusammen mit Thalheimer zurück und gründete als kommunistische Gegenspielerin die KPD-O, woraufhin alle Beteiligten aus der KPD ausgeschlossen wurden.
In den nachfolgenden Wochen wurde in den KPD-Bezirken in Sitzungen der Bezirksleitungen und Parteiarbeiterkonferenzen die Resolution der EKKI diskutiert und zur Abstimmung gestellt. Die parteiinterne Abstimmung ergab eine "dominierende Majorität in der Partei". Die Affäre samt ihrem Widerhall in der Öffentlichkeit schadete der KPD in ihrer Kampagne für einen Volksentscheid gegen den angestrebten Panzerschiffsbau der SPD-Regierung, den sie in der Opposition zuvor bekämpft hatte.
Reichspräsidentenwahl 1932.
Die Reichspräsidentenwahl von 1932 war die zweite und letzte Reichspräsidentenwahl in der Weimarer Republik, bei der der Reichspräsident direkt vom Volk gewählt wurde und bei der Adolf Hitler als Reichspräsident kandidierte. Für die KPD trat erneut Thälmann an. Sowohl die Parteiführung wie auch die Komintern hofften, dass Thälmann bei der erwarteten Unterstützung der SPD für Hindenburg einen Großteil der SPD-Anhänger für sich gewinnen könnte, weil diese sich weigern würden den erklärten Monarchisten Hindenburg zu unterstützen. Eine Parole der KPD zur Wahl Thälmanns lautete: „Wer Hindenburg wählt, wählt Hitler, wer Hitler wählt, wählt den Krieg.“ Es gelang der KPD, bei allen weiter bestehenden Vorbehalten, die Unterstützung der kleinen linkssozialistischen Organisationen Sozialistische Arbeiterpartei und Internationaler Sozialistischer Kampfbund für Thälmann zu erreichen. Auch von linken Intellektuellen wie Carl von Ossietzky bekam Thälmann Zustimmung, weil dieser der einzige linke Kandidat sei.
Hindenburg verfehlte im ersten Wahlgang mit 49,5 Prozent der Stimmen die absolute Mehrheit knapp. Thälmann konnte 4.983.341 Stimmen für sich gewinnen, erreichte damit ein Ergebnis von 13,2 Prozent und konnte sich im Vergleich zur letzten Reichstagswahl im Juli 1930 um 400.000 Stimmen bzw. 0,1 Prozentpunkte verbessern. In den großen Arbeiterstädten wie Berlin und Hamburg musste die Partei allerdings erhebliche Verluste hinnehmen. Damit war deutlich, dass die KPD die Mehrheit der wegen der Unterstützung Hindenburgs enttäuschten SPD-Anhänger trotz der Polarisierung zur Verhinderung Hitlers als Reichspräsidenten nicht für sich gewinnen konnte. Nichtsdestotrotz entschied die KPD, Thälmann auch im zweiten Wahlgang antreten zu lassen. Gemäß dem Willen Stalins sollte sich die Partei im Wahlkampf vor allem auf die SPD als „gemäßigten Flügel des Faschismus und Zwillingsbruder des Hitlerfaschismus“ als Teil der Sozialfaschismus-These konzentrieren. Im zweiten Wahlgang verblieben mit Hindenburg, Hitler und Thälmann nur noch drei Kandidaten, unter denen Hindenburg mit der absoluten Zahl der Stimmen die Wahl für sich entscheiden konnte. Der Zuspruch für Thälmann sank auf 3.706.759 Stimmen, die nur noch 10,2 Prozent der abgegebenen gültigen Stimmen entsprach.
Kampf gegen die SPD.
Auf dem 12. Parteitag der KPD vom 9. bis 15. Juni 1929 in Berlin-Wedding ging Thälmann angesichts der Ereignisse des Blutmai, der sich dort zuvor zugetragen hatte, auf deutlichen Konfrontationskurs zur SPD. Neben innenpolitischem Engagement setzte er sich auch für außenpolitische und nationale Belange ein, insbesondere kritisierte er die Nationalsozialisten, die nicht für die Anträge der KPD stimmten, die einen Austritt aus dem Völkerbund und eine Beseitigung der Reparationslasten forderten. So schrieb er in einem Brief in der "Neuen Deutschen Bauernzeitung Nr. 4 von 1931": „Die nationalsozialistischen und deutschnationalen Betrüger versprachen euch Kampf zur Zerreißung des Youngplanes, Beseitigung der Reparationslasten, Austritt aus dem Völkerbund, aber sie wagten nicht einmal, im Reichstag für den kommunistischen Antrag auf Einstellung der Reparationszahlungen, Austritt aus dem Völkerbund zu stimmen.“ In dem Brief betont er auch seine nationalen Absichten mit „Vorwärts zur nationalen und sozialen Befreiung!“ Gegen den stärker werdenden Nationalsozialismus propagierte er kurze Zeit später eine „Antifaschistische Aktion“ als „Einheitsfront von unten“, also unter Ausschluss der SPD-Führung. Dieses Vorgehen entsprach der Sozialfaschismusthese der Komintern. Die Zerschlagung der SPD blieb ein zentrales Ziel der KPD. Die Antifaschistische Aktion diente auch dazu, deren Führer als Verräter der Arbeiterklasse zu „entlarven“. Nach der Reichstagswahl im November 1932, bei der die NSDAP eine empfindliche Stimmeneinbuße verzeichnete, schienen die Nationalsozialisten auf einem absteigenden Ast. Thälmann verschärfte den Kampf der KPD gegen die Sozialdemokratie im Gegenzug abermals.
Als der NSDAP am 30. Januar 1933 die Macht übertragen wurde, schlug Thälmann der SPD einen Generalstreik vor, um Hitler zu stürzen, doch dazu kam es nicht mehr. Am 7. Februar des Jahres fand im Sporthaus Ziegenhals bei Königs Wusterhausen eine vom ZK einberufene Tagung der politischen Sekretäre, ZK-Instrukteure und Abteilungsleiter der KPD statt. Auf dem von Herbert Wehner vorbereiteten Treffen sprach Thälmann zum letzten Mal vor leitenden KPD-Funktionären zu der am 5. März 1933 bevorstehenden Reichstagswahl.
Ehrungen.
Karl-Liebknecht-Haus.
Nachdem das durch die Schlacht um Berlin schwer zerstörte Karl-Liebknecht-Haus wiederaufgebaut wurde, enthüllte der Präsident der DDR Wilhelm Pieck am ehemaligen Sitz der KPD und Arbeitsstätte Thälmanns im Rahmen einer Massenveranstaltung am 16. April 1952 eine Gedenktafel zu Ehren des KPD-Vorsitzenden im Eingangsbereich des Hauses. In den Jahren 1978 bis 1980 wurde der Erdgeschoßbereich aufwendig zur größten Thälmann-Gedenkstätte der DDR umgebaut. Neben Fotos, Plakaten und Publikationen wurden auch Handschriften Thälmanns ausgestellt sowie Modelle der Haftanstalt Bautzen und des Krematoriumhofs des ehemaligen KZ Buchenwalds. Die Gedenkstätte verfügte über eine Schallplattenaufnahme als einzig bekannte Aufzeichnung der Stimme Thälmanns aus dem Reichstagswahlkampf 1928. Nach der Auflösung der Gedenkstätte ging die Schallplatte in den Fundus des Deutschen Historischen Museums über.
Ernst-Thälmann-Park.
Im Berliner Ortsteil Prenzlauer Berg befindet sich zu Ehren von Ernst Thälmann eine Kolossalstatue. Das Thälmann-Denkmal wurde vom sowjetischen Bildhauer Lew Kerbel geschaffen. Die Enthüllung erfolgte am 15. April 1986 in der heute ebenfalls unter Denkmalschutz stehenden Ernst-Thälmann-Parkanlage. Am Folgetag begann an Thälmanns hundertstem Geburtstag der XI. Parteitag der Sozialistischen Einheitspartei Deutschlands (SED) in Berlin. Die "Siedlung Ernst-Thälmann-Park" ist eine Wohn- und Parkanlage mit einer Gesamtfläche von 25 Hektar, wovon 16 ha auf die reinen Park- und Grünflächen entfallen. Aus Anlass der 750-Jahr-Feier Berlins im Jahr 1987 würdigte die DDR die neu entstandene Wohn- und Parkanlage durch Ausgabe eines Briefmarkenblocks.
Das 14 Meter hohe und 15 Meter breite Ernst-Thälmann-Denkmal aus Bronze steht auf einem Sockel aus ukrainischem Granit. Es ist 50 Tonnen schwer und wurde aus 272 Einzelteilen gefertigt. Den Hauptteil des Denkmals nimmt eine Büste Thälmanns ein. In der Bluse des Rotfrontkämpferbundes erhebt er die rechte Faust zum Gruß. Hinter ihm weht eine stilisierte Arbeiterfahne. Der Sockel trägt, jeweils in Großbuchstaben, vorne die Inschrift „Ernst Thälmann“ und an den Seiten „Rotfront“. Zum Denkmal gehörten an den Seiten des Vorplatzes zwei bronzene Stelen auf Granitsockeln, die der Rat des Stadtbezirks Prenzlauer Berg am 11. Juli 1990 entfernen ließ. Sie befinden sich seit 2012 in der Dauerausstellung "Enthüllt. Berlin und seine Denkmäler" in der Zitadelle Spandau.
Nach etlichen Diskussionen und von Bürgern vertretenen Meinungen hat der Senat von Berlin das Ensemble aus Parkanlage mit Wohnhäusern und das Denkmal 2014 unter Denkmalschutz gestellt. Zur Begründung heißt es: Das Wohngebiet sei . Im Jahr 2019 lobte das Bezirksamt Pankow einen Wettbewerb zur „künstlerischen Kommentierung“ des Ernst-Thälmann-Denkmals aus. Darin wurde zur kritischen Auseinandersetzung mit Geschichte und Gegenwart des Ernst-Thälmann-Denkmals sowie zu innovativen Konzepten für die Belebung des Ortes aufgerufen. Auf fünf farbigen Betonelementen können Anwohner und Passanten zukünftig verweilen. Das Zentrum der künstlerischen Auseinandersetzung bilden 10 Kurzfilme, die über QR-Codes an den benutzbaren Sockeln aufgerufen werden können.
Sonstige Ehrungen.
In der DDR wurde Thälmann als „Führer der deutschen Arbeiterklasse“ geehrt. Dies führte zur Errichtung zahlreicher Denkmäler ihm zu Ehren sowie zur Benennung von Straßen und Schulen mit seinem Namen. Teilweise wurden diese nach der Wiedervereinigung Deutschlands 1990 wieder umbenannt, teilweise blieben ihre Namen bestehen. 1946 wurde in Hamburg die Eimsbütteler Straße in „Ernst-Thälmann-Straße“ umbenannt. Unter dem Eindruck des ungarischen Volksaufstandes gegen die sowjetischen Truppen der Roten Armee bekam sie am 16. Januar 1956 den Namen „Budapester Straße“.
Nach Ernst Thälmann wurden des Weiteren benannt:
Seit 1969 gibt es in Hamburg die private „Gedenkstätte Ernst Thälmann“ mit musealen Charakter und zugehörigen Archiv in seinem ehemaligen Wohnhaus am 1985 nach ihm benannten „Ernst-Thälmann-Platz“. In der jetzigen Justizvollzugsanstalt Bautzen befindet sich die aufgearbeitete Einzelhaftzelle Thälmanns im Originalzustand, die durch einige Gedenkelemente ergänzt wurde.
Für Ernst Thälmann wurden mehrere Stolpersteine in verschiedenen Städten verlegt:
Seit 1992 erinnert am Berliner Platz der Republik am Eingang des temporären "Besucherzentrums Deutscher Bundestag" eine der 96 Gedenktafeln zur Erinnerung an von den Nationalsozialisten ermordeten Reichstagsabgeordneten an Ernst Thälmann.
In der ehemaligen Sowjetunion und seinen Nachfolgestaaten existieren mehrere Ortschaften, meist gegründet von deutschsprachigen Minderheiten, die nach Thälmann benannt wurden:
Rezeption.
Weimarer Republik.
Schon zu Lebzeiten wurde Thälmann auch von der Linken zum Teil scharf kritisiert. Die damalige KPD-Führung stand dem unter seiner Führung stehenden Hamburger Aufstand kritisch gegenüber. In seiner Zeit als Chef der KPD unterwarf Thälmann die deutschen Kommunisten der Hegemonie der Kommunistischen Partei der Sowjetunion. Anhänger eines unabhängigen Kurses wurden aus der Partei gedrängt.
Clara Zetkin, die im April 1925 mit ihrer Polemik gegen Thälmanns Amtsvorgängerin Ruth Fischer vor dem Exekutivkomitee der Komintern mithalf, diesen an die Spitze der Partei zu bringen, charakterisierte die KPD unter Thälmann im September 1927 als „schwach und unfähig“, geprägt durch „Herausbildung kleiner Kliquen, persönliches Intrigieren, Gegeneinanderarbeiten“. Einem scheinbar hilflosen Thälmann attestiert sie, dass er „… kenntnislos und theoretisch ungeschult ist, in kritiklose Selbsttäuschung und Selbstverblendung hineingesteigert wurde, die an Größenwahnsinn grenzt und der Selbstbeherrschung mangelt …“
Bundesrepublik Deutschland.
Der Historiker Götz Aly kritisiert Thälmanns Rolle im Hamburger Aufstand, bei dem 14 Polizisten, 24 Aufständische und 61 unbeteiligte Bürger starben. Weiterhin kritisiert Aly Thälmanns Unterstützung der Sozialfaschismustheorie, mit der er die SPD zum Hauptfeind erklärte und so den Untergang der Weimarer Republik förderte.
Die Strategie der KPD während der Weimarer Republik, in der SPD einen Hauptfeind zu sehen, wird als Schwächung der antifaschistischen Kräfte gesehen. Der Kommunismus-Forscher Hermann Weber urteilt kritisch: „Thälmann muss bei allem Respekt für seine Standhaftigkeit in Hitlers Kerker nachgesagt werden, dass er nur ein Provinzpolitiker mit demagogischem Talent war.“ Klaus Schroeder, der Leiter des "Forschungsverbundes SED-Staat an der Freien Universität Berlin", stellt in dem Artikel "Warum wir Thälmann nicht ehren sollten" fest, dass der „KPD-Führer ein Gegner der Demokratie“ war.
Deutsche Demokratische Republik.
Die Gründung der späteren Staatspartei SED hatte verstärkte Bemühungen zur Folge das Andenken an Thälmann in der SBZ und nachfolgenden DDR wachzuhalten. Er galt für die Partei durchgängig als „Deutschlands unsterblicher Sohn“ und „bedeutendster Arbeiterführer“ und fand als idealisierte politisch-ideologische Leitfigur Eingang im Erziehungs- und Bildungssystem. In diesem Zusammenhang war auch die politische Massenorganisation für Kinder in der DDR nach Thälmann benannt. Die Staatsoberhäupter der DDR von Wilhelm Pieck über Walter Ulbricht zu Erich Honecker inszenierten sich hierbei in persönlicher wie politische Traditionslinie zu Thälmann, um aus dieser einen Berechtigungsanspruch abzuleiten. Basierend auf der Leitfigur Thälmann berief man sich im eigenen wie staatlichen Handeln auf die vorbildhaften "Thälmannschen Traditionen", deren Bestandteil waren:
Publikationen.
Postum erschienen:
Literatur.
Literatur vor 1945
DDR-Literatur
Literatur (seit 1996) |
1280 | 3933557 | https://de.wikipedia.org/wiki?curid=1280 | El Niño | El Niño (spanisch für „der Junge, das Kind“, hier konkret: „das Jesuskind“; pl. los niños) nennt man das Auftreten ungewöhnlicher, nicht zyklischer, veränderter Meeresströmungen im ozeanografisch-meteorologischen System ("El Niño-Southern Oscillation", ENSO) des äquatorialen Pazifiks. Das Phänomen tritt in unregelmäßigen Abständen von durchschnittlich vier Jahren auf. Der Name ist von „"El Niño de" Navidad“ abgeleitet und bezieht sich auf das neugeborene Jesuskind, dessen Geburt zu Weihnachten, also dem Zeitpunkt des Auftretens des Wetterphänomens, gefeiert wird. Er stammt von peruanischen Fischern, die den Effekt aufgrund der dadurch ausbleibenden Fischschwärme wirtschaftlich zu spüren bekommen.
Ablauf.
Zur Weihnachtszeit beträgt die normale Wassertemperatur im Pazifik vor Indonesien 28 °C, die vor der Küste Perus dagegen nur 24 °C. Durch die Passatwinde kommt es vor Peru zum Auftrieb von kühlem Wasser aus den Tiefen des Ozeans. Dieser Auftrieb ist Teil des Humboldtstroms vor der Küste Südamerikas.
Bei El Niño kommt es zu einem geringeren Auftrieb durch die schwächeren Passatwinde und somit wird der kalte Humboldtstrom allmählich schwächer und kommt zum Erliegen. Das Oberflächenwasser vor der Küste Perus erwärmt sich so sehr, dass die obere Wasserschicht nicht mehr mit dem kühlen und nährstoffreichen Tiefenwasser durchmischt wird. Deshalb kommt es zum Absterben des Planktons, das zum Zusammenbruch ganzer Nahrungsketten führt. Außerdem führen die größeren Mengen verdunstenden Wassers vor der südamerikanischen Pazifikküste zu sehr starken Regenfällen an der Westseite der Anden, die zu Hangrutschungen und Überschwemmungen der Abflussgewässer führen; dadurch werden auch die Siedlungen der Bewohner betroffen.
Der Ostpazifik vor Südamerika erwärmt sich, während vor Australien und Indonesien die Wassertemperatur absinkt. Aufgrund der im Normalfall erhöhten Temperatur im Westpazifik kommt es zu einer Luftdruckabnahme und im kälteren Ostpazifik zur Bildung eines Hochdruckgebiets. Dadurch entstehen bodennahe Ostwinde, die warmes Oberflächenwasser aus dem Pazifik vor Südamerika in Richtung Westen nach Indonesien schieben. Während eines El Niños wird diese Luftzirkulation, genannt „Walker-Zirkulation“, umgekehrt. Dabei strömt während eines Zeitraums von etwa drei Monaten das warme Oberflächenwasser von Südostasien nach Südamerika.
Fernwirkungen.
Auf drei Vierteln der Erde werden die Wettermuster beeinflusst. Auf den Galápagos-Inseln und an der südamerikanischen Küste kommt es zu starken Regenfällen. Diese führen zu Überschwemmungen entlang der westlichen Küste Südamerikas. Selbst an der nordamerikanischen Westküste kommt es zu Überschwemmungen.
Der Regenwald im Amazonasgebiet leidet dagegen unter Trockenheit. Vor Mexiko können gewaltige Wirbelstürme entstehen, die enorme Schäden anrichten. In Südostasien und Australien kommt es durch den fehlenden Regen zu Buschfeuern und riesigen Waldbränden. Während es in Ostafrika in Ländern wie Kenia und Tansania mehr Regen gibt, ist es in Sambia, Simbabwe, Mosambik und Botswana (südliches Afrika) deutlich trockener.
Es kommt zu einem Massensterben von Meerestieren, Seevögeln und Korallen. Durch die Erwärmung des Meereswassers kommt es zum Absterben des Planktons vor der peruanischen Küste. Hier gab es in normalen Jahren bis zu zehnmal so viel Fisch wie an anderen Küsten. Bei El Niño finden die Fische nichts mehr zu fressen und wandern ab. Die Robbenkolonien finden keine Nahrung mehr und viele Tiere verhungern. Der wirtschaftliche Schaden für die Menschen ist kaum zu beziffern.
Durch die hohen Temperaturen tritt auch in den Gebieten die Korallenbleiche in den Riffen auf, die bisher davon verschont blieben.
Europa blieb bis auf wenige Ausnahmen, wie etwa dem in Europa ungewöhnlich kalten Winter 1941/42, von den Fernwirkungen El Niños verschont. Allerdings wurde eine Auswirkung auf den kalten und schneereichen Winter 2009/10 in Europa und Nordamerika diskutiert. Außerdem führt das El-Niño-Phänomen zu Auswirkungen auf den Indischen Monsun – in El-Niño-Jahren ist der Niederschlag stark erhöht, wohingegen der Monsun in La-Niña-Jahren geringeren Niederschlag mit sich bringt.
Häufigkeit und Geschichte.
Bedingungen für das Auftreten von El Niño stellten sich innerhalb der letzten 300 Jahre in Zeitabschnitten von 2 bis 7 (oder 8) Jahren ein. Die meisten El-Niños waren früher eher schwach ausgeprägt. Es gibt Hinweise auf sehr starke El-Niño-Ereignisse zu Beginn des Holozäns vor etwa 11.700 Jahren.
Größere El-Niño-Ereignisse wurden für die Jahre 1790–93, 1828, 1876–78, 1891, 1925/26 und 1972/73 notiert. In den Jahren 1982/83 und 1997/98 kam es zu größeren Ereignissen. Das Ereignis 2015/16 dürfte das drittstärkste seit 65 Jahren sein.
Historische Auswirkungen.
El Niño beeinträchtigte die vorkolumbianischen Inka und hat vielleicht zum Untergang der Moche und anderer kolumbianischer und peruanischer Kulturen beigetragen. Die erste echte Aufzeichnung stammt aus dem Jahr 1726.
Eine weitere frühe Aufzeichnung erwähnt sogar den Ausdruck "El Niño" in Bezug auf Klimaereignisse im Jahr 1892. Sie stammt von Captain Camilo Carrillo aus seinem Bericht auf dem Kongress der geografischen Gesellschaft in Lima, in dem er schrieb, dass peruanische Seeleute diese warme nördliche Strömung "El Niño" nannten, da sie in der Zeit um Weihnachten auftrete.
Das Phänomen war von langfristigem Interesse, da es sich auf die Guanoindustrie auswirkte und auch auf andere Industriezweige, die biotische Produkte des Meeres nutzten.
Charles Todd beobachtete im Jahr 1893, dass Trockenzeiten in Indien und Australien gleichzeitig mit dem Phänomen eintraten. Norman Lockyer beobachtete dies im Jahr 1904 ebenfalls. Eine Verbindung mit Überflutungen wurde 1895 von Pezet und Eguiguren ins Feld geführt. 1924 prägte Gilbert Walker (Namensgeber für die Walkerzirkulation) den Begriff "Südliche Oszillation".
In den meisten Jahren erschien es unwahrscheinlich, dass das Phänomen Auswirkungen bis nach Europa hatte. Es gab Jahre, in denen das Klima Europas mit einem ENSO-Ereignis korrelierte. Einige Studien sahen eine Beziehung zwischen dem besonders harten Winter 1941/42 beim deutschen Russlandfeldzug und El Niño. Hierbei sind möglicherweise eher langskalige Zyklen wie die Pazifische Dekaden-Oszillation zu berücksichtigen als El Niño selbst.
Neuere Beobachtungen.
1982 bis 1998.
Nach dem großen El-Niño-Ereignis von 1982/83 gab es großes Interesse wissenschaftlicher Kreise. In den Jahren 1990 bis 1994 trat El Niño in ungewöhnlich schneller Folge auf.
Über den Jahreswechsel 1982/83 und im Jahr 1997/98 war El Niño ungewöhnlich stark ausgeprägt. Die Wassertemperatur lag sieben Kelvin über der normalen Durchschnittstemperatur, so dass Wärmeenergie in die Erdatmosphäre abgegeben wurde. Bei diesem Ereignis wurde die Luft zeitweilig um bis zu 1,5 K erwärmt, viel im Vergleich zur üblichen Erwärmung von 0,25 K im Umfeld eines El Niño. 1997/98 kam es darüber hinaus zu einem geschätzten Absterben von einem Sechstel der weltweiten Riffsysteme. Seit dieser Zeit ist der Effekt der Korallenbleiche weltweit bekannt geworden; in allen Regionen wurden Bleichstellen gefunden.
Neuere Trends seit 2000.
Sang-Wook Yeh und Mitarbeiter äußerten 2010 die These, El Niño trete nicht mehr zungenförmig, sondern hufeisenförmig auf. Dieser Trend könnte durch die Globale Erwärmung und/oder durch natürlich wiederkehrende Zyklen des Pazifiks möglicherweise in den kommenden Jahrzehnten stärker werden.
Eine interessante, beinahe hoffnungsvolle Entdeckung hingegen machten Meeresbiologen auf den besonders vom El Niño-Phänomen betroffenen Galàpagos-Inseln: Die Iguanas, die an den felsigen Küsten der Inseln heimisch sind, haben eine einzigartige Anpassungsfähigkeit entwickelt, die ihnen das Überleben sichert – sie sind in der Lage, ihre Körpergröße zu reduzieren. Aktuellem Forschungsstand zufolge können die Meerechsen bis zu 20 % ihrer Masse einbüßen und so ihren Nährstoffbedarf entsprechend verringern. Mithilfe modernster Tracking-Technik sind Exemplare markiert worden und werden in regelmäßigen Abständen vermessen.
2015 / 2016.
Am 5. März 2015 prognostizierte die NOAA die Ankunft eines neuen El-Niño-Ereignisses in den nächsten Monaten. Die Prognose bestätigte sich. Die Auswirkungen gelten im südlichen Afrika und Ostafrika als die stärksten seit mehreren Jahrzehnten und führten zu Viehsterben, Nahrungsmittelknappheit und politischer Instabilität. Allein in Äthiopien waren 10 bis 20 Mio. Menschen von Hunger und akuter Wasserknappheit bedroht, weltweit wurde die Zahl der Betroffenen auf über 60 Mio. geschätzt. Auch heute, über sechs Jahre nach der Anomalie, herrscht noch extreme Dürre in ostafrikanischen Ländern; in Kenia hat es in weiten Regionen seit drei Jahren nicht mehr geregnet, Vieh und Menschen leiden an chronischer Unterernährung.
Insgesamt erwies sich der El-Niño als einer der drei stärksten, die jemals beobachtet wurden (neben 1982/83 und 1997/98). Er gilt neben der Globalen Erwärmung als Hauptursache für den 2015 aufgetretenen weltweiten Hitzerekord, der 2016 noch einmal übertroffen wurde.
2023.
Im Juni 2023 begann ein weiterer El-Niño.
Vorhersagemöglichkeiten und SOI-Metrik.
Einigen Studien zufolge könnten El-Niño-Ereignisse genauer als bisher angenommen voraussagbar sein<ref name="DOI10.1038/428709a">
</ref><ref name="DOI10.1073/pnas.1323058111"></ref> (siehe hierzu auch Witterungsprognose).
Ein Vorhersageverfahren beruht auf der Auswertung charakteristischer Luftdruckanomalien im südpazifischen Raum. Grundlage sind Luftdruckmessungen aus Tahiti und Darwin (Australien). Ergebnis dieser Auswertung ist der Southern Oscillation Index (SOI).
Ein verwandtes Phänomen im Atlantik ist etwa die dekadische Nordatlantische Oszillation, die durch Telekonnektion über den Nordpol (Arktische Oszillation) und die amerikanischen Landmassen auch zeitverzögert mit El-Niño-/La-Niña-Phasen ursächlich zusammenhängen könnte.
La Niña.
Im Gegensatz zu El Niño ist La Niña eine außergewöhnlich kalte Meeresströmung im äquatorialen Pazifik, also sozusagen ein Anti-El-Niño, worauf auch die Namensgebung (spanisch: „Mädchen“) beruht.
Durch diese kalte Strömung entwickelt sich über Indonesien ein besonders starkes Tiefdruckgebiet. Die Passatwinde wehen stark und lang anhaltend. Dadurch kühlt sich der östliche Pazifik weiter ab und es gibt in Indonesien besonders viel Regen. Dagegen ist es in Peru sehr trocken und es fällt kaum Niederschlag. Durch die globale Erwärmung sind jedoch mittlerweile auch außergewöhnlich kalte La-Niña-Jahre wärmer als der langjährige Durchschnitt des 20. Jahrhunderts. |
1282 | 280975 | https://de.wikipedia.org/wiki?curid=1282 | Eindhoven | Eindhoven ([], ) ist eine Stadt und Gemeinde in den Kempen in der Provinz Noord-Brabant im Süden der Niederlande. Sie liegt auf einer Höhe von .
Stadtteile.
Eindhoven besteht aus sieben Bezirken:
Geschichte.
Eindhoven wurde auf einem etwas erhöhten Gebiet am Zusammenfluss der Flüsse Dommel und Gender an einem Handelsweg von Holland nach Lüttich gegründet und erhielt 1232 Stadt- und Marktrechte durch den Herzog Heinrich I. von Brabant, blieb jedoch in den ersten Jahrhunderten recht unbedeutend.
Um 1388 wurden die Verteidigungsanlagen der Stadt weiter ausgebaut und zwischen 1413 und 1420 wurde ein neues Schloss innerhalb der Stadtmauern errichtet. 1486 wurde Eindhoven geplündert und niedergebrannt. Der Wiederaufbau und der Bau eines neuen Schlosses dauerten bis 1502. Doch bereits 1543 fiel Eindhoven erneut: Die Verteidigungsanlagen waren wegen der herrschenden Armut nicht instand gehalten worden.
Ein großes Feuer zerstörte 1554 rund drei Viertel der Häuser. Diese wurden jedoch mit Unterstützung von Wilhelm von Oranien bereits 1560 wieder aufgebaut.
Die heutige Stadt Eindhoven entstand durch das Zusammenwachsen der Kirchspiele Eindhoven, Woensel, Strijp, Tongelre, Gestel und Stratum als Folge der industriellen Entwicklung um 1900, als die Glühlampenfabrik Philips immer mehr Arbeitnehmer anzog. Später trug auch DAF (Automobile) zur Expansion der Stadt bei.
Während des Zweiten Weltkrieges war die Stadt ein wichtiges Ziel während der Operation Market Garden. Auch wegen der Philips-Röhrenwerke wurde die Stadt angegriffen.
Schwere Bombardierungen der Westalliierten zerstörten große Teile der Stadt. Während des Wiederaufbaus blieben nur sehr wenige historische Gebäude erhalten. Ein Beispiel für die moderne Architektur Eindhovens ist das 1966 als Museum errichtete Evoluon, jetzt Konferenzgebäude und Museum.
Heute ist Eindhoven mit etwas mehr als 200.000 Einwohnern die fünftgrößte Stadt der Niederlande und gilt als Technologiezentrum im Süden des Landes. Durch die Studentinnen und Studenten der Technischen Universität Eindhoven und durch einige höhere Schulen hat Eindhoven einen relativ niedrigen Altersdurchschnitt.
Wirtschaft.
Eindhoven ist der wichtigste Produktions- und Forschungsstandort der Firma Philips. Das ehemalige Tochterunternehmen NXP Semiconductors hat hier seinen Hauptsitz. Die VDL Groep hat unter anderem ihren Konzernsitz in Eindhoven. UPS betreibt ein großes Logistikzentrum. Zu den größten in Eindhoven ansässigen Arbeitgebern gehört auch die Fachhochschule Fontys. OTB Solar B.V. fertigt hier Produktionsanlagen für Solarzellen. Weiterhin ist der LKW-Hersteller DAF in Eindhoven ansässig. Die Firma ASML ist im Vorort Veldhoven ansässig.
Seit Mai 2001 befindet sich in der Stadt die Europa-Niederlassung des japanischen Unternehmens Kanefusa, Asiens führendem Hersteller von Werkzeugen für die Holzbearbeitung.
Verkehr.
Schienenverkehr.
Die Stadt Eindhoven ist ein zentraler Eisenbahnknotenpunkt in den Niederlanden. Hier bündeln sich die Strecken aus dem Norden und Süden des Landes. Am Bahnhof Eindhoven Centraal verkehrt nationaler Regional- und Fernverkehr. Städte wie Den Haag, Rotterdam, Amsterdam, Utrecht und Maastricht sind mit dem Zug von Eindhoven aus direkt erreichbar.
Straßenverkehr.
Insgesamt führen fünf Autobahnen durch Eindhoven. Auch im niederländischen Autobahnnetz bündeln sich hier Strecken aus sowohl dem Norden und Süden als auch aus dem Westen des Landes. Weiterhin liegt Eindhoven direkt an der wichtigen E34.
Busverkehr.
Den städtischen Busverkehr betreibt das Busunternehmen Hermes.
Flugverkehr.
Eindhoven verfügt über einen Flughafen, den Eindhoven Airport (IATA-CODE: EIN). Er ist sowohl Transport- als auch Militärflugplatz der niederländischen Luftwaffe und der größte Regionalflughafen der Niederlande.
Politik.
Die grünen Vertreter von GroenLinks konnten die letzte Kommunalwahl im Jahre 2022 für sich entscheiden. In der Legislaturperiode von 2018 bis 2022 formte der vorherige Wahlsieger, die VVD, eine Koalition mit der CDA, GroenLinks und der PvdA.
Gemeinderat.
Der Gemeinderat wird seit 1982 folgendermaßen gebildet:
College van B&W.
Die Koalitionsparteien GroenLinks und VVD stellen dem "College van burgemeester en wethouders" zwei Beigeordnete bereit, während die CDA und der PvdA durch jeweils einen Beigeordneten vertreten werden. Folgende Personen gehören zum Kollegium und sind in folgenden Bereichen zuständig:
Gemeindepartnerschaften.
Eindhoven listet folgende vierzehn Partnerstädte auf: |
1283 | 4007561 | https://de.wikipedia.org/wiki?curid=1283 | Edmund Stoiber | Edmund Rüdiger Rudi Stoiber (* 28. September 1941 in Oberaudorf) ist ein deutscher Politiker (CSU). Von Mai 1993 bis September 2007 war er Ministerpräsident des Freistaates Bayern und von 1999 bis 2007 Vorsitzender der CSU.
Stoiber unterlag bei der Bundestagswahl im September 2002 als Kanzlerkandidat der Union gegen den damals amtierenden Bundeskanzler Gerhard Schröder.
Bei der Landtagswahl in Bayern 2003 erreichte die CSU mit Stoiber als Spitzenkandidaten das nach Sitzverteilung beste Ergebnis, das je bei einer Landtagswahl in der Bundesrepublik erzielt wurde. Als bayerischer Ministerpräsident hatte er nach Alfons Goppel, der von 1962 bis 1978 amtierte, die bislang zweitlängste Amtszeit.
Nach seinem Rücktritt als Ministerpräsident war Stoiber in Brüssel ehrenamtlicher Leiter einer EU-Arbeitsgruppe zum Bürokratieabbau.
Leben.
Ausbildung und Beruf.
Edmund Stoiber wuchs in Oberaudorf (Oberbayern, Landkreis Rosenheim) als Sohn des aus Schwarzenfeld in der Oberpfalz stammenden Bürokaufmanns Edmund Georg Stoiber und der gebürtigen Rheinländerin Elisabeth Stoiber, geb. Zimmermann, aus Dormagen auf. Stoibers Großeltern mütterlicherseits waren aus Nabburg (Oberpfalz) ins Rheinland abgewandert.
Von 1951 bis 1961 besuchte Stoiber das Ignaz-Günther-Gymnasium in Rosenheim, musste dabei die siebte Klasse wiederholen und legte dort das Abitur ab. Danach leistete er von 1961 bis 1962 als Reserveoffizieranwärter seinen Wehrdienst beim Gebirgsjägerbataillon 231 in Bad Reichenhall und beim Gebirgsjägerbataillon 233 in Mittenwald. Da er sich während der Ausbildung eine schwere Knieverletzung zuzog, wurde er vorzeitig entlassen. Er ist Mitglied im Kameradenkreis der Gebirgstruppe.
Nach dem Wehrdienst begann Stoiber im Herbst 1962 ein Studium der politischen Wissenschaften an der Hochschule für Politik München und der Rechtswissenschaft an der Ludwig-Maximilians-Universität München, welches er 1967 mit dem ersten juristischen Staatsexamen beendete. Danach war er wissenschaftlicher Mitarbeiter am Lehrstuhl für Strafrecht und Ostrecht an der Universität Regensburg. 1968 ging er ins Referendariat und wurde 1971 bei Friedrich-Christian Schroeder an der Universität Regensburg mit der Dissertation „"Der Hausfriedensbruch im Lichte aktueller Probleme"“ zum Dr. iur. promoviert. Im selben Jahr bestand er das zweite juristische Staatsexamen mit Prädikat.
Im selben Jahr trat er in das Bayerische Staatsministerium für Landesentwicklung und Umweltfragen ein, wo er von 1972 bis 1974 persönlicher Referent des Staatsministers Max Streibl und zuletzt auch Leiter des Ministerbüros war. Seit 1978 ist Stoiber als Rechtsanwalt zugelassen. Von 1978 bis 1982 war er außerdem als Syndikus für die Lotto-Toto-Vertriebsgemeinschaft Bayern tätig.
Parteilaufbahn.
Edmund Stoiber trat im Dezember 1971 der Jungen Union und der CSU bei. Von 1974 bis 2008 war er Mitglied des Bayerischen Landtages. Von 1978 bis 1983 war er unter dem Parteivorsitzenden Franz Josef Strauß Generalsekretär der CSU. In diesem Amt erwarb er sich beim politischen Gegner einen Ruf als "„blondes Fallbeil“". Als Generalsekretär war er außerdem verantwortlich für den Bundestagswahlkampf 1980, bei der der Kanzlerkandidat von CDU und CSU, Franz Josef Strauß, dem amtierenden Bundeskanzler Helmut Schmidt (SPD) unterlag.
Seit 1989 war Stoiber stellvertretender Vorsitzender der CSU. Außerdem war er 1989 bis 1993 Vorsitzender der Grundsatzkommission der CSU. Nach der für die Union verlorenen Bundestagswahl 1998 wurde er als Nachfolger des ehemaligen Bundesfinanzministers Theodor Waigel am 16. Januar 1999 mit 93,4 Prozent zum Parteivorsitzenden der CSU gewählt. Zuvor war es seit Stoibers Wahl zum bayerischen Ministerpräsidenten im Jahr 1993 mehrfach zu Konflikten mit Waigel gekommen.
Stoiber wurde am 9. Oktober 1999 mit 90 Prozent zum Parteivorsitzenden gewählt, am 13. Oktober 2001 mit 96,59 Prozent, am 19. Juli 2003 mit 96,97 Prozent sowie am 3. September 2005 mit 93,1 Prozent wiedergewählt. Auf dem Parteitag 2007 trat er nicht erneut für das Amt des CSU-Vorsitzenden an.
Bei seiner Abschiedsrede als Parteichef und Ministerpräsident hatte er auf dem Parteitag der CSU am 18. September 2007 von seinen Nachfolgern einen eigenständigen Kurs und ein klares konservatives Profil gefordert. Bayerns Wirtschaftsminister Erwin Huber wurde in einer Kampfabstimmung gegen CSU-Vizechef Horst Seehofer und die Fürther Landrätin Gabriele Pauli Nachfolger als Vorsitzender der CSU.
Kanzlerkandidatur.
Im Januar 2002 konnte sich Stoiber nach dem „Wolfratshauser Frühstück“ mit Angela Merkel als gemeinsamer Kanzlerkandidat von CDU und CSU für die Bundestagswahl 2002 durchsetzen – als erster CSU-Politiker nach Franz Josef Strauß. Schwerpunktthemen seines Wahlkampfs waren die Wirtschafts- und Sozialpolitik, dabei besonders die Bekämpfung der Arbeitslosigkeit, die Innere Sicherheit und die wirtschaftliche Entwicklung des strukturschwachen Nordostens Deutschlands. Wahlkampfleiter im damals parallel zum gemeinsamen Team der CDU/CSU agierenden Stoiber-Team war Michael Spreng, der ehemalige Chefredakteur der „Bild am Sonntag“.
Die Wahl beendete den 16 Jahre andauerndern Abwärtstrend der Unionsparteien bei Bundestagswahlen; allerdings lagen die erreichten 38,5 Prozent immer noch deutlich unter allen Ergebnissen für die Unionsparteien von 1953 bis 1994. Trotz Zugewinnen von 3,4 Prozentpunkte gelang es Stoiber damit nicht, einer Koalition aus CDU/CSU und FDP die absolute Mehrheit zu sichern. Die SPD erhielt ebenfalls 38,5 Prozent (minus 2,4 Prozentpunkte), aber insgesamt 6.027 Stimmen (= 0,01 Prozent) mehr als die Union, und konnte aufgrund von Überhangmandaten die stärkste Bundestagsfraktion stellen; die bisherige Koalition behielt mit 306 von 603 Sitzen die Mehrheit. Insgesamt verfehlte Stoiber sein Ziel, eine schwarz-gelbe Koalition zu bilden, um etwa 570.000 Stimmen.
Zu Beginn des Jahres 2004 wurde Stoiber als möglicher Kandidat für das Amt des Bundespräsidenten gehandelt, verzichtete jedoch darauf.
Staatssekretär und Landesminister.
1982 wurde Stoiber als Staatssekretär und Leiter der Bayerischen Staatskanzlei in die von Ministerpräsident Franz Josef Strauß geführte Bayerische Staatsregierung berufen. 1986 wurde er in gleicher Funktion zum Staatsminister ernannt. Nach dem Tod von Franz Josef Strauß wurde Stoiber 1988 im Kabinett von Max Streibl Bayerischer Staatsminister des Innern.
Bayerischer Ministerpräsident.
Nachdem Max Streibl im Mai 1993 als bayerischer Ministerpräsident wegen der "Amigo-Affäre" zurückgetreten war, wurde Stoiber am 28. Mai 1993 zu seinem Nachfolger gewählt. In dieser Funktion war er vom 1. November 1995 bis zum 31. Oktober 1996 auch Präsident des Bundesrates.
Bei den Landtagswahlen 1994 und 1998 konnte er als Spitzenkandidat der CSU deren absolute Mehrheit mit 52,8 Prozent bzw. 52,9 Prozent der abgegebenen Stimmen verteidigen und bei der Landtagswahl 2003 bei geringer Wahlbeteiligung (57,3 Prozent) auf 60,7 Prozent ausbauen. Mit diesem zweitbesten Ergebnis ihrer Geschichte erhielt die CSU eine Zweidrittelmehrheit (124 von 180) der Sitze im Bayerischen Landtag, die aber in Bayern keine Verfassungsänderungen ermöglicht.
Am 4. September 1999 teilte Ministerpräsident Stoiber dem Justizminister Alfred Sauter dessen beabsichtigte Entlassung mit, weil er ihn für die sogenannte LWS-Affäre verantwortlich machte. Die halbstaatliche Wohnungsbaugesellschaft LWS hatte zu diesem Zeitpunkt 367 Millionen Mark Verlust angehäuft. Sauter bezeichnete Stoibers Anschuldigungen als „Schafsscheiß“ und rechnete eine Woche später im Landtag öffentlich mit ihm ab.
Vom 18. Oktober bis zum 8. November 2005 war Stoiber Mitglied des 16. Deutschen Bundestages. Im selben Jahr war er als Wirtschaftsminister für das Kabinett Merkel vorgesehen, entschied sich allerdings am 1. November gegen diesen Posten. Den Rückzug begründete er mit dem damals gleichzeitig angekündigten Rücktritt von Franz Müntefering als Parteivorsitzender der Sozialdemokraten. Außerdem konnte er seine Pläne für ein "Superministerium" im Streit mit der designierten Forschungsministerin Annette Schavan (CDU) nicht voll umsetzen. Seine Unentschlossenheit, in eine Bundesregierung unter Angela Merkel einzutreten, stieß auch in der CSU auf Kritik. Diese forderte, sollte Stoiber in München einen Neuanfang wagen, einen Politikwechsel, damit der Ministerpräsident sich wieder das Vertrauen der Wähler sichern könne.
Innerparteilich wurde nach Stoibers Rückkehr aus Berlin die Meinung vertreten, dass er nicht zur Wiederwahl als Ministerpräsident antreten solle. Am 18. Januar 2007 gab Stoiber aufgrund schwindenden Rückhaltes in seiner Partei sowie sinkender Umfragewerte bekannt, dass er sein Amt als Regierungschef in Bayern am 30. September 2007 abgeben werde. Das vierte Kabinett Stoiber blieb bis zum 16. Oktober 2007 kommissarisch im Amt.
Zu seinem Abschied als Ministerpräsident Bayerns gab die Bundeswehr am 2. Oktober 2007 eine Serenade im Münchner Hofgarten. Gäste waren unter anderem Verteidigungsminister Franz Josef Jung und Generalinspekteur Schneiderhan. Neuer bayerischer Ministerpräsident wurde am 9. Oktober der bisherige Innenminister Günther Beckstein. Zur Landtagswahl in Bayern 2008 stand Stoiber nicht mehr zur Wahl. Als ehemaliger Ministerpräsident unterhält er in München ein Büro.
Im Nachhinein wird der Rückzug aus Berlin als Anfang vom Ende Stoibers politischer Karriere angesehen. In der letzten Phase seiner Amtszeit fanden seine diversen Versprecher ein zunehmendes Medienecho. Ein typisches Beispiel ist eine Passage der sogenannten "Transrapid-Rede" beim Neujahrsempfang 2002 der Münchener CSU, die 2006 wiederentdeckt und zu einer populären Persiflage wurde.
EU-Kommission.
Im Februar 2004 wurde Stoiber von Jacques Chirac mit Zustimmung von Bundeskanzler Gerhard Schröder das Amt des Präsidenten der Europäischen Kommission angetragen, was er jedoch ablehnte.
Nach seinem Rücktritt wurde Stoiber auf Vorschlag von José Manuel Barroso im November 2007 in Brüssel zum ehrenamtlichen Leiter einer Arbeitsgruppe der Europäischen Kommission zum Abbau der Bürokratie ernannt, die EU-Industriekommissar Günter Verheugen unterstellt war und im Oktober 2014 ihren Abschlussbericht veröffentlichte. Nach eigenen Angaben soll die Arbeitsgruppe dazu beigetragen haben, dass die Unternehmen in Europa jedes Jahr 33 Milliarden Euro an Kosten einsparen.
Sonstiges Engagement.
Als Ministerpräsident war Stoiber Kurator der Initiative Neue Soziale Marktwirtschaft. Zusammen mit Franz Müntefering war er Vorsitzender der Bundesstaatskommission, einer gemeinsamen Kommission von Bundesrat und Bundestag zur Modernisierung der bundesstaatlichen Ordnung Deutschlands. Seit 2006 ist Stoiber Mitglied im Präsidium des Lobbyvereins "Deutsch-russisches Rohstoff-Forum". Dieser Verein wurde bis 2015 von "Gazprom" über seine früheren Töchter VNG AG und Gazprom Germania finanziert. Er erhielt Geld dafür, aber nicht direkt, sondern als angeblicher Berater der "VNG AG". Auch die Gelder an das "Deutsch-russisches Rohstoff-Forum" flossen nicht direkt, sondern über einen "Verein zur Förderung der wissenschaftlich-technischen Zusammenarbeit im Rohstoffsektor". Nach dem Russischen Überfall auf die Ukraine 2022 wurden die Aktivitäten des Vereins im Februar 2022 eingefroren.
Weiterhin engagierte er sich in zahlreichen anderen Funktionen:
Privates.
Stoiber ist seit 1968 mit Karin Stoiber verheiratet. Ihre Familie stammt aus dem Sudetenland. Das Ehepaar hat drei Kinder, Dominic, Veronica (Vroni) und Constanze, sowie sieben Enkelkinder und wohnt in Wolfratshausen.
Politische Positionen.
Stoiber hat sich zu ausgewählten Politikfeldern, insbesondere den Themen Ehe, Homosexualität und Einwanderung eindeutig positioniert. Seine scharfe Rhetorik wirkt oft polarisierend. Er folgt damit der von seinen Vorgängern verfolgten Linie, konservative Kreise in die Partei zu integrieren. Zur Zeit seines Ausscheidens als Parteichef und Ministerpräsident erklärte er in einem Interview im September 2007, Franz Josef Strauß, sein politischer Mentor, habe Grundsätze formuliert und geprägt, die heute noch genauso gültig seien wie damals. Konservativ sein heiße, an der Spitze des Fortschritts zu marschieren. Rechts von der CSU dürfe es keine demokratisch legitimierte Partei geben. Der Maßstab für die CSU als Volkspartei bei Wahlen sei 50 Prozent plus x. Auch bei sehr guten Wahlergebnissen dürfe man sich nicht zurücklehnen, denn dies seien Momentaufnahmen und keine Bankguthaben.
Wirtschaft und Haushalt.
In der Wirtschaftspolitik sprach sich Stoiber gegen eine schuldenfinanzierte Politik aus – im Interesse der zukünftigen Generationen und auch wegen der Stabilitätskriterien zur Euro-Einführung. Die Stärkung des in Deutschland führenden Wirtschaftsstandortes Bayern unter anderem durch die so genannte „High-Tech-Offensive Bayern“ habe zwar für ihn Priorität, doch gebe es „"im Zeitalter der Globalisierung keinen Weg zurück zu einem antiquierten Wirtschaftsnationalismus“".
Stoiber war im Rahmen der Föderalismusreform federführend an der 2001 beschlossenen Neuordnung des Länderfinanzausgleichs beteiligt. Er erklärte in einer Regierungserklärung, Bayern könne „höchst zufrieden“ sein.
Er erklärte wiederholt, die hohen Transferzahlungen zum Ausgleich räumlicher Disparitäten – z. B. von Nord- nach Süditalien oder von West- nach Ostdeutschland – sollten auslaufen. Der Übertrag nationaler Souveränität in der Geldpolitik auf die Europäische Zentralbank müsse durch eine föderalistische Wirtschafts-, Finanz- und Haushaltspolitik ergänzt werden.
Stoiber betrieb in Bayern seit der gewonnenen Landtagswahl 2003 eine rigide Sparpolitik, damit ab 2006 der Haushalt ausgeglichen sei, um den Rahmen für einen langfristig stabilen Wohlstand des Landes zu bilden. Politische Beobachter unterstellten damals, Stoiber wollte sich damit auch eine Empfehlung für ein Amt als Wirtschafts- und Finanzminister auf Bundesebene nach der nächstanstehenden Bundestagswahl erwerben.
Außen- und Sicherheitspolitik.
Stoiber sprach sich wiederholt strikt gegen einen Beitritt der Türkei zur Europäischen Union aus, denn im Fall einer Aufnahme würde die Europäische Union eine Grenze mit Staaten wie Iran, Syrien und Irak haben. Europa würde sich so „nicht mehr zu bewältigende Schwierigkeiten“ aufladen. Jenseits der Tatsache, dass nach wie vor massive Zweifel an der Rechtsstaatlichkeit der Türkei bestünden, müsse über die erwähnten Kernfragen eine „europaweite Diskussion“ stattfinden. Die EU und speziell Deutschland seien Freunde der Türkei. Trotzdem aber stehe nicht ein Beitritt auf dem Programm, sondern die Entwicklung „sehr spezieller, sehr enger Beziehungen“ zwischen der EU und der Türkei. Die Reformansätze in der Türkei müssten erst noch weiter entwickelt und umgesetzt werden. Auch von der neuen unionsgeführten Bundesregierung verlangte Stoiber einen schärferen Kurs gegenüber der Türkei und ein „Einfrieren“ der EU-Beitrittsgespräche.
Stoiber forderte wiederholt Wiedergutmachung von Seiten der Tschechischen Regierung für die Verluste und Leiden der im Zweiten Weltkrieg Vertriebenen. Bei einigen stieß auf Widerspruch, dass er dabei die Frage von Entschädigungszahlungen und Aufhebung der Beneš-Dekrete mit dem EU-Beitritt von Tschechien im Rahmen der EU-Osterweiterung am 1. Mai 2004 verknüpfte. Bayern ist von der Thematik stark betroffen, weil sich hier ein Großteil der ab 1945 aus dem ehemaligen Sudetenland Vertriebenen niedergelassen hatte, darunter auch Stoibers Ehefrau.
In der Diskussion um die Wehrpflicht tritt Stoiber für eine Sicherheitspolitische Dienstpflicht ein.
In der Debatte um eine mögliche deutsche Beteiligung an UN-Missionen im Libanon-Konflikt wies Stoiber darauf hin, dass es aufgrund der deutschen Vergangenheit schwer sei, gegenüber Israel eine neutrale, gegebenenfalls aber auch resolute Haltung zu bewahren, und deshalb das Risiko, in Kampfeinsätze hineingezogen zu werden, vermieden werden sollte.
Einwanderung.
Bei der Vorlage des Regierungsentwurfs eines Einwanderungsgesetzes der rot-grünen Bundesregierung forderte Stoiber eine in Umfang, Ausmaß und Anforderungen enger umrissene Form der Zu- und Einwanderung.
Laut Süddeutscher Zeitung vom 4. November 1988 soll Stoiber während eines Gesprächs mit Journalisten vor einer „durchmischten und durchrassten Gesellschaft“ gewarnt haben. Später berichtete ihr Redakteur Michael Stiller, er habe lediglich Oskar Lafontaine bei einem Hintergrundgespräch vorgeworfen, eine „multinationale Gesellschaft“ zu wollen, die „von den Republikanern als durchmischt und durchrasst bezeichnet und von den Bürgern abgelehnt“ werde. Stoiber sprach damals von einem aus dem Zusammenhang gerissenen Zitat, später „gestand“ er laut der Welt, „daß dieser Satz vielleicht ein bißchen zu pointiert war.“
In der Debatte um die Flüchtlingskrise in Europa 2015 widersprach Stoiber Angela Merkel, indem er erklärte, dass das deutsche Asylrecht zwar juristisch keine Obergrenze vorsehe, aber dies praktisch nicht leisten könne und dass wohl die Muslime, nicht aber der Islam zu Deutschland gehöre.
Blasphemie.
2006 strahlte der Sender MTV einen Werbespot für die kontrovers diskutierte Zeichentrick-Fernsehserie Popetown aus. Dieser zeigte unter dem Titel „Lachen statt Rumhängen“ einen vom Kreuz gestiegenen lachenden Christus beim Fernsehen. Die Ausstrahlung führte, auch in Zusammenhang mit den zuvor erschienenen Mohammed-Karikaturen und einem Auftritt des Schauspielers Mathieu Carrière, bei dem dieser in einem Jesuskostüm an einem Kreuz hängend für mehr Rechte von Trennungsvätern demonstrierte, zu einer öffentlichen Debatte um die Bedeutung der Gotteslästerung in Deutschland. Stoiber forderte in Folge eine Verankerung von härteren Strafen wegen Blasphemie im Strafrecht. Er erklärte, es dürfe nicht alles mit Füßen getreten werden, was anderen heilig ist. Der Paragraf 166 des Strafgesetzbuches sei „völlig stumpf und wirkungslos, weil er eine Bestrafung nur dann vorsieht, wenn der öffentliche Frieden gefährdet ist und Aufruhr droht.“ Wer bewusst auf den religiösen Empfindungen anderer Menschen herumtrampele, müsse mit Konsequenzen rechnen – in schweren Fällen mit bis zu drei Jahren Gefängnis. Stoiber begründete seine Position weiterhin damit, der Streit um die Mohammed-Karikaturen zeige auf alarmierende Weise, wohin die Verletzung religiöser Gefühle führen könne.
Seitens der Kirchen wurde die Initiative Stoibers nicht unterstützt. Während die Deutsche Bischofskonferenz erklärte, sie werde sich zu dem Vorschlag nicht äußern, lehnte die Evangelische Kirche in Deutschland (EKD) diesen ausdrücklich ab. Petra Bahr, Kulturbeauftragte der EKD, erklärte in diesem Zusammenhang: „Wir sehen keine Gründe für die Verschärfung des Strafrechts“. Die Rechtsprechung sei bislang sensibel mit blasphemischen Handlungen umgegangen.
Im folgenden Jahr legte Stoibers Justizministerin Beate Merk einen Gesetzesvorschlag zur Verschärfung des § 166 StGB vor. Dieser stellte die Grundlage für eine Bundesratsinitiative zur Änderung des Paragrafen dar. Nach der Vorlage sollte nicht erst eine Beschimpfung von Religion und Kirche, die den öffentlichen Frieden stören könnte, strafbar sein, sondern bereits die Verspottung oder Herabwürdigung. Die Vorlage sah vor, dass der öffentliche Friede zukünftig schon dann gestört werde, wenn der Spott „das Vertrauen der Betroffenen in die Achtung ihrer religiösen oder weltanschaulichen Überzeugung beeinträchtigen oder bei Dritten die Bereitschaft zu Intoleranz“ gegenüber Religion fördern könne. Stoibers Initiative blieb folgenlos. Die CSU hatte bereits 1986, 1995 und 1998 versucht, Blasphemie einfacher und härter unter Strafe zu stellen, die drei ersten Bundesratsinitiativen scheiterten ebenfalls.
Eingetragene Lebenspartnerschaften.
Stoiber trat als Kanzlerkandidat im Bundestagswahlkampf 2002 vehement gegen die Einführung der von Sozialdemokraten und Grünen befürworteten gleichgeschlechtlichen eingetragenen Lebenspartnerschaften in Deutschland ein. Das von Bayern zusammen mit den Bundesländern Sachsen und Baden-Württemberg angestrengte abstrakte Normenkontrollverfahren gegen die eingetragene Lebenspartnerschaft wurde vom Bundesverfassungsgericht in Karlsruhe abgewiesen. Gegen die im Jahr 2005 beschlossene Novelle zum Lebenspartnerschaftsgesetz, die von Sozialdemokraten, Grünen und der FDP getragen wurde und zum 1. Januar 2006 in Kraft trat, strebte Stoiber erneut ein gerichtliches Verfahren gegen die Einführung der Stiefkindadoption durch gleichgeschlechtliche Paare vor dem Bundesverfassungsgericht an, das diesmal allein vom CSU-regierten Bundesland Bayern betrieben wird. |
1284 | 13625 | https://de.wikipedia.org/wiki?curid=1284 | Elektronische Musik | Elektronische Musik bezeichnet Musik, die durch elektronische Klangerzeuger (Generatoren) hergestellt und mit Hilfe von Lautsprechern wiedergegeben wird. Im deutschen Sprachgebrauch war es bis zum Ende der 1940er Jahre üblich, alle Instrumente, an deren Klangentstehung bzw. -übertragung in irgendeiner Weise elektrischer Strom beteiligt war, als "elektrische Instrumente" zu bezeichnen. Konsequenterweise sprach man daher auch von "elektrischer Musik". Bis heute besteht eine Kontroverse in der Terminologie, da einerseits ein wissenschaftlicher Begriff der Akustik und gleichzeitig aber auch ein Oberbegriff über "neue Musikstile der Unterhaltungsmusik" gemeint ist. Andererseits kategorisiert man mit elektronischer Musik auch eine Gattung der Neuen Musik, wobei sich hier der Begriff der elektroakustischen Musik etabliert hat.
In der Zeit um 1980 erlebte die elektronische Musik durch die zunehmende Verfügbarkeit und Etablierung synthetischer Klangerzeugungsmöglichkeiten einen rasanten Aufschwung. Insbesondere im Bereich der speziell für die Clubszene produzierten Musik nahmen synthetisch produzierte Songs ab etwa 1980 eine stetig wichtigere Stellung ein und lösten den in den 1970er-Jahren üblichen, vornehmlich akustisch produzierten Disco-Sound sehr schnell ab. Es begann die Phase der elektronischen Tanzmusik, die im Verlauf der 1980er zum Sound der Ära werden sollte und mit Musikstilen wie Synthpop, Euro Disco, House und schließlich Techno nicht nur den Sound der Dekade, sondern auch den der nachfolgenden Jahrzehnte entscheidend prägen sollte. Seit dieser Zeit sind synthetisch produzierte Musikstücke in höchstem Ausmaß populär und haben traditionell akustisch aufgenommene Songs, vor allem im Bereich der Clubmusik, aber auch im Bereich der Popmusik allmählich mehr oder weniger verdrängt.
Vorgeschichte.
In der elektronischen Musik begegnen sich zwei gegensätzliche Sphären menschlichen Schaffens: die künstlerisch-ästhetische der Musik und die naturwissenschaftliche der Physik und Elektrotechnik. Daher muss die Entwicklung ihrer Voraussetzungen aus einem ideengeschichtlichen und einem technischen Blickwinkel heraus betrachtet werden. Im Zuge der radikalen musikalischen Veränderungen, die das 20. Jahrhundert zum Jahrhundert der "Neuen Musik" haben werden lassen, spielt die elektronische Musik eine wichtige Rolle. Von grundlegender Bedeutung sind zunächst diejenigen Konzepte, die schon Möglichkeiten der elektronischen Musik voraussetzten, noch bevor diese tatsächlich (technisch) zur Verfügung standen:
Das erste Musikinstrument, das Elektrizität verwendete, war das "Clavecin électrique" von Jean-Baptiste Delaborde. Das oft genannte "Denis d’or" des tschechischen Erfinders Pater Prokop Diviš aus den frühen 1750er-Jahren war zwar in der Lage, dem Spieler aus Spaß kleine elektrische Schläge zu versetzen, benutzte aber wahrscheinlich keine Elektrizität bei der Klangerzeugung. 1867 konstruierte der Direktor der Telegraphenfabrik Neuchâtel Hipp ein elektromechanisches Klavier. Ein erstes Patent auf dem Gebiet elektronischer Klangerzeugung wurde am 12. März 1885 an E. Lorenz aus Frankfurt am Main erteilt.
Eine ungewöhnliche Erfindung des elektronischen Instrumentenbaus war das von Thaddeus Cahill 1897 entwickelte Teleharmonium oder Dynamophon. Es arbeitete nach dem Prinzip eines Zahnradgenerators, wog 200 Tonnen und war so groß wie ein Güterwaggon. Cahill benutzte für jeden Halbton einen riesigen dampfgetriebenen Mehrfachstromerzeuger, der ihm die sinusförmigen Ausgangsspannungen lieferte. In seinem 1907 erschienenen "Entwurf einer neuen Ästhetik der Tonkunst" entwickelte Ferruccio Busoni seine Theorie der Dritteltöne, wobei er für dessen klangliche Umsetzung das Dynamophon am geeignetsten hielt.
Leon Theremin konstruierte als Leiter des Laboratoriums für elektrische Schwingungen des staatlichen physikalisch-technischen Instituts in Leningrad von 1920 bis 1928 das aufsehenerregende Instrument "Ätherophon", das später nach ihm "Theremin" benannt wurde. Das Instrument war technisch gesehen eine Schwebungssummerkonstruktion, d. h. die Erzeugung eines hörbaren Tones erfolgte durch Überlagerung zweier hochfrequenter und nicht mehr hörbarer Töne. Diese Eigenschaft der Klangerzeugung inspirierte einige Komponisten zu Werken speziell für das Theremin. Vom Komponisten Anis Fuleihan wurde auf diese Weise ein Konzert für Theremin und Orchester geschaffen, das 1945 mit dem New York Symphony Orchestra unter Leopold Stokowski und der Solistin Clara Rockmore am Theremin uraufgeführt wurde.
Etwa zeitgleich beschäftigte sich der deutsche Volksschullehrer und Organist Jörg Mager mit der exakten Erzeugung von Mikrointervallen und stellte Erfindungen wie das "Elektrophon" (1921) und das "Sphärophon" (1928) vor. Mager war ein Anhänger des tschechischen Komponisten Alois Hába, der sich, durch Anregung von Ferruccio Busoni, bereits mit Mikrointervallen praktisch beschäftigte. Zudem leitete Mager sein Interesse an Mikrointervallen von der Beobachtung des Akustikers und Musikethnologen Erich Moritz von Hornbostel ab, dass die Melodie bei einer Veränderung der Tonhöhenlage, aber auch der Notenlänge, stets als ein und dieselbe Gestalt erscheint. So wurden später sein "Sphärophon II", sein "Kaleidosphon" und seine Elektrotonorgel fertiggestellt.
Beim "Ondes Martenot" handelte es sich ebenfalls um einen Tonfrequenz erzeugenden Schwebungssummer mit dem Unterschied, dass zusätzlich an einem Seil gezogen wurde, womit Tonhöhen verändert werden konnten. Olivier Messiaen verwendete dieses Instrument in seiner "Turangalîla-Symphonie", der schweizerische Komponist Arthur Honegger setzte es im Oratorium "Johanna auf dem Scheiterhaufen" ein. Bereits 1907 hatte Busoni in seiner visionären und einflussreichen Schrift "Entwurf einer neuen Ästhetik der Tonkunst" mögliche Entwicklungslinien aufgezeigt, die erst mit den Mitteln der elektronischen Musik ab den 1950er-Jahren realisiert werden konnten. Er griff darin unter anderem die Idee der "Klangfarbenmelodie", die Arnold Schönberg erstmals in seiner "Harmonielehre" (1911) vorstellte und in den folgenden Jahren wiederholt angesprochen hat, von Relevanz für das musikalische Konzept der frühen elektronischen Musik. Weiterhin kann die kompositorische Konzeption Edgar Varèses mit ihrer gleichermaßen von Busoni und den italienischen Futuristen beeinflussten Geräuschhaftigkeit als Vorwegnahme rein elektronischer Möglichkeiten der Klanggestaltung betrachtet werden.
Durch die Bedeutung des Rundfunks als Medium zunächst zur Durchsetzung politischer Ziele und später der Unterhaltung wurde der Weg für Übertragungen von Musik geebnet.
In dieselbe Zeit fällt die Entwicklung des Trautoniums durch Friedrich Trautwein im Jahre 1930, das später durch Oskar Sala weiterentwickelt wurde. Aus diesem Jahr stammen auch die ersten Trautoniumstücke von Paul Hindemith: Sieben Stücke für drei Trautonien mit dem Untertitel "Des kleinen Elektromusikers Lieblinge".
Im Jahr 1935 konkurrierten die "Hammondorgel" und die "Lichttonorgel", wobei Erstere die Oberhand gewann.
Entstehung.
Die Geschichte der elektronischen Musik ist eng an die Geschichte der elektronischen Klangerzeugung (Instrumente, Apparate) gekoppelt. Im Allgemeinen spricht man bis ca. 1940 von der "elektrischen Musik" und von "elektrischen Musikinstrumenten". Ab Anfang der 1950er Jahre wurde eine bestimmte, mit elektronischen Geräten realisierte Kompositionstechnik "elektronische Musik" genannt.
"Musique concrète" aus Paris.
1943 rief der Ingenieur Pierre Schaeffer eine Forschungsstelle für radiophone Kunst in Paris, den "Club d’Essai", ins Leben, der bald Künstler wie Pierre Henry, Pierre Boulez, Jean Barraqué, Olivier Messiaen und Anfang der 1950er-Jahre dann Karlheinz Stockhausen anzog. Am 5. Oktober 1948 gingen beim Pariser Rundfunk Schaeffers "Cinq études de bruits" in einem als "Concert des Bruits" betitelten Radioprogramm über den Äther und markieren damit die Geburtsstunde der "Musique concrète". Am 18. März 1950 fand dann das erste öffentliche Konzert konkreter Musik in der "École normale de musique de Paris" statt. Da in der Anfangszeit des "Club d’Essai" außerhalb Deutschlands noch keine Tonbandmaschinen zur Verfügung standen, wurden die Geräusche auf Schallplatten festgehalten und in einem Arbeitsgang aus bis zu acht Schallplatten gleichzeitig abgemischt. Bei der Bearbeitung dieser Klänge, die einfache Alltagsgeräusche waren, handelte es sich um deren Transformation und collagenartige Kombination. Ästhetisch erweist sich die frühe Musique concrète damit als Vorstufe zum Hörspiel und der radiophonen Collage. Der Terminus „Konkrete Musik“, den Schaeffer 1949 vorschlug, trägt zum einen der Verwendung vorgefundener Geräusche – sogenannter „Klangobjekte“ – Rechnung, sollte aber auch als Abgrenzung gegenüber der komponierten und damit „abstrakten“ Musik (Serialismus) verstanden werden. Mit diesem radikalen (bruitistischen) Ansatz sorgte Schaeffer auch im eigenen Lager für einige Irritation. In den 1950er-Jahren erlaubte die Tonaufnahme auf Magnetband auch in Paris die Einführung weiterer Bearbeitungstechniken wie Schnittmöglichkeiten, Geschwindigkeitstransformationen und damit Tonhöhenveränderungen. Durch diese Möglichkeiten entstand zu dieser Zeit das "Phonogen", eine Art Mellotron mit Klangtransponiermöglichkeit, und das "Morphophon", vergleichbar einem Bandschleifen-Verzögerungsgerät.
In Großbritannien war Daphne Oram (1925–2003) eine Vorreiterin mit ihrer "Musique concrète". Inspiriert von Schaeffer und von einem Besuch des RTF (Radiodiffusion-Télévision Française) in Paris, baute sie, trotz Widerständen, für die BBC ab 1958 ein ähnliches Studio auf – den BBC Radiophonic Workshop.
Der von ihr als Oramics bezeichnete Prozess ist eine Technik der grafischen Tonerzeugung, bei der direkt auf 35mm-Filmmaterial gezeichnet wird. 1962 entwickelte sie eine darauf basierende Maschine.
Im Bewusstsein der interessierten Öffentlichkeit befand sich die "Musique concrète" damit in direkter Rivalität zur gleichzeitig in Erscheinung tretenden „elektronischen Musik“ aus Köln. Anfang der 1950er-Jahre wurde die Arbeit Schaeffers und seines Mitarbeiters Pierre Henry in eine Art ideologischen und zum Teil auch chauvinistisch motivierten Streit verwickelt. Eine debakulöse Aufführung ihrer Gemeinschaftskomposition "Orphée 53", die anlässlich der Donaueschinger Musiktage am 10. Oktober 1953 stattfand, besiegelte ihre „Niederlage“ und schadete dem internationalen Ansehen der "Musique concrète" auf Jahre hinaus. Die Komponisten, die Anfang der 1950er Jahre der "Groupe de Recherches de Musique concrète" (die 1951 aus dem "Club d’Essai" hervorgegangen war) nahestanden, haben durchaus versucht, in die "Musique concrète" kompositorische Ordnungsprinzipien einzuführen, konnten sich aber zunächst nicht gegen die Geräuschkonzeption Schaeffers durchsetzen. 1954 realisierte Edgar Varèse als Gast die Tonbänder für seine Komposition "Déserts". Erst ab 1956/57 entstanden Arbeiten von Luc Ferrari, Iannis Xenakis, François Bayle und anderen, die in viel stärkerem Maße kompositorische Gesichtspunkte und später sogar serielle Prinzipien in den Vordergrund stellten. Folgerichtig gab Schaeffer den Begriff "Musique concrète" nun zu Gunsten von „elektroakustischer Musik“ auf und benannte auch seine "Groupe de Recherches de Musique concrète" 1958 in "Groupe de Recherches Musicales" um.
Elektronische Musik aus Köln.
Als Werner Meyer-Eppler für eine bestimmte Art des Komponierens mit technischen Hilfsmitteln den Terminus „elektronische Musik“ vorschlug, ging es ihm dabei vor allem um eine Abgrenzung gegenüber den bisherigen Entwicklungen der elektrischen Klangerzeugung, der elektrischen Musik, zu der er auch die "Musique concrète" und die "Music for Tape" (s. u.) zählte.
Der Physiker Werner Meyer-Eppler, der Tonmeister Robert Beyer, der Techniker Fritz Enkel und der Komponist Herbert Eimert gründeten 1951 mit Hilfe des NWDR das Kölner Studio für Elektronische Musik. Das erste öffentliche Konzert fand dann am 26. Mai 1953 auf dem Kölner „Neuen Musikfest 1953“ statt. Im Unterschied zur Musique concrète wurde hier versucht, elektronisch erzeugte Töne nach physikalischen Regeln wie der Fourier-Analyse wissenschaftlich zu erfassen. Die Klangfarbe, als Resultat der Überlagerung mehrerer Sinustöne, und die Parameter Frequenz, Amplitude und Dauer wurden dabei ausführlich analysiert.
Zunächst ging es Eimert und Beyer (nur) um die differenzierte Gestaltung von Klangfarben. Erst eine zweite Generation junger Komponisten, unter ihnen Henri Pousseur, Karel Goeyvaerts und Karlheinz Stockhausen, arbeitete dann ab 1953 vor allem an der konsequenten Durchführung serieller Kompositionsmethoden mit elektronischen Mitteln. Signifikant für diese frühe musikalische Konzeption des Kölner Studios ist die ausschließliche Verwendung „synthetisch“ hergestellter Klänge sowie deren direkte Verarbeitung und Speicherung auf Magnettonband und schließlich die Wiedergabe über Lautsprecher. Dadurch wurden (zumindest theoretisch) zwei musikhistorisch revolutionäre Dinge erreicht: zunächst die vollständige Kontrolle über den Parameter Klangfarbe, der bisher für die Komponisten immer unwägbar geblieben war und nun ebenfalls der seriellen Organisationsmethode unterworfen werden konnte. Zweitens wurde der Interpret als vermittelnde – und damit die kompositorische Absicht potentiell verfälschende – Instanz ausgeschaltet. Zum ersten Mal in der Geschichte der abendländischen Musik schien es den Komponisten mit Werken wie Stockhausens "Studie II" möglich, ihre Ideen „unvermittelt“ an den Hörer weiterzugeben. Die jahrhundertealten Versuche, die musikalische Absicht immer präziser durch Notenschrift zu fixieren, waren damit überholt.
Da die klanglichen Ergebnisse dieser frühen Arbeiten aber deutlich hinter den in sie gesetzten Erwartungen zurückblieben, beschritt man in der Technik der Klangsynthese neue Wege und verließ bereits 1954 das ursprüngliche Sinuston-Konzept wieder. Mit wachsender Komplexität des Herstellungsprozesses nahm nun einerseits die Klangqualität ab und andererseits entzogen sich die Klangkomponenten auch zunehmend der Kontrolle durch die Komponisten. Eine erste Konsequenz daraus zog Stockhausen in seiner Komposition "Gesang der Jünglinge" (1955/56), die konzeptuell zwischen elektronischen Klängen und Phonemen vermittelt und statistische Ordnungsprinzipien (Aleatorik) durch im Raum verteilte Lautsprechergruppen zur Anwendung brachte.
Die Idee der klanglichen Vermittlung zwischen heterogenen Ausgangsmaterialien führt dann konsequent zum Entwurf der Live-Elektronik und auch zur Transformation von Klängen beliebiger Herkunft, womit die Entwicklung der elektronischen Musik Kölner Ausprägung ihre größte Annäherung zum einstigen „Erbfeind Musique concète“ vollzogen hat. Das Kölner Studio war nicht der einzige Ort, an dem Techniker und Musiker an der Entstehung der Elektronischen Musik zusammenarbeiteten. Einflussreich waren das Siemens-Studio für elektronische Musik ab 1956 in München unter der künstlerischen Leitung von Orff-Schüler Josef Anton Riedl und das Columbia-Princeton Electronic Music Center in New York. Bereits ein Jahr zuvor, am 1. März 1955, wurde das Studio für Elektronische Komposition Darmstadt eingeweiht, mit dessen Leitung der Komponist Hermann Heiß beauftragt wurde. 1957 privatisierte Hermann Heiß das Studio unter dem Namen "Studio für Elektronische Komposition Hermann Heiß Darmstadt". 1977 kam das IRCAM im Pariser Centre Pompidou von Pierre Boulez hinzu. Das Elektronische Studio Basel und das Studio für Elektronische Musik in Dresden wurden erst in den 1980er-Jahren eingerichtet. Weitere Studios für elektronische Musik standen oder stehen in Mailand, Stockholm und Utrecht.
"Music for Tape".
Im sogenannten "Tape Music Studio" der Columbia-Princeton Universität in New York unterrichteten Vladimir Ussachevski und Otto Luening Studenten in einer speziellen Art des Umgangs mit auf Tonband aufgezeichneten Klängen. Sie gingen davon aus, dass die große Bandbreite möglicher elektronischer Manipulation die Herkunft des Klanges mehr und mehr in den Hintergrund treten lässt. Erste bekannt gewordene Studien der "Music for Tape" stammen vom New Yorker Ehepaar Louis und Bebe Barron, die sich seit 1948 in ihrem eigenen professionellen Aufnahmestudio mit erweiterten Möglichkeiten des Tonbandes zur Musikproduktion beschäftigten. Im Studio der Barrons realisierte John Cage 1951 das "Project of Music for Magnetic Tape", gemeinsam mit den Komponisten Earle Brown, Morton Feldman, David Tudor, und Christian Wolff.
Bei der "Music for Tape" war vor allem die Vielseitigkeit bei Auswahl und Bearbeitung von Klangquellen für die musikalische Umsetzung von Bedeutung. In Amerika wurde die Unterscheidung in kontrollierbare (elektronische) und „unkontrollierbare“ (mechanische) Klänge als nicht sinnvoll betrachtet.
Ein weiterer bedeutender Vorreiter der elektronischen Musik in den USA war der unabhängig von den im Aufbau begriffenen Hochschulstudios wirkende Richard Maxfield.
Der kanadische Physiker Hugh Le Caine machte entscheidende Experimente in der Anschlagsdynamik eines Keyboards zwischen 1945 und 1948. Bei dem von ihm erfundenen "Sackbut" konnte der Spieler sogar durch wechselnden seitlichen Druck der Taste subtile Veränderungen der Tonhöhe, Lautstärke und Klangfarbe ermöglichen und zusätzlich expressive Merkmale wie Vibrato, Intensität und Einschwingvorgänge kontrollieren. 1955 erfand er den "Special Purpose Tape Recorder", bei dem es sich um eine Synthese aus Mehrkanal-Bandmaschine und Mellotron handelt, mit der sich bei der Arbeit mit konkreten Klängen ungeahnte Möglichkeiten ergaben. Das 1955 von Le Caine komponierte Stück "Dripsody" ist nur etwas über eine Minute lang und besteht aus dem mit dem "Recorder" aufgenommenen Geräusch eines Wassertropfens, welches vielfach kopiert und mit unterschiedlichen Geschwindigkeiten in einer pentatonischen Skala angeordnet wurde, woraus sich unterschiedliche Tonhöhen ergaben. Beginnend mit dem Originaltropfen, steigern sich Intensität und Dichte durch weitere Bandschleifen zu einem Climax, bis hin zu zwölftönigen Arpeggien, die alle aus dem Klangmaterial des Tropfens abgeleitet sind.
Computermusik.
Lejaren Hiller gründete in der University of Illinois at Urbana-Champaign 1958 das zweite US-amerikanische Studio für elektronische Musik, das "Experimental Music Studio". Er experimentierte dort neben anderen Forschern mit dem "ILLIAC-Rechner" und später dem "IBM 7090-Rechner".
Neben der Verwendung in studiotechnischen Geräten lassen sich heute drei große musikalische Anwendungsbereiche für Computer ausmachen, die mit den Stichworten Komposition (Partitursynthese), Klangerzeugung (durch Simulation) und Klangsteuerung umrissen werden.
Beim „Grand Price Of Ars Electronica“ wurde 1979 der von Kim Ryrie und Peter Vogel in Australien entwickelte Fairlight Musikcomputer erstmals einem größeren internationalen Publikum vorgeführt. Diese aufwändige (8-Bit-)Rechenmaschine brachte als wesentliche Neuerung die Sampling-Methode hervor: Sie ermöglichte es erstmals alle Klänge unserer Welt in einen Computer sowohl zu speichern als auch sie mittels der Tastatur jederzeit nicht nur einfach abrufen zu können, sondern sie auf jede gewünschte Tonhöhe bringen zu können und überdies formbar zu machen.
Dies öffnete Komponisten und Produzenten völlig neue musikalische und konzeptionelle Dimensionen. Im Januar 1982 beispielsweise erschien auf einem eigens für solche Art von Musik von Ulrich Rützel in Hamburg gegründeten Label und -Verlag das Album „Erdenklang Computerakustische Klangsinfonie“. Es war der erste verfügbare Tonträger mit dieser neuen Produktionstechnologie. In ihren Linernotes zu diesem Album vermerkte Wendy Carlos: „Erdenklang darf nicht mehr ausschließlich als technische, sondern muss weitgehend als musikalische Errungenschaft betrachtet werden. Etwas, worum die elektronische Musik, seit es sie gibt, kämpft.“
Hubert Bognermayr und Ulrich Rützel führten für diese Musik-Gattung den Begriff Computerakustische Musik ein. Die 1983 erschienene „Bergpredigt – Oratorium für Musikcomputer und Stimmen“ verfestigte diese musikhistorische Entwicklung und stellt bis heute einen Meilenstein in der Computermusik dar.
Bei dem am 25. April 1987 vom WDR veranstalteten Konzert „Million Bits In Concert“ mit den Elektronik-Musikern Hubert Bognermayr, Harald Zuschrader, Johannes Schmoelling, Kristian Schultze und Matthias Thurow kamen erstmals verschiedene Computersysteme (wie z. B. der Fairlight) auch in einem Livekonzert zum Einsatz. Mike Oldfield ließ sich von Bognermayr und Zuschrader in diese Technologie einführen und ging mit dem Fairlight und Harald Zuschrader auf Tournee.
Vereinzelt wird Computermusik inzwischen auch für technisch gesteuerte Theater- und Freiluft-Inszenierungen verwendet, z. B. als Schaltmusik für Feuerwerke.
Entwicklung der elektronischen Musik in der Popularmusik.
Die 1970er.
In den 1970er-Jahren entstanden im Kontext von Rockmusik der Progressive Rock und Psychedelic Rock, die durch einen prägnanten Einsatz von elektronischen Tasteninstrumenten zum Teil Elemente elektronischer Musik verarbeiten. Durch den Einfluss von Instrumenten der Computermusik entstanden Synthesizer und Sequencer neben Soundmodulen. Besonders der Synthesizer wurde zum prägenden Instrument der Popmusik. Wendy „Walter“ Carlos, die an der Columbia-Universität Kompositionslehre studierte, war eine der ersten, die sich für den Moog-Synthesizer interessierten, und beriet seit 1964 Robert Moog bei seiner Herstellung. Keith Emerson verwendete den Moog-Synthesizer ebenfalls oft, der durch seine virtuose Spielart stilbildend auf jüngere Musiker wirkte. Die neue Möglichkeit, beliebig lang anhaltende Töne langsamen klanglichen Veränderungen zu unterwerfen, zeigte eine starke Affinität zur „zerfliessenden Formlosigkeit“ des Psychedelic Rock (The United States of America, Silver Apples und Fifty Foot Hose). In den 1970er-Jahren entstand in Deutschland die sogenannte Berliner Schule, die später den Krautrock beeinflusste.
Bis in die 1980er-Jahre hinein entstanden nebeneinander zahlreiche Musikgenres, die elektronisch erzeugte Musik als ästhetisches Mittel verwendeten; aus New Wave wurde Electro Wave, aus Funk wurde Electro Funk und später Hip-Hop, aus Disco wurde House.
Die 1980er.
Im Bereich der Synthesizer-orientierten Musik hatten Gruppen wie Kraftwerk, Depeche Mode und Suicide, die für kommende Stile wie EBM, Elektropop, Hip-Hop und Techno Pionierarbeit leisteten, großen Einfluss auf viele spätere Musiker.
Die 1990er.
Das Sampling im "Techno" wurde durch mehrere Genres (Funk, Electro Funk, New Wave, Electronic Body Music) Ende der 1980er-Jahre geschaffen. Ferner liegen Einflüsse in der Perkussionbetonung der "Afroamerikanischen und Afrikanischen Musik".
Der Schwerpunkt liegt im elektronisch erzeugten Schlagzeug-Rhythmus durch Drumcomputer. Durch Sampling werden Loops erzeugt, wodurch ein Repetitives Arrangement als charakteristisches Klangbild entsteht.
Ab 2000.
Ende der 1990er-Jahre wurden Elemente der elektronischen Musik in die bis dahin oft als konservativ angesehenen Genres des klassischen Rock und Folk übernommen. Bands wie Radiohead oder Tortoise, aber auch Stereolab verarbeiteten elektronische Elemente in Strukturen des klassischen Songwritings und trugen zu einer Neuetablierung elektronischer (Tanz-)Musik außerhalb der Techno-Szene bei.
Seit 2014 gibt es auch auf dem Electric Love Festival in Salzburg eine eigene Hardstyle-Stage.
Begriffliche Abgrenzung.
Rockmusik wird im allgemeinen Sprachgebrauch nicht zur elektronischen Musik gerechnet, obwohl auch dort elektronische Instrumente und besonders elektronische Effektgeräte eingesetzt werden. Bei Elektrogitarren sind zwar die klangverändernden Wirkungen von Verstärker und Effektgeräten essenziell, trotzdem werden sie nicht zu den Elektrophonen gezählt. Im Psychedelic Rock (z. B. Led Zeppelin oder Deep Purple) kommen auch „echte“ Elektrophone (z. B. Theremin oder Hammondorgel) vor, aber auch er wird von der elektronischen Musik abgegrenzt. Im Metal spielen – je nach Substil – analoge Effektgeräte eine bedeutende Rolle, aber Musiker und Szenemitglieder haben oft klare Vorstellungen, welche Geräte verboten sind, um nicht zur elektronischen Musik zu gehören. Digitale Effektgeräte oder digitale Produktion gelten in der ganzen Musikrichtung als Tabu (wobei Keyboards mit analogem Ausgang toleriert werden), und es besteht bei Gitarrenverstärkern eine Ablehnung von Halbleitern. |
1286 | 568 | https://de.wikipedia.org/wiki?curid=1286 | Einzugsbereich | Als Einzugsbereich oder Einzugsgebiet wird ein geographischer Raum bezeichnet, der einen infrastrukturellen Einflussbereich eines meist zentralen Objektes, einer Einrichtung oder einer Struktur darstellt. Dies erfordert geeignete Verbindungswege und deren natürliche Voraussetzungen. Als Beispiele seien genannt das Einzugsgebiet einer Stadt, einer Schule oder eines Unternehmens.
Der Terminus wird hauptsächlich in der Wirtschaftsgeografie, Sozialgeographie, Verkehrsgeographie und in verwandten Fachdisziplinen sowie in der Raumplanung verwendet.
Das Einzugsgebiet einer Stadt und ihrer öffentlichen Einrichtungen wurde von Walter Christaller in seiner Theorie der zentralen Orte (1930er) auch als "Ergänzungsgebiet" bezeichnet. Im Ergänzungsgebiet wohnen die Nachfrager der Güter (insbesondere Dienstleistungen), die in dem zentralen Ort angeboten werden. Die Nachfrager im Ergänzungsgebiet sind in ihrem Kundenverhalten auf den zentralen Ort hin orientiert bzw. werden von ihm versorgt. Streng genommen versteht man in dieser Theorie unter einem "zentralen Ort" jedwede Form von Angebotsstandort, in der Praxis wird hierunter allerdings meist eine Gebietskörperschaft verstanden. Dies gilt insbesondere für das System der zentralen Orte in der Raumordnung. Weitere Namen solcher Gebiete von Siedlungen in ihrer funktionalen Vielfalt sind "Verflechtungsbereich", "Marktgebiet" und (auf die Infrastruktur bezogen) "Versorgungsgebiet". Vereinzelt haben oder hatten Institutionen wie niedergelassene Ärzte, Apotheken oder Rauchfangkehrer und andere Infrastruktur von öffentlichem Interesse auch einen rechtlich garantierten Gebietsschutz.
In einem ähnlichen Sinne sind die Einzugsbereiche von beispielsweise Schulen und von Unternehmen (insbesondere Einzelhandelsbetriebe und andere Anbieter haushaltsorientierter Dienstleistungen) zu verstehen, doch kann ihr geografischer Zusammenhang stärker gelockert sein. Denn Ausbildungs- oder Produktionsbetriebe haben zwar meist ihren regionalen Markt, sprechen jedoch auch weiter entfernte Kunden an. Die Planung der Einzugsbereiche von Schulen ergibt die Schulsprengel, in denen Pflicht zum Besuch einer gewissen öffentlichen Schule besteht. Je spezieller eine Schule oder eine Firma ausgerichtet ist, desto größer ist im Regelfall ihr Einzugsbereich. Ähnliches gilt für Krankenhäuser, kulturelle Angebote (Theater, Museen usw.), aber auch Freizeit-Einrichtungen (Vergnügungsparks, Tourismusregionen usw.).
Einzugsgebiete sind Konstrukte; sie unterliegen großen räumlich-zeitlichen Variationen und können nur anhand von theoretischen Überlegungen exakt abgegrenzt und segmentiert werden (z. B. mit dem Huff-Modell),<ref name="Heinritz/Klein/Popp 2003"></ref> oder aber regulierenden politischen Eingriffen (Grenzziehungen) absichtlich hergestellt.
Die Planung solcher Versorgungs- und Interessensgebiete obliegt im öffentlichen Bereich – etwa für Schulen, Ämter und Apotheken – der Raumordnung. In der privaten Wirtschaft ist die Planung Sache der Marktforschung und der Unternehmensstrategie. |
1287 | 3596509 | https://de.wikipedia.org/wiki?curid=1287 | Liste von Erfindern | Dies ist eine Liste von Erfindern, die eine gewisse Bedeutung erlangt haben.
Ein Erfinder ist eine Person, die ein Problem erkannt hat, es gelöst und mindestens einmal damit Erfolg gehabt hat. Diese Person muss nicht die erste gewesen sein; eine Erfindung kann auch mehrmals gemacht werden oder durch ständige Verbesserungen in mehreren Schritten entstanden sein.
Eine Erfindung ist meistens ein technisches Gerät oder eine Maschine, kann aber auch ein Verfahren, eine Methode oder eine Dienstleistung sein. Auch eine nicht materielle Idee, selbst wenn sie erst später von einem anderen ausgeführt wurde, kann als Erfindung zählen. Außerdem gibt es Erfindungen, die keinen Nutzen hatten oder die später wieder verworfen wurden. |
1289 | 225840736 | https://de.wikipedia.org/wiki?curid=1289 | Mehlbeeren | Die Mehlbeeren ("Sorbus"), auch Vogelbeeren, Ebereschen oder Elsbeeren genannt, sind eine Pflanzengattung der Kernobstgewächse (Pyrinae) innerhalb der Familie der Rosengewächse (Rosaceae). Die Arten der Gattung "Sorbus" (allein in Europa je nach Autor eine oder über 170 Arten) sind in den gemäßigten Gebieten der Nordhalbkugel verbreitet. Viele Mehlbeeren-Arten tragen im Herbst auffällige Früchte. Einige Arten wie etwa die Japan- oder die Kaschmir-Eberesche werden wegen ihrer auffälligen Herbstfärbung in Gartenanlagen und Parks gepflanzt. Zur Gattung gehören auch die Vogelbeere, deren Früchte zu Schnaps und Marmelade verarbeitet werden, sowie der Speierling, der in der Apfelweinherstellung eine Rolle spielt.
Beschreibung.
Erscheinungsbild und Blätter.
"Sorbus"-Arten wachsen als meist sommergrüne Bäume und Sträucher. Die Bäume sind gelegentlich mehrstämmig und haben häufig eine weit ausladende Krone. Einige Arten erreichen eine Wuchshöhe zwischen 25 und 30 Metern. Zu den groß werdenden Arten zählt beispielsweise "Sorbus pohuashanensis", eine bis zu 20 Meter hoch werdende Art, die in den Bergregionen Nordchinas zu finden ist. Die meisten Arten bleiben deutlich niedriger. Die in Mitteleuropa heimische Zwerg-Mehlbeere erreicht eine Wuchshöhe von etwa 3 Metern. Die in Westchina beheimatete "Sorbus reducta" wird sogar nur 1,5 Meter hoch und bildet durch ihre zahlreichen Ausläufer dichte Gestrüppe.
Die meist relativ großen Winterknospen sind eiförmig, konisch oder spindelförmig und manchmal klebrig mit einigen sich dachziegelartig überdeckenden Knospenschuppen, die kahl oder flaumig behaart sind.
Die wechselständig an den Zweigen angeordneten Laubblätter sind in Blattstiel und Blattspreite gegliedert. Die Blattspreiten sind einfach oder gefiedert. Die Blattränder sind oft gesägt, selten fast ganzrandig. Die Blattflächen sind kahl oder flaumig behaart. Es liegt Fiedernervatur vor. Die Nebenblätter fallen meist früh ab.
Blütenstände und Blüten.
Die Blütezeit liegt je nach Art im Frühjahr bis Sommer. Die endständigen, meist zusammengesetzten, selten einfachen schirmtraubigen oder rispigen Blütenstände enthalten meist viele Blüten.
Die zwittrigen Blüten sind radiärsymmetrisch und fünfzählig mit doppelter Blütenhülle. Der Blütenbecher (Hypanthium) ist glockenförmig, selten verkehrt-konisch oder krugförmig. Die fünf meist grünen Kelchblätter sind eiförmig oder dreieckig und kahl bis flaumig oder wollig behaart; manchmal befinden sich Drüsenhaare entlang der Ränder. Die fünf freien gelblich-weißen bis weiß-rosafarbenen Kronblätter können genagelt sein und sind kahl bis flaumig behaart. Die meist 15 bis 25, selten bis 44 Staubblätter stehen in zwei oder drei Kreisen und sind ungleich lang. Die Staubbeutel sind eiförmig oder fast kugelig. Die zwei bis fünf unterständigen bis halbunterständigen Fruchtblätter sind teilweise oder vollständig mit dem Blütenbecher verwachsen. Jedes Fruchtblatt enthält zwei oder drei, selten vier aufrechte, anatrope Samenanlagen, von denen meist eine verkümmert. Es sind zwei bis fünf freie oder teilweise verwachsene Griffel, die kahl oder flaumig behaart sind, vorhanden.
Früchte und Samen.
Die Sammelbalgfrüchte der Mehlbeeren sind Apfelfrüchte und erinnern an kleine Äpfel, was aufgrund der botanischen Einordnung in die Kernobstgewächse (Pyrinae) nicht überrascht (Sprachliche Verwechslungen mit der Mehlbirne beruhen darauf). Ähnlich wie beim Apfel sitzen oben an der Frucht die fünf Kelchblätter, die haltbar sind oder abfallen und eine ringförmige Narbe hinterlassen. Die Apfelfrüchte färben sich je nach Art bei Reife weiß, gelb, rosafarben, braun oder orange bis rot. Die meist relativ kleinen Apfelfrüchte sind eiförmig oder kugelförmig bis ellipsoid oder länglich. Die Fruchtschale ist kahl oder flaumig behaart und es können kleine Lentizellen vorhanden sein. Das pergamentartige Kerngehäuse besteht aus meist zwei bis fünf, selten bis zu sieben Kammern, die jeweils ein oder zwei Samen enthalten.
In den Samen umgibt ein dünnes Perisperm und Endosperm den Embryo mit seinen zwei zusammengepreßten Keimblättern (Kotyledonen).
Ökologie.
Schädlinge.
Sämlinge und junge Bäume der "Sorbus"-Arten werden von Hirschen, Rehen, Hasen, Kaninchen, Wühlmäusen und Mäusen geschädigt. Mäuse und Wühlmäuse benagen unter anderem Rinde oder Wurzeln der Bäume und können dadurch junge Pflanzen zum Absterben bringen.
Die Larven des Gefurchten Dickmaulrüsslers fressen die Rinden der Wurzeln und können im Extremfall eine Pflanze so schädigen, dass sie abstirbt. Die Wahrscheinlichkeit, dass eine Pflanze von diesen Larven befallen wird, steigt mit dem Humusgehalt des Bodens. In normaler Erde ist der zu erwartende Schädlingsbefall gering.
Fruchtfressende Vogelarten.
Die auffälligen Früchte der Mehlbeeren werden von einer großen Anzahl von Vogelarten gefressen. Der Samen der Früchte passiert in der Regel unbeschädigt den Darmkanal der Vögel. Zu den fruchtfressenden Arten zählen Amseln, Drosseln wie etwa Rotdrossel, Rotkehlchen und Wacholderdrossel sowie Stare und Seidenschwänze.
Die Geschwindigkeit, mit der der Fruchtbehang eines Baumes von Vögeln geplündert wird, scheint abhängig vom umgebenden Bewuchs zu sein. In Vorstädten werden nach den Untersuchungen von McAllister reifende "Sorbus"-Bäume innerhalb von nur ein oder zwei Wochen ihrer Früchte beraubt. McAllister führt dies auf einen höheren Bestand an immergrünen Pflanzen zurück, die den Vögeln Deckung bieten. "Sorbus"-Bäume, die vereinzelt in einem Feld oder auf einer Rasenfläche stehen, behalten ihre Früchte dagegen über Monate. Auch die "Sorbus"-Art hat einen Einfluss auf die Geschwindigkeit, mit der Vögel die Früchte fressen. Von Vögeln besonders geschätzt sind die Arten "Sorbus decora", "Sorbus cascadensis", "Sorbus sitchensis" und "Sorbus matsumurana". Diese früh reifenden Arten werden von Vögeln bereits gefressen, bevor sie vollreif sind.
Verbreitung und Lebensraum.
Die Arten der Gattung "Sorbus" besitzen ein weites natürliches Verbreitungsgebiet auf der Nordhalbkugel und kommen hauptsächlich in Eurasien und im nördlichen Nordamerika vor. Einige wenige Arten kommen auch in Nordafrika sowie auf Madeira vor. In China kommen 67 Arten vor, 43 davon nur dort.
Typisch für die meisten Arten dieser Gattung ist ihre Anpassungsfähigkeit an extreme Standorte. Bäume und Sträucher dieser Gattung findet man beispielsweise in exponierten Felsenwänden, wo sie in nur wenig Erde führenden Spalten wurzeln. Gelegentlich sieht man junge Ebereschen, die in Dachrinnen heranwachsen. Die Ansprüche der "Sorbus"-Arten an den Boden sind gering und sie sind in der Lage, auf nährstoffarmen und sauren Böden zu gedeihen. Die meisten Arten reagieren auf nährstoffreiche und humose Böden mit erhöhtem Wachstum. Zu den kalkfliehenden Arten zählen "Sorbus cracilis" und "Sorbus poteriifolia", die Chlorose entwickeln, wenn sie auf kalkhaltigen Böden stehen.
Viele "Sorbus"-Arten reagieren empfindlich auf Trockenheit und werfen nach längeren Trockenperioden frühzeitig im Jahr ihre Blätter ab. Als besonders trockenheitsempfindlich gelten Arten, die im Himalaya beheimatet sind. Trockene Standorte haben auch einen Einfluss auf das maximale Höhenwachstum eines Baumes. Speierlinge erreichen beispielsweise an optimalen Standorten in Bayern und Baden-Württemberg Wuchshöhen von über 30 Metern. An niederschlagsärmeren Standorten auf dem Balkan und Frankreich werden diese Bäume selten höher als 25 Meter. Im Gebirge kommen "Sorbus"-Arten regelmäßig bis zur Baumgrenze vor. "Sorbus"-Arten zählen auch zu den Baumarten, die in der Waldtundra gedeihen.
Reine Bestände mit "Sorbus"-Arten sind selten. "Sorbus"-Arten sind tendenziell lichthungrige Pionierpflanzen, die an Waldrändern und Lichtungen gedeihen, wo die Konkurrenzsituation mit anderen Baumarten geringer ist. Da der Samen von "Sorbus"-Arten regelmäßig durch Vögel verbreitet wird, findet man in Unterholz von Wäldern eine große Anzahl von "Sorbus"-Sämlingen. Fallen konkurrierende Bäume einem Feuer oder Sturm zu Opfer, werden die entstehenden Lücken schnell durch "Sorbus"-Arten geschlossen.
Die apomiktischen Mehlbeeren.
Es gibt eine Vielzahl von Bastarden zwischen den Arten innerhalb der Gattung "Sorbus". Meistens entstehen aus diesen Hybridisierungsvorgängen nur kleinräumig verbreitete Arten, die sich apomiktisch vermehren, indem sie Samen auf ungeschlechtlichem Weg mittels Agamospermie bilden. Nachkommen aus diesen Samen sind genetisch identisch mit dem Pflanzenexemplar, von der der Samen abstammt.
Beispielsweise umfasst der Komplex der Bastard-Mehlbeeren ("Sorbus latifolia" agg.) apomiktische Arten, die aus einer Hybridisierung der Elsbeere ("Sorbus torminalis") und Arten der "Sorbus aria"-Gruppe hervorgegangen sind. Ein weiterer Bastard-Komplex ist aus der Vogelbeere ("Sorbus aucuparia") und der Felsen-Mehlbeere ("Sorbus rupicola") entstanden. Hierzu gehören einige Endemiten aus England wie die Art "Sorbus leyana" oder aus Deutschland mit Sorbus lonetalensis, die mit nur noch 11 bis 16 Exemplaren zu den seltensten Bäumen der Welt zählen.
Systematik.
Die Gattung "Sorbus" wurde durch Carl von Linné aufgestellt. Synonyme für "Sorbus" sind: "Aria" , "Ariosorbus" , "Chamaemespilus" , "Hahnia" , "Micromeles" , "Torminalis" , "Cormus" .
Die Gattung "Sorbus" gehört zur Subtribus der Kernobstgewächse (Pyrinae) in der Unterfamilie Spiraeoideae innerhalb der Familie Rosaceae.
Senikov & Kurto haben im Jahr 2017 die europäischen Mehlbeeren-Arten in mehrere verschiedene neue Gattungen aufgeteilt. Der Gattungsname "Sorbus" verbleibt danach nur noch bei der eigentlichen Vogelbeere ("Sorbus aucuparia" ).
Nach Hugh McAllister 2005 wird die Gattung "Sorbus" in sieben Untergattungen und diese in Sektionen gegliedert:
Zu den zahlreichen Arten der Gattung "Sorbus" zählen noch nach Hugh McAllister 2005 beispielsweise:
Mehlbeeren und Mensch.
Früchte.
Mehlbeeren haben längst nicht die ökonomische Bedeutung wie andere Kernobstgewächse. Eine ökonomische Bedeutung haben vor allem die Eberesche und der Speierling.
Die Früchte der Eberesche werden sowohl in der Wildkräuterküche wie in der Pflanzenheilkunde verwendet. Die Früchte enthalten Sorbinsäure und zwischen 0,02 und 0,30 Prozent Parasorbinsäure. Nach der Entbitterung werden sie meist zu Marmelade, Kompott oder Gelee gekocht. Ebenso werden aus ihnen Schnaps, Sirup und Tee hergestellt. Die Volksheilkunde setzt Vogelbeeren bei Rheuma, Verstopfung und bei Blutungen sowie Absude der Früchte als Gurgelmittel bei Heiserkeit ein. Früher wurden die Früchte auch zur Sorbitgewinnung verwendet. Sorbit, auch "Sorbitol" genannt, ist ein Zuckeralkohol, der als Zuckerzusatz in Diabetikerpräparaten Verwendung findet.
Die Früchte des Speierlings werden aufgrund ihres Tanningehalts als klärender Zusatz zu Apfelwein verwendet.
Holz.
Das Holz der Elsbeere, teils auch das ähnliche Holz des Speierlings gilt als sehr wertvoll ("Schweizer Birnbaum") und wird v. a. als Furnierholz und in der Möbelindustrie verwendet. Früher wurden aus dem formstabilen Holz auch Lineale und Rechenschieber gefertigt.
Feuerbrand.
Alle Mehlbeeren, insbesondere Speierling, Elsbeere, Vogelbeere/Eberesche, Echte Mehlbeere sind als Kernobstgewächse stark durch Befall mit Feuerbrand gefährdet und zählen mit zu den Hauptwirtsgruppen.
Sonstiges.
Im Jahr 1993 wurde in Deutschland der Speierling ("Sorbus domestica") zum Baum des Jahres ernannt, 1997 die Eberesche ("Sorbus aucuparia") und 2011 dann die Elsbeere ("Sorbus torminalis"). |
1290 | 831803 | https://de.wikipedia.org/wiki?curid=1290 | Ethik | Die Ethik ist jener Teilbereich der Philosophie, der sich mit den Voraussetzungen und der Bewertung menschlichen Handelns befasst. Ihr Gegenstand ist damit die Moral insbesondere hinsichtlich ihrer Begründbarkeit und Reflexion. Cicero übersetzte als erster "êthikê téchnē" ("die ethische Kunst") in den seinerzeit neuen Begriff "philosophia moralis" ("Philosophie der Sitten"). In seiner Tradition wird die Ethik auch heute noch als Moralphilosophie bezeichnet.
Die Ethik und ihre benachbarten Disziplinen (z. B. Rechts-, Staats- und Sozialphilosophie) werden auch als „praktische Philosophie“ zusammengefasst, da sie sich mit dem menschlichen Handeln befasst. Im Gegensatz dazu steht die „theoretische Philosophie“, zu der als klassische Disziplinen die Logik, die Erkenntnistheorie und die Metaphysik gezählt werden.
Ihr entsprechen in der Religionswissenschaft die religionsgeschichtliche Erforschung der Sittlichkeit (Moral) sowie vor allem die kath. Moraltheologie und die ev. theologische Ethik, die wiederum Teilgebiete der christlichen systematischen Theologie sind.
Wortherkunft.
Das deutsche Wort Ethik stammt von "" „das sittliche (Verständnis)“, von "ēthos" „Charakter, Sinnesart“ (dagegen ἔθος: Gewohnheit, Sitte, Brauch).
Ursprung.
Bereits die Sophisten (im 5. bis 4. Jahrhundert v. Chr.) vertraten die Auffassung, es sei für ein Vernunftwesen wie den Menschen unangemessen, wenn dessen Handeln ausschließlich von Konventionen und Traditionen geleitet wird. Im Zuge der sokratischen Wende rückte Sokrates (5. Jahrhundert v. Chr.) die Ethik ins Zentrum des philosophischen Denkens. "Ethik" als Bezeichnung für eine philosophische Disziplin geht auf Aristoteles (4. Jahrhundert v. Chr.) zurück, der damit die wissenschaftliche Beschäftigung mit Gewohnheiten, Sitten und Gebräuchen ("ethos") meinte. Er war der Überzeugung, menschliche Praxis sei grundsätzlich einer vernünftigen und theoretisch fundierten Reflexion zugänglich. Ethik war somit für Aristoteles eine philosophische Disziplin, die den gesamten Bereich menschlichen Handelns zum Gegenstand hat und diesen Gegenstand mit philosophischen Mitteln einer normativen Beurteilung unterzieht und zur praktischen Umsetzung der auf diese Weise gewonnenen Erkenntnisse anleitet.
Ziele und Fragestellungen.
Die (allgemeine) Ethik wird heute als die philosophische Disziplin verstanden, die Kriterien für gutes und schlechtes Handeln und für die Bewertung seiner Motive und Folgen aufstellt. Sie ist von ihrer Zielsetzung her eine praktische Wissenschaft. Es geht ihr nicht um ein Wissen um seiner selbst willen "(theoria)", sondern um eine verantwortbare Praxis. Sie soll dem Menschen Hilfen für seine sittlichen Entscheidungen liefern. Dabei kann die Ethik allerdings nur allgemeine Prinzipien und Normen guten Handelns oder ethischen Urteilens überhaupt oder Wertvorzugsurteile für bestimmte Typen von Problemsituationen begründen. Die situationsspezifische Anwendung dieser Prinzipien auf neue Situationen und Lebenslagen ist nicht durch sie leistbar, sondern Aufgabe der praktischen Urteilskraft und des geschulten Gewissens.
Die drei Fragen nach
stehen im Zentrum.
Als philosophische Disziplin bearbeitet die Ethik moralische Fragen auf der Grundlage lebensweltlicher Einstellungen, Wertüberzeugungen und rationaler Argumente. Auch in den jüdischen, christlichen und islamischen Theologien werden ethische Fragen behandelt. In der Theologischen Ethik werden unterschiedliche Voraussetzungen und Vorgehensweisen zugrunde gelegt: Während sogenannte Glaubensethiken religiöse Überzeugungen, einschließlich offenbarungstheologisch vermittelter Traditionen, als Argumentationsgrundlage voraussetzen, werden v. a. seit den 1970er Jahren auch Ansätze vertreten, wonach die Begründung ethischer Normen nur voraussetzt, was unabhängig von spezifischen religiösen oder weltanschaulichen Verortungen rational einsichtig zu machen ist. Beispiele dafür sind die Vorschläge sogenannter „Autonomer Moral“ von Alfons Auer oder Franz Böckle.
Abgrenzung.
Rechtswissenschaft.
Auch die Rechtswissenschaft fragt danach, wie gehandelt werden soll. Im Unterschied zur Ethik (welche seit Christian Thomasius und Kant von der Rechtslehre unterschieden wird) bezieht sie sich jedoch im Allgemeinen auf eine bestimmte, faktisch geltende Rechtsordnung (positives Recht), deren Normen sie auslegt und anwendet. Wo die Rechtswissenschaft als Rechtsphilosophie, Rechtspolitik oder Gesetzgebungslehre auch die Begründung von Rechtsnormen behandelt, nähert sie sich der Ethik an. Auch das Vernunftrecht zeigt Parallelen zur Ethik.
Empirie.
Mit gesellschaftlichen Normen des Handelns befassen sich auch empirische Wissenschaften wie Soziologie, Ethnologie und Psychologie. Im Unterschied zur normativen Ethik im philosophischen Sinne geht es dort jedoch um die Beschreibung und Erklärung faktisch bestehender ethischer Überzeugungen, Einstellungen und Sanktionsmuster und nicht um deren Rechtfertigung oder Kritik. Beziehungen bestehen also zur deskriptiven Ethik.
Theorie der rationalen Entscheidung.
Auch die Theorie der rationalen Entscheidung beantwortet die Frage: Wie soll ich handeln? Jedoch unterscheidet sie sich von ethischen Fragestellungen dadurch, dass Theorien rationalen Handelns nicht in jedem Falle auch Theorien des moralisch Guten sind. Von ethischen Theorien mit einem allgemeinverbindlichen Anspruch unterscheiden sich Theorien rationaler Entscheidung dadurch, dass nur die Ziele und Interessen eines bestimmten Individuums oder eines kollektiven Subjekts (z. B. eines wirtschaftlichen Unternehmens oder eines Staates) berücksichtigt werden.
Disziplinen.
Metaethik.
Metaethik stellt die Grundlage der anderen Disziplinen dar und beschäftigt sich mit ihren allgemeingültigen Kriterien und Methoden. Sie analysiert die allgemeinen logischen, semantischen und pragmatischen Strukturen moralischen und ethischen Sprechens und sich v. a. mit der Bedeutung ethischer und verwandter Begriffe, der Verwendung ethischer Begriffe in moralischen Sätzen und der Frage nach der Begründbarkeit von Werturteilen beschäftigt. Seit Beginn des 20. Jahrhunderts wird sie als eigenständige Disziplin betrachtet.
Normative Ethik.
Normative Ethik erarbeitet und untersucht allgemeingültige Normen und Werte sowie deren Begründung. Sie ist der Kern der allgemeinen Ethik. Als Reflexionstheorie der Moral wertet und urteilt sie über das Gute und Richtige.
Angewandte Ethik.
Angewandte Ethik baut auf der normativen Ethik auf. Sie äußert sich als Individual- und Sozialethik sowie in den Bereichsethiken zu spezifischen Lebensbereichen, beispielsweise Medizinethik oder Wirtschaftsethik. Ethikkommissionen, -räte und -institute erarbeiten Normen oder Handlungsempfehlungen für bestimmte Bereiche.
Deskriptive Ethik.
Häufig nicht zum klassischen Kanon der Ethik gerechnet wird die "deskriptive Ethik", die sich versteht als empirische Untersuchung, Beschreibung und ursächlichen Erklärung von Normensystem innerhalb einer Gesellschaft, und dabei keine moralischen Urteile fällt.
Begründungen normativer Sätze.
Gründe für und gegen Moral.
Die Frage, ob man überhaupt moralisch sein soll, wird in Platons "Politeia" im ersten Kapitel aufgeworfen. In der Moderne wurde der Diskurs um die Frage von Bradley und Prichard eingeleitet.
Metaethische Kognitivisten behaupten, erkennen zu können, wie man moralisch handeln solle. Somit stellt sich ihnen die Frage, ob man das überhaupt tun soll nicht mehr, da sie auch gleich mit erkennen, dass man dies tun soll.
Metaethische Nonkognitivisten hingegen müssen die Frage, ob man moralisch handeln soll, klären.
Die Diskussion wird in der Philosophie zumeist anhand der Frage „Warum soll man moralisch sein?“ geführt. Das Sollen innerhalb der Frage ist dabei kein moralisches Sollen, sondern verweist auf eine Akzeptanz besserer Gründe, z. B. anhand der Theorie der rationalen Entscheidung. Die Antwort auf die Frage hängt also ab vom jeweiligen Verständnis von Vernunft.
Die Frage, ob man moralisch sein soll oder nicht, wird beantwortet mit:
Die Situation des Menschen, der sich zwischen diesen Antworten entscheiden muss, hat ihre klassische Gestaltung in der so genannten Prodikos-Fabel von Herakles am Scheideweg gefunden, die auch von vielen christlichen Autoren rezipiert wurde.
Absolute Begründung der Moral.
Eine bekannte absolute Moralbegründung ist die der Letztbegründung von Apel. Angenommen jemand lehnt es ab, über Zwecke zu reden, dann sei diese Ablehnung bereits ein Reden über Zwecke. Insofern ist dies ein so genannter performativer Selbstwiderspruch.
Moralbegründung aus Sicht der Systemtheorie verzichtet darauf, zu begründen, warum Individuen moralisch handeln sollen. Stattdessen wird dargelegt, warum Moral als Regulierungsfunktion des Kommunikationssystems unentbehrlich ist (s. a. AGIL-Schema).
Relative Begründungen der Moral.
Viele Philosophen behaupten, dass man zwar nicht beweisen kann, dass Amoralismus logisch widersprüchlich ist, dass aber im wirklichen Leben Amoralisten viele Nachteile haben, so dass moralisches Verhalten größere Rentabilität im Sinne der Theorie der rationalen Entscheidung besitzt. Ethik wird mit dieser Form von Moralbegründung zu einer Spezialform von Zweckrationalität. Einer der wichtigsten Vertreter dieser Argumentationslinie ist David Gauthier.
Viele Philosophen dieser Richtung berufen sich auf den Grundsatz quid pro quo oder auf "Tit for Tat"-Strategien.
Andere meinen, Amoralisten seien auf Einsamkeit festgelegt, da man ihnen nicht vertrauen könne und auch sie niemandem vertrauen könnten. Daher könnten sie eines der wichtigsten Lebensgüter, soziale Gemeinschaft und Anerkennung, nie erreichen.
Nach R. M. Hare können Amoralisten keine moralischen Begriffe gebrauchen und daher nicht von ihren Mitmenschen fordern, sie fair zu behandeln. Die Möglichkeit entsprechender Lügen sah Hare nicht. Hare behauptete zudem, der Aufwand, den Amoralisten treiben müssten, um ihre Überzeugung zu verschleiern, wäre so groß, dass sie sozial immer im Nachteil seien.
Amoralisten kritisieren verschiedene Moralbegründungen, indem sie darauf verweisen, dass es in vielen Teilen der Welt relativ stabile Verhältnisse gibt, die üblichen moralischen Vorstellungen widersprechen, z. B. völkerrechtswidrige Kriege um Ressourcen, Sklaverei oder erfolgreiche Mafia-Organisationen. Siehe ethischer Relativismus.
Dezisionismus.
Dezision (von latein. decidere: entscheiden, fallen, abschneiden) bedeutet so viel wie Entscheidung.
Der Begriff des Dezisionismus wird oft in pejorativer Bedeutung gebraucht von Metaethischen Kognitivisten gegenüber Philosophen, die nur relative Begründungen der Moral anerkennen, z. B. Hare oder Popper und Hans Albert.
Dezisionisten sehen keine Alternative zu Prinzipienentscheidungen, die aus logischen oder pragmatischen Gründen ihrerseits nicht mehr weiter begründet werden können. So behauptete z. B. Henry Sidgwick, der Mensch müsse sich zwischen Utilitarismus und Egoismus entscheiden.
Dem Dezisionismus wird von seinen Kritikern ähnlich wie dem metaethischen Nonkognitivismus entgegengehalten, dass auch Entscheidungen wiederum einer Bewertung unterzogen werden könnten: Man entscheide sich nicht für bestimmte ethische Prinzipien, sondern diese würden umgekehrt die Grundlage von Entscheidungen darstellen.
Außerdem argumentieren Vertreter des Naturrechts dafür, dass sich die Objektivität der Ethik (also das Sollen) auf die Natur bzw. das Wesen des Seienden und letztlich auf das Sein selbst (z. B. Gott) zurückführen ließen.
Ethische Grundbegriffe.
Moralische Handlungen.
Im Mittelpunkt deontologischer Ethiken steht der Begriff der Handlung. Sie wird in erster Annäherung definiert als „eine von einer Person verursachte Veränderung des Zustands der Welt“. Die Veränderung kann eine äußere, in Raum und Zeit beobachtbare oder eine innere, mentale Veränderung sein. Auch die Art und Weise, wie man von außen einwirkenden Ereignissen begegnet, kann im weiteren Sinne als Handlung bezeichnet werden.
Absicht und Freiwilligkeit.
Handlungen unterscheiden sich von Ereignissen dadurch, dass wir als ihre Ursache nicht auf ein weiteres Ereignis verweisen, sondern auf die Absicht des Handelnden. Die Absicht (lateinisch '; nicht zu verwechseln mit dem juristischen Absichtsbegriff, dem ' 1. Grades) ist ein von der Handlung selbst zu unterscheidender Akt. Geplanten Handlungen liegt eine zeitlich vorausgehende Absicht zugrunde. Wir führen die Handlung so aus, wie wir sie uns vorher schon vorgenommen hatten. Der Begriff der Absicht ist von dem der Freiwilligkeit zu unterscheiden. Die Freiwilligkeit ist eine Eigenschaft, die zur Handlung selbst gehört. Der Begriff der Freiwilligkeit ist weiter als der der Absicht; er umfasst auch die spontanen Handlungen, bei denen nicht mehr von einer Absicht im engeren Sinne gesprochen werden kann.
Wissen und Willen.
Eine Handlung ist dann "freiwillig", wenn sie mit Wissen und Willen durchgeführt wird.
Die Unwissenheit kann dabei allerdings nur dann die Freiwilligkeit einer Handlung aufheben, wenn die handelnde Person sich nach besten Kräften vorher informiert hat, und sie mit dem ihr fehlenden "Wissen" anders gehandelt hätte. War dem Handelnden eine Kenntnis der Norm oder der Folgen zuzumuten, ist er für ihre Übertretung verantwortlich ("ignorantia crassa" oder "supina"). Noch weniger entschuldigt jene Unkenntnis, die absichtlich zum Vermeiden eines Konflikts mit der Norm herbeigeführt wurde "(ignorantia affectata)," wenn also z. B. bewusst vermieden wird, sich über ein Gesetz zu informieren, um sagen zu können, man hätte von einem bestimmten Verbot nicht gewusst. Das Sprichwort sagt zu Recht: „Unwissenheit schützt vor Strafe nicht“. Auch im deutschen Strafrecht wird diesem Sachverhalt Rechnung getragen. So heißt es z. B. in § 17 StGB:
Für die sittliche Bewertung einer Handlung ist außerdem das effektive "Wollen" wesentlich, die Absicht ihrer Verwirklichung. Das setzt voraus, dass zumindest der Handelnde der Auffassung war, dass ihm eine Verwirklichung seiner Absicht möglich sei, d. h., dass das Ergebnis von seinem Handeln kausal herbeigeführt werden könne. Unterliegt der Handelnde einem äußeren Zwang, hebt dieser die Freiwilligkeit der Handlung im Allgemeinen auf.
Handlungsprinzipien.
Absichten finden ihren Ausdruck in praktischen Grundsätzen. Diese können zunächst einmal in inhaltliche und formale Grundsätze unterschieden werden. Inhaltliche Grundsätze legen konkrete inhaltliche Güter (Leben, Gesundheit, Besitz, Vergnügen, Umwelt etc.) als Bewertungskriterium für das Handeln zugrunde. Sie sind teilweise subjektiv und haben unter Umständen einen dezisionistischen Charakter. In diesen Fällen können sie ihre eigene Vorrangstellung nicht gegenüber anderen, konkurrierenden inhaltlichen Grundsätzen begründen.
Formale Grundsätze verzichten auf einen Bezug zu konkreten inhaltlichen Gütern. Das bekannteste Beispiel ist der Kategorische Imperativ Kants.
Es lassen sich grundsätzlich drei Ebenen der praktischen Sätze voneinander unterscheiden:
Die Ethik ist häufig nur in der Lage, Aussagen zu den ersten beiden Ebenen zu machen. Die Übertragung von praktischen Grundsätzen auf eine konkrete Situation, erfordert das Vermögen der praktischen Urteilskraft. Nur mit seiner Hilfe können eventuell auftretende Zielkonflikte gelöst und die voraussichtlichen Folgen von Entscheidungen abgeschätzt werden.
Handlungsfolgen.
Wesentlich für die ethische Bewertung von Handlungen sind die mit ihnen verbundenen Folgen. Diese werden unterschieden in motivierende und in Kauf genommene Folgen. Motivierende Folgen sind solche, um derentwillen eine Handlung ausgeführt wird. Sie werden vom Handelnden unmittelbar angezielt („Voluntarium in se“).
In Kauf genommene Folgen („Voluntarium in causa“) werden zwar nicht unmittelbar angezielt, aber als Nebenwirkung der motivierenden Folgen vorausgesehen und bewusst zugelassen (Prinzip der Doppelwirkung). So unterliegt beispielsweise bewusste Fahrlässigkeit als bedingter Vorsatz (dolus eventualis) der ethischen und rechtlichen Verantwortung: Volltrunkenheit entschuldigt nicht bei einem Verkehrsunfall.
Tun und Unterlassen.
Bereits Thomas von Aquin unterscheidet eine zweifache Kausalität des Willens: die „direkte“ Einwirkung des Willens, in der durch den Willensakt ein bestimmtes Ereignis hervorgerufen wird, und die „indirekte“, in der ein Ereignis dadurch eintritt, dass der Wille untätig bleibt. Tun und Unterlassen unterscheiden sich hierbei nicht hinsichtlich ihrer Freiwilligkeit. Beim Unterlassen verzichtet jemand auf das Eingreifen in einen Prozess, obwohl er die Möglichkeit dazu hätte. Auch das Unterlassen kann daher als Handlung aufgefasst werden und strafbar sein.
Die strikte Unterscheidung zwischen diesen beiden Handlungsformen, die z. B. in der medizinischen Ethik eine große Rolle spielt (vgl. aktive und passive Sterbehilfe etc.), erscheint daher vom ethischen Standpunkt aus gesehen als teilweise fragwürdig.
Das Ziel menschlichen Handelns.
Im Mittelpunkt teleologischer Ethiken steht die Frage, was ich mit meiner Handlung letztlich bezwecke, welches Ziel ich mit ihr verfolge. Der Begriff „Ziel“ (finis, telos;) ist hier insbesondere als „letztes Ziel“ oder „Endziel“ zu verstehen, von dem all mein Handeln bestimmt wird.
Glück als letztes Ziel.
In der Tradition wird als letztes Ziel des Menschen häufig das Glück oder die Glückseligkeit (beatitudo) genannt. Der Ausdruck „Glück“ wird dabei in einem mehrdeutigen Sinne gebraucht:
Philosophiegeschichtlich konkurrieren die Bestimmungen von Glück als „Lebensglück“ und als subjektives Wohlbefinden miteinander. Für die Eudämonisten (Platon, Aristoteles) ist Glück die Folge der Verwirklichung einer Norm, die als Telos im Wesen des Menschen angelegt ist. Glücklich ist dieser Konzeption zufolge vor allem, wer auf vernünftige Weise tätig ist.
Für die Hedonisten (Sophisten, klassische Utilitaristen) gibt es kein zu verwirklichendes Telos des Menschen mehr; es steht keine objektive Norm zur Verfügung, um zu entscheiden, ob jemand glücklich ist. Dies führt zu einer Subjektivierung des Glücksbegriffs. Es obliege allein dem jeweiligen Individuum, zu bewerten, ob es glücklich ist. Glück wird zum Teil auch mit dem Erreichen von Gütern wie Macht, Reichtum, Ruhm etc. gleichgesetzt.
Sinn und Ziel.
Das Wort „Sinn“ bezeichnet grundsätzlich die Qualität von etwas, das dieses verstehbar macht. Wir verstehen etwas dadurch, indem wir erkennen, worauf es „hingeordnet“ ist, wozu es dient. Die Frage nach dem Sinn steht also in einem engen Zusammenhang mit der Frage nach dem Ziel oder Zweck von etwas. Auch der Sinn einer Handlung oder gar des ganzen Lebens kann nur beantwortet werden, wenn die Frage nach seinem Ziel geklärt ist. Eine menschliche Handlung bzw. ein gesamtes Leben ist dann sinnvoll, wenn es auf dieses Ziel hin ausgerichtet ist.
Das Gute.
Der Begriff „gut“.
„Gut“ gehört wie der Begriff „seiend“ zu den ersten und daher nicht mehr definierbaren Begriffen. Es wird zwischen einem adjektivischen und einem substantivischen Gebrauch unterschieden.
Als Adjektiv bezeichnet das Wort „gut“ generell die Hinordnung eines „Gegenstandes“ auf eine bestimmte Funktion oder einen bestimmten Zweck. So spricht man z. B. von einem „guten Messer“, wenn es seine im Prädikator „Messer“ ausgedrückte Funktion erfüllen – also z. B. gut schneiden kann. Analog spricht man von einem „guten Arzt“, wenn er in der Lage ist, seine Patienten zu heilen und Krankheiten zu bekämpfen. Ein „guter Mensch“ ist demnach jemand, der in seinem Leben auf das hin ausgerichtet ist, was das Menschsein ausmacht, also dem menschlichen Wesen bzw. seiner Natur entspricht.
Als Substantiv bezeichnet das Wort „das Gut“ etwas, auf das hin wir unser Handeln ausrichten. Wir gebrauchen es normalerweise in dieser Weise, um „eine unter bestimmten Bedingungen vollzogene Wahl als richtig oder gerechtfertigt zu beurteilen“. So kann beispielsweise eine Aussage wie „Die Gesundheit ist ein Gut“ als Rechtfertigung für die Wahl einer bestimmten Lebens- und Ernährungsweise dienen. In der philosophischen Tradition war man der Auffassung, dass prinzipiell jedes Seiende – unter einer gewissen Rücksicht – Ziel des Strebens sein könne („omne ens est bonum“). Daher wurde die „Gutheit“ des Seienden zu den Transzendentalien gerechnet.
Gemäß der Analyse von Richard Mervyn Hare werden wertende Wörter wie „gut“ oder „schlecht“ dazu verwendet, in Entscheidungssituationen Handeln anzuleiten bzw. Empfehlungen zu geben. Die Wörter „gut“ oder „schlecht“ haben demnach keine beschreibende (deskriptive), sondern eine vorschreibende (präskriptive) Funktion.
Dies kann an einer außermoralischen Verwendung des Wortes „gut“ verdeutlicht werden. Wenn ein Verkäufer zum Kunden sagt: „Dies ist ein guter Wein“, dann empfiehlt er den Kauf dieses Weines, er beschreibt damit jedoch keine wahrnehmbare Eigenschaft des Weines. Insofern es jedoch sozial verbreitete Bewertungsstandards für Weine gibt (er darf nicht nach Essig schmecken, man darf davon keine Kopfschmerzen bekommen etc.), so bedeutet die Bewertung des Weines als „gut“, dass der Wein diese Standards erfüllt und dass er somit auch bestimmte empirische Eigenschaften besitzt.
Die Bewertungskriterien, die an eine Sache angelegt werden, können "je nach dem Verwendungszweck variieren". Ein herber Wein mag als Tafelwein gut, für sich selbst getrunken dagegen eher schlecht sein. Der Verwendungszweck einer Sache ist keine feststehende Eigenschaft der Sache selbst, sondern beruht auf menschlicher Setzung. Eine Sache ist „gut“ – immer bezogen auf bestimmte Kriterien. Wenn der Verkäufer sagt: „Dies ist ein sehr guter Tafelwein“ dann ist er so, wie er gemäß den üblichen Kriterien für Tafelwein sein soll.
Wenn das Wort „gut“ in moralischen Zusammenhängen gebraucht wird („Dies war eine gute Tat“), so empfiehlt man die Tat und drückt aus, dass sie so war, wie sie sein soll. Man beschreibt damit jedoch nicht die Tat. Wird auf allgemein anerkannte moralische Kriterien Bezug genommen, drückt man damit zugleich aus, dass die Tat bestimmte empirische Eigenschaften besitzt, z. B. eine Zurückstellung des Eigeninteresses zugunsten überwiegender Interessen von Mitmenschen.
Das höchste Gut.
Als das höchste Gut ("summum bonum") wird das bezeichnet, was nicht nur unter einer bestimmten Rücksicht (für den Menschen) gut ist, sondern schlechthin, da es dem Menschen als Menschen ohne Einschränkung entspricht. Es ist identisch mit dem „unbedingt Gesollten“. Seine inhaltliche Bestimmung hängt ab von der jeweiligen Sicht der Natur des Menschen. In der Tradition wurden dabei die unterschiedlichsten Lösungsvorschläge präsentiert:
Werte.
Der Begriff „Wert“ stammte ursprünglich aus der Politischen Ökonomie, in der Adam Smith, David Ricardo und später Karl Marx unter anderem die Unterscheidung von Gebrauchs- und Tauschwert untersuchten. Erst in der zweiten Hälfte des 19. Jahrhunderts wurde „Wert“ ein philosophischer Terminus, der im Rahmen der Wertphilosophie (Max Scheler u. a.) eine zentrale Bedeutung einnahm. Dort führte man ihn als Gegenbegriff zur Kantischen Pflichtethik ein, in der Annahme, dass Werten vor allen Vernunftüberlegungen eine „objektive Gültigkeit“ zukommen würde.
In der Alltagssprache taucht der Begriff auch in jüngster Zeit wieder verstärkt auf, gerade wenn von „Grundwerten“, einem „Wertewandel“ oder einer „neuen Wertedebatte“ die Rede ist.
Der Wertbegriff weist große Ähnlichkeiten mit dem Begriff des Guten auf. Er wird wie dieser grundsätzlich in einer subjektiven und einer objektiven Variante gebraucht:
Im Vergleich zum Begriff des Guten kommt dem Wertbegriff allerdings eine stärkere gesellschaftliche Bedingtheit zu. So spricht man von einem „Wertewandel“, wenn man ausdrücken will, dass sich bestimmte, in einer Gesellschaft allgemein akzeptierte Handlungsnormen im Verlauf der Geschichte verändert haben. Damit meint man aber in der Regel nicht, dass das, was früher für gut gehalten wurde, nun „tatsächlich“ nicht mehr gut sei, sondern nur, dass sich das allgemeine Urteil darüber geändert habe.
Tugend.
Die richtige Abwägung ethischer Güter und ihre Durchsetzung setzt Tugend voraus.
In ihrer klassischen Definition formuliert sie Aristoteles als "jene feste Grundhaltung, von der aus [der Handelnde] tüchtig wird und die ihm eigentümliche Leistung in vollkommener Weise zustande bringt" (NE 1106a).
Die Leistung der ethischen Tugenden besteht vor allem darin, im Menschen eine Einheit von sinnlichem Strebevermögen und sittlicher Erkenntnis zu bewirken. Ein Mensch gilt erst dann als „gut“, wenn er zur inneren Einheit mit sich selbst gekommen ist und das als richtig Erkannte auch affektiv voll bejaht. Dies ist nach Aristoteles nur durch eine Integration der Gefühle durch die ethischen Tugenden möglich. Ungeordnete Gefühle verfälschen das sittliche Urteil. Das Ziel der Einheit von Vernunft und Gefühl führt über eine bloße Ethik der richtigen Entscheidung hinaus. Es kommt nicht nur darauf an, was wir tun, sondern auch wer wir sind.
Tugend setzt neben Erkenntnis eine Gewöhnung voraus, die durch Erziehung und soziale Praxis erreicht wird. Wir werden gerecht, mutig etc., indem wir uns in Situationen begeben, wo wir uns entsprechend verhalten können. Die wichtigste Rolle kommt dabei der Tugend der Klugheit (phronesis) zu. Ihr obliegt es, die rechte „Mitte“ zwischen den Extremen zu finden und sich für die optimale Lösung in der konkreten Situation zu entscheiden.
Sollen.
Der Begriff „sollen“ ist ein Grundbegriff deontologischer Ethikansätze. Er bezieht sich – als Imperativ – auf eine Handlung, mit der ein bestimmtes Ziel erreicht werden soll. Dabei müssen folgende Bedingungen erfüllt sein:
Sprachanalytisch lässt sich das Sollen mit Hilfe der sogenannten deontischen Prädikatoren erklären. Diese beziehen sich auf die sittliche Verbindlichkeit von Handlungen. Folgende Varianten sind dabei zu unterscheiden:
Moralisch mögliche Handlungen sind sittlich erlaubt, d. h. man darf so handeln. Moralisch notwendige Handlungen sind sittlich geboten. Hier spricht man davon, dass wir etwas tun sollen bzw. die Pflicht haben, etwas zu tun. Moralisch unmögliche Handlungen sind sittlich verbotene Handlungen, die wir nicht ausführen dürfen; siehe auch Sünde.
Die Begriffe „gut“ und „gesollt“ sind zwar eng miteinander verwandt aber nicht deckungsgleich.
So können wir in Situationen stehen, in denen wir nur zwischen schlechten Alternativen wählen können. Hier ist es gesollt, dass wir uns für das „geringere Übel“ entscheiden. Umgekehrt ist nicht alles Gute auch gesollt. Das kann z. B. der Fall sein, wenn das Erreichen eines Gutes ein anderes Gut ausschließt. Hier muss eine Güterabwägung erfolgen, die zum Verzicht eines Gutes führt.
Gerechtigkeit.
Der Begriff der Gerechtigkeit ist seit der intensiven Diskussion um die „Theorie der Gerechtigkeit“ von John Rawls und vor allem seit der aktuellen politischen Debatte um die Aufgaben des Sozialstaates (Betonung der Chancen- und Leistungsgerechtigkeit gegenüber der Verteilungsgerechtigkeit) wieder stark ins Blickfeld geraten.
„Gerecht“ wird – wie der Begriff „gut“ – in vielerlei Bedeutungen gebraucht. Es werden Handlungen, Haltungen, Personen, Verhältnisse, politische Institutionen und zuweilen auch Affekte (der „gerechte Zorn“) als gerecht bezeichnet. Grundsätzlich kann zwischen einem „subjektiven“ und einem „objektiven“ Gebrauch unterschieden werden, wobei beide Varianten aufeinander bezogen sind.
Die "subjektive" oder besser personale "Gerechtigkeit" bezieht sich auf das Verhalten oder die ethische Grundhaltung einer Einzelperson. Eine Person kann gerecht handeln ohne gerecht zu sein und umgekehrt. Damit im Zusammenhang steht die kantische Unterscheidung zwischen Legalität und Moralität. Legale Handlungen befinden sind nach außen hin betrachtet in Übereinstimmung mit dem Sittengesetz, geschehen aber nicht ausschließlich aufgrund moralischer Beweggründe, sondern z. B. auch aus Angst, Opportunismus etc. Bei moralischen Handlungen dagegen stimmen Handlung und Motiv miteinander überein. In diesem Sinne wird Gerechtigkeit als eine der vier "Kardinaltugenden" bezeichnet.
Die "objektive" oder institutionelle "Gerechtigkeit" bezieht sich auf die Bereiche Recht und Staat.
Hier geht es immer um Pflichten innerhalb einer Gemeinschaft, die das Gleichheitsprinzip berühren. Es ist grundsätzlich zu unterscheiden zwischen der "ausgleichenden Gerechtigkeit" (iustitita commutativa) und "Verteilungsgerechtigkeit" (iustitita distributiva). Bei der ausgleichenden Gerechtigkeit tritt der Wert einer Ware oder Leistung in den Vordergrund. Bei der Verteilungsgerechtigkeit geht es um den Wert der beteiligten Personen.
Die Gerechtigkeit der Einzelpersonen und der Institutionen sind in einem engen Zusammenhang zueinander zu sehen. Ohne gerechte Bürger werden keine gerechten Institutionen geschaffen oder aufrechterhalten werden können. Ungerechte Institutionen erschweren andererseits die Entfaltung der Individualtugend der Gerechtigkeit.
Das Anliegen der Ethik beschränkt sich nicht auf das Thema „Gerechtigkeit“. Zu den Tugenden gehören noch diejenigen, die man vor allem sich selbst gegenüber hat (Klugheit, Mäßigung, Tapferkeit). Zu den ethischen Pflichten gegenüber anderen zählt noch die Pflicht des "Wohltun"s (beneficientia), die über die Gerechtigkeit hinausgeht und ihre Wurzel letztlich in der Liebe hat. Während der Gerechtigkeit das Gleichheitsprinzip zugrunde liegt, ist dies beim Wohltun die Notlage oder Bedürftigkeit des anderen. Diese Unterscheidung entspricht der zwischen „iustitia“ und „caritas“ (Thomas von Aquin), Rechts- und Tugendpflichten (Kant) bzw. in der Gegenwart der zwischen „duties of justice“ und „duties of charity“ (Philippa Foot).
Ethische Theorien.
Klassen ethischer oder moralphilosophischer Theorien lassen sich danach unterscheiden, welche Kriterien sie für die Bestimmung des moralisch Guten zugrunde legen. Das moralisch Gute kann bestimmt werden durch:
Dabei werden unterschiedlichste Kombinationen und feinere moraltheoretische Bestimmungen vertreten.
Teleologische oder deontologische Ethik.
Die verschiedenen Ethikansätze werden traditionell prinzipiell danach unterschieden, ob sie ihren Schwerpunkt auf die Handlung selbst (deontologische Ethikansätze) oder auf die Handlungsfolgen (teleologische Ethikansätze) legen. Die Unterscheidung geht zurück auf C. D. Broad
und wurde bekannt durch William K. Frankena. In dieselbe Richtung geht auch die Aufteilung Max Webers in Gesinnungs- und Verantwortungsethiken, wobei diese von ihm als Polemik gegenüber Gesinnungsethiken verstanden wurde.
Teleologische Ethiken.
Das griechische Wort „telos“ bedeutet so viel wie Vollendung, Erfüllung, Zweck oder Ziel. Unter teleologischen Ethiken versteht man daher solche Theorieansätze, die ihr Hauptaugenmerk auf bestimmte Zwecke oder Ziele richten. In ihnen wird die Forderung erhoben, Handlungen sollten ein Ziel anstreben, das in einem umfassenderen Verständnis gut ist. Der Inhalt dieses Zieles wird von den verschiedenen Richtungen auf recht unterschiedliche Art und Weise bestimmt.
Teleologische Ethiken geben valuativen Sätzen einen Vorrang gegenüber normativen Sätzen. Für sie stehen Güter und Werte im Vordergrund. Die menschlichen Handlungen sind insbesondere insofern von Interesse, als sie hinderlich oder förderlich zum Erreichen dieser Güter und Werte sein können. "Eine Handlung ist dann auszuführen und nur dann, wenn sie oder die Regel, unter die sie fällt, ein größeres Überwiegen des Guten über das Schlechte herbeiführt, vermutlich herbeiführen wird oder herbeiführen sollte als jede erreichbare Alternative" (Frankena).
Innerhalb teleologischer Ethikansätze wird wiederum zwischen „onto-teleologischen“ und „konsequentialistisch-teleologischen“ Ansätzen unterschieden.
In onto-teleologischen Ansätzen – klassisch vertreten durch Aristoteles – wird davon ausgegangen, dass das zu erstrebende Gut in gewisser Weise dem Menschen selbst als Teil seiner Natur innewohne. Es wird gefordert, dass der Mensch so handeln und leben solle, wie es seiner Wesensnatur entspricht, um so seine artspezifischen Anlagen auf bestmögliche Weise zu vervollkommnen.
In konsequentialistisch-teleologischen Ansätzen hingegen wird nicht mehr von einer letzten vorgegebenen Zweckhaftigkeit des menschlichen Daseins ausgegangen. Das zu erstrebende Ziel wird daher durch einen außerhalb des handelnden Subjekts liegenden Nutzen bestimmt. Dieser Ansatz wird bereits in der Antike (Epikur) und später in seiner typischen Form durch den Utilitarismus vertreten.
Deontologische Ethiken.
Das griechische Wort "to deon" bedeutet „das Schickliche, die Pflicht“. Deontologische Ethiken kann man daher mit Sollensethiken gleichsetzen. Sie sind dadurch gekennzeichnet, dass bei ihnen den Handlungsfolgen nicht dieselbe Bedeutung zukommt wie in teleologischen Ethiken. Innerhalb der deontologischen Ethiken wird häufig zwischen aktdeontologischen (z. B. Jean-Paul Sartre) und regeldeontologischen Konzeptionen (z. B. Immanuel Kant) unterschieden. Während die "Regeldeontologie" allgemeine Handlungstypen als verboten, erlaubt oder geboten ausweist (vgl. z. B. das Lügenverbot oder die Pflicht, Versprechen zu halten), bezieht sich den "aktdeontologischen Theorien" zufolge das deontologische Moralurteil unmittelbar auf spezifische Handlungsweisen in jeweils bestimmten Handlungssituationen.
In deontologischen Ethiken haben normative Sätze eine Vorrangstellung gegenüber valuativen Sätzen. Für sie bilden Gebote, Verbote und Erlaubnisse die Grundbegriffe. Es rücken die menschlichen Handlungen in den Vordergrund, da nur sie gegen eine Norm verstoßen können. Robert Spaemann charakterisiert sie als "moralische Konzepte, […] für welche bestimmte Handlungstypen ohne Beachtung der weiteren Umstände immer verwerflich sind, also z. B. die absichtliche direkte Tötung eines unschuldigen Menschen, die Folter oder der außereheliche Beischlaf eines verheirateten Menschen."
Kritik an der Unterscheidung.
Die Unterscheidung zwischen teleologischen und deontologischen Ethiken wird von einigen Kritikern als fragwürdig bezeichnet. In der Praxis sind auch selten Ansätze zu finden, die eindeutig einer der beiden Richtungen zugeordnet werden könnten.
Einer strikten deontologischen Ethik müsste es gelingen, Handlungen aufzuzeigen, die „in sich“, völlig losgelöst von ihren Folgen, als unsittlich und „in sich schlecht“ zu bezeichnen wären. Diese wären dann „unter allen Umständen“ zu tun oder zu unterlassen gemäß dem Spruch "Fiat iustitia et pereat mundus" („Gerechtigkeit geschehe, und sollte die Welt darüber zugrunde gehen“, Ferdinand I. von Habsburg). Bekannte Beispiele solcher Handlungen sind die „Tötung Unschuldiger“ oder die nach Kant unzulässige Lüge. In den Augen der Kritiker liegt in diesen Fällen häufig eine „petitio principii“ vor. Wenn z. B. die Tötung Unschuldiger als Mord und dieser wiederum als unsittliche Handlung definiert wird, könne sie natürlich in jedem Fall als „in sich schlecht“ bezeichnet werden. Das gleiche gelte für die Lüge, wenn sie als unerlaubtes Verfälschen der Wahrheit bezeichnet wird.
Gerade in der Analyse ethischer Dilemmasituationen, in denen nur die Wahl zwischen mehreren Übeln möglich ist, zeige sich, dass es kaum möglich sein dürfte, bestimmte Handlungen unter allen Umständen als „sittlich schlecht“ zu bezeichnen. Nach einer strikten deontologischen Ethik wäre die „Wahl des kleineren Übels“ nicht möglich.
An strikt teleologisch argumentierenden Ethikansätzen wird kritisiert, dass sie das ethisch Gesollte von außerethischen Zwecken abhängig machen. Damit bleibe die Frage unbeantwortet, weshalb wir diese Zwecke verfolgen sollen. Eine Güterabwägung werde damit unmöglich gemacht, da die Frage, was ein oder das bessere „Gut“ ist, nur geklärt werden könne, wenn vorher allgemeine Handlungsprinzipien definiert wurden. In vielen teleologischen Ansätzen würden diese Handlungsprinzipien auch einfach stillschweigend vorausgesetzt, wie z. B. im klassischen Utilitarismus, für den Lustgewinnung und Unlustvermeidung die Leitprinzipien jeglicher Folgenabschätzung darstellen.
Wollen und Sollen in Ansätzen der Ethik.
Ethische Positionen lassen sich auch danach unterscheiden, wie sich das Gesollte aus einem bestimmten Wollen ergibt.
Die aufgelisteten Positionen liegen auf unterschiedlichen logischen Ebenen und schließen sich deshalb auch nicht logisch aus. So ist z. B. die Verbindung einer religiösen Position mit einer intuitionistischen Position möglich. Denkbar ist auch eine Verbindung der konsenstheoretischen Position mit einer utilitaristischen Position, wenn man annimmt, dass sich ein Konsens über die richtige Norm nur dann herstellen lässt, wenn dabei der Nutzen (das Wohl) jedes Individuums in gleicher Weise berücksichtigt wird.
Außerdem ist zu beachten: Einige dieser Ansätze haben ausdrücklich nicht den Anspruch, umfassende ethische Konzepte zu sein, sondern z. B. nur Konzepte für die Beurteilung, ob eine Gesellschaft in politisch-ökonomischer Hinsicht gerecht eingerichtet ist; z. B. bei John Rawls, im Unterschied zu umfassenderen Ansätzen, die auch Fragen privater, individueller Ethik betreffen – etwa, ob es eine moralische Pflicht gibt, zu lügen, wenn genau dies notwendig ist, um ein Menschenleben zu retten (und wenn ohne diese Lüge niemand sonst stattdessen gerettet würde). Auch z. B. Habermas beantwortet diese Frage nicht „inhaltlich“, aber sein Konzept beinhaltet den Bereich auch solcher Fragen, indem es „formal“ postuliert, richtig sei, was in dieser Frage alle, die an einem zwanglosen und zugleich vernünftigen Diskurs dazu teilnehmen würden, als verbindlich für alle dazu herausfinden und akzeptieren würden.
Inhaltliche Richtigkeit und formale Verbindlichkeit von Normen.
Wenn man fragt, warum Individuum A eine bestimmte Handlungsnorm N befolgen soll, so gibt es zwei Arten von Antworten.
Die eine Art von Antworten bezieht sich auf "eine Institution oder ein Verfahren, wodurch die Norm gesetzt wurde". Beispiele hierfür sind:
A soll N befolgen, weil …
Die andere Art von Antworten bezieht sich auf "die inhaltliche Beschaffenheit der Norm". Beispiele für diese Art von Antworten sind:
A soll N befolgen, weil …
Offensichtlich liegen diese Begründungen auf zwei verschiedenen Ebenen, denn man kann ohne logischen Widerspruch sagen: „Ich halte den Beschluss der Parlamentsmehrheit zwar für inhaltlich falsch, aber dennoch ist er für mich verbindlich. Als Demokrat respektiere ich die Beschlüsse der Mehrheit.“
Man kann die ethischen Theorien nun danach unterscheiden, wie sie mit dem Spannungsverhältnis zwischen der Ebene der verfahrensmäßigen Setzung von verbindlichen Normen und der Ebene der argumentativen Bestimmung von richtigen Normen umgehen.
Auf der einen Seite stehen ganz außen die "Dezisionisten". Für sie ist nur die verbindliche Setzung von Normen bedeutsam. Sie bestreiten, dass man in Bezug auf Normen überhaupt von inhaltlicher Richtigkeit und von einer Erkenntnis der richtigen Norm sprechen kann.
Das Hauptproblem der Dezisionisten ist, dass es für sie keine Berechtigung für einen Widerstand gegen die gesetzten Normen geben kann, denn „verbindlich ist verbindlich“. Außerdem können Dezisionisten nicht begründen, warum man das eine Normsetzungsverfahren irgendeinem anderen Verfahren vorziehen soll.
Auf der anderen Seite stehen ganz außen die ethischen "Kognitivisten". Für sie ist das Problem ethischen Handelns allein ein Erkenntnisproblem, das man durch die Gewinnung relevanter Informationen und deren Auswertung nach geeigneten Kriterien lösen kann. Eine Legitimation von Normen durch Verfahren ist für sie nicht möglich.
Das Hauptproblem der Kognitivisten ist, dass es auch beim wissenschaftlichen Meinungsstreit oft nicht zu definitiven Erkenntnissen kommt, die als Grundlage der sozialen Koordination dienen könnten. Es werden deshalb zusätzlich verbindliche und sanktionierte Normen benötigt, die für jedes Individuum das Handeln der anderen berechenbar macht.
Erkenntnistheoretische und metaphysische Probleme der Ethik.
Sein und Sollen.
Teleologische Ethiken sind in der Regel Güter-Ethiken; sie bezeichnen bestimmte Güter (z. B. „Glück“ oder „Lust“) als für den Menschen gut und damit erstrebenswert.
Schon David Hume hat den Einwand erhoben, dass der Übergang von Seins- zu Sollensaussagen nicht legitim sei („Humes Gesetz“). Unter dem Stichwort „Naturalistischer Fehlschluss“ hat George Edward Moore damit eng verwandte Fragen aufgeworfen, die aber genau genommen nicht dieselben sind.
Hume kritisiert an den ihm bekannten Moralsystemen,
Für Hume sind logische Schlussfolgerungen von dem, was ist, auf das, was sein soll, unzulässig, denn durch logische Umformungen könne aus Ist-Sätzen kein völlig neues Bedeutungselement wie das Sollen hergeleitet werden.
Wie später die Positivisten betont haben, muss erkenntnistheoretisch zwischen Ist-Sätzen und Soll-Sätzen wegen ihres unterschiedlichen Verhältnisses zur Sinneswahrnehmung differenziert werden. Während der Satz „Peter ist um 14 Uhr am Bahnhof gewesen“ durch intersubjektiv übereinstimmende Beobachtungen überprüfbar, also verifizierbar oder falsifizierbar ist, lässt sich der Satz „Peter soll um 14 Uhr am Bahnhof sein“ mit den Mitteln von Beobachtung und Logik allein nicht begründen oder widerlegen.
Die erkenntnistheoretische Unterscheidung zwischen Sein und Sollen liegt den modernen Erfahrungswissenschaften zugrunde. Wer diese Unterscheidung nicht akzeptiert, der muss entweder ein Sein postulieren, das nicht direkt oder indirekt wahrnehmbar ist, oder er muss das Gesollte für sinnlich wahrnehmbar halten. Beiden Positionen mangelt es bisher an einer intersubjektiven Nachprüfbarkeit.
Die vermeintliche Herleitung ethischer Normen aus Aussagen über das Seiende wird oft nur durch die unbemerkte Ausnutzung der normativ-empirischen Doppeldeutigkeit von Begriffen wie „Wesen“, „Natur“, „Bestimmung“, „Funktion“, „Zweck“, „Sinn“ oder „Ziel“ erreicht.
So bezeichnet das Wort „Ziel“ einmal das, was ein Mensch "tatsächlich anstrebt" („Sein Ziel ist das Diplom“). Das Wort kann jedoch auch das bezeichnen, was ein Mensch "anstreben sollte" („Wer nur am Materiellen ausgerichtet ist, der verfehlt das wahre Ziel des menschlichen Daseins“).
Die unbemerkte empirisch-normative Doppeldeutigkeit bestimmter Begriffe führt dann zu logischen Fehlschlüssen wie: „Das Wesen der Sexualität ist die Fortpflanzung. Also ist Empfängnisverhütung nicht erlaubt, denn sie entspricht nicht dem Wesen der Sexualität.“
Aus der logischen Unterscheidung von Sein und Sollen folgt jedoch keineswegs, dass damit eine auf Vernunft gegründete Ethik unmöglich ist, wie dies sowohl von Vertretern des logischen Empirismus als auch des Idealismus geäußert wird. Zwar ließe sich allein auf Empirie und Logik keine Ethik gründen, aber daraus folgt noch nicht, dass es nicht andere allgemein nachvollziehbare Kriterien für die Gültigkeit ethischer Normen gibt. Ein aussichtsreiches Beispiel für eine nachpositivistische Ethik ist die am Kriterium des zwangfreien Konsenses orientierte Diskursethik.
Mit der Feststellung, dass das Gesollte nicht aus dem Seienden logisch ableitbar ist, wird eine Begründung von Normen noch nicht aussichtslos. Denn neben den Seinsaussagen und den normativen Sätzen gibt es Willensäußerungen. Die Willensäußerung einer Person: „Ich will in der nächsten Stunde von niemandem gestört werden“ beinhaltet die Norm: „Niemand soll mich in der nächsten Stunde stören“. Die Aufgabe der Ethik ist es, allgemeingültige Willensinhalte bzw. Normen zu bestimmen und nachvollziehbar zu begründen.
Die logische Unterscheidung zwischen Ist-Sätzen und Soll-Sätzen wird vor allem von Vertretern idealistischer Positionen als eine unzulässige Trennung von Sein und Sollen angesehen und es wird eingewandt, dass ihr ein verkürzter Seinsbegriff zugrunde liege. So argumentiert Vittorio Hösle, das Sollen könne nur vom realen, empirischen Sein strikt abgegrenzt werden, „... ein ideales Sein, das nicht vom Menschen gesetzt ist, wird dem Sollen damit ebenso wenig abgesprochen wie eine mögliche Prinzipiierungsfunktion gegenüber dem empirischen Sein“. Es könne gerade als Aufgabe des Menschen angesehen werden, „damit fertig zu werden, dass das Sein nicht so ist, wie es sein soll“. Das Gesollte solle eben sein und sei als solches bereits Prinzip des Seins:
Die Möglichkeit einer teleologischen Ethik scheint mit der logischen Unterscheidung von Seins- und Sollens-Aussagen grundsätzlich in Frage gestellt. Aus Sicht der klassischen Position des Realismus bezüglich der Ethik, insbesondere des Naturrechts, ist es aber gerade das Sein, aus dem das Sollen abgeleitet werden muss, da es (außer dem Nichts) zum Sein keine Alternative gibt. Weil das Gute das Seinsgerechte, also das dem jeweiligen Seienden gerechte bzw. entsprechende ist, muss demnach das Wesen des Seins zunächst erkannt und aus ihm die Forderung des Sollens (ihm gegenüber) logisch abgeleitet werden.
Das Problem des Bösen.
Trotz der teilweise apokalyptischen geschichtlichen Ereignisse des 20. Jahrhunderts wird der Begriff „böse“ in der Umgangssprache nur noch selten gebraucht. Stattdessen werden meist die Begriffe „schlecht“ („ein schlechter Mensch“) oder „falsch“ („die Handlung war falsch“) verwendet. Das Wort „böse“ gilt im gegenwärtigen Bewusstsein generell als metaphysikverdächtig und aufgrund der allgemeinen Dominanz des naturwissenschaftlichen Denkens als überholt.
In der philosophischen Tradition wird das Böse als eine Form des Übels betrachtet. Klassisch geworden ist die Unterscheidung von Leibniz zwischen einem metaphysischen (malum metaphysicum), einem physischen (malum physicum) und einem moralischen Übel (malum morale). Das metaphysische Übel besteht in der Unvollkommenheit alles Seienden, das physische Übel in Schmerz und Leid. Diese Übel sind Widrigkeiten, die ihren Ursprung in der Natur haben. Sie sind nicht „böse“, da sie nicht das Ergebnis des (menschlichen oder allgemeiner gesagt geistigen) Willens sind. Das moralische Übel oder das Böse hingegen besteht in der Nicht-Übereinstimmung einer Handlung mit dem Sittengesetz bzw. Naturrecht. Es kann, wie Kant betont, nur „die Handlungsart, die Maxime des Willens und mithin die handelnde Person selbst“ böse sein. Das Böse ist also als Leistung oder besser Fehlleistung des Subjekts zu verstehen.
Reduktionistische Erklärungsversuche.
Die Verhaltensforschung führt das Böse auf die allgemeine „Tatsache“ der Aggression zurück. Diese sei einfachhin ein Bestandteil der menschlichen Natur und als solcher moralisch irrelevant. Daher spricht Konrad Lorenz auch vom „sogenannten Bösen“. Dieser Erklärung wird von Kritikern eine reduktionistische Betrachtungsweise vorgeworfen. Sie übersehe, dass dem Menschen auf der Grundlage der Freiheit die Möglichkeit gegeben ist, zu seiner eigenen Natur Stellung zu nehmen.
In der Philosophie stellte sich bereits Platon die Frage, wie das Böse überhaupt möglich sei. Das Böse werde nur getan, weil jemand im irrtümlichen Glauben annimmt, er (oder jemand) habe einen Nutzen davon. Somit wolle er aber den mit dem Bösen verbundenen Nutzen. Das Böse um seiner selbst willen könne niemand vernünftigerweise wollen:
Nicht-reduktionistische Erklärungsversuche.
Dieses in der Antike noch weit verbreitete Verständnis, das Böse ließe sich durch die Vernunft überwinden, wird allerdings durch die geschichtlichen Erfahrungen, insbesondere die des 20. Jahrhunderts in Frage gestellt. Diese lehren in den Augen vieler Philosophen der Gegenwart, dass der Mensch durchaus im Stande sei, das Böse auch um seiner selbst willen zu wollen.
Als Motiv für das Böse kann zunächst einmal der Egoismus ausgemacht werden. Er äußert sich in vielen Spielarten. In seiner harmlosen Variante zeigt er sich im Ideal einer selbstbezogenen Bedürfnisbefriedigung. In dieser Form stellt er letztlich auch die „Vertragsgrundlage“ des Utilitarismus dar, der nichts anderes als einen Interessensausgleich zwischen den Individuen schaffen möchte. Dieser Aspekt trifft – wie die geschichtliche Erfahrung zeigt – noch nicht den eigentlichen Kern des Bösen. Dieser wird erst dann sichtbar, wenn die eigene Bedürfnisbefriedigung nicht mehr im Vordergrund steht:
Die Ursache dieses „radikal Bösen“ ist nach Kant weder in der Sinnlichkeit noch in der Vernunft zu sehen, sondern in einer „Verkehrtheit des Herzens“, in der sich das Ich gegen sich selbst wendet:
Dieser Grundgedanke Kants von der Selbstwidersprüchlichkeit des Ichs als Ursache des Bösen wird vor allem in der Philosophie des Idealismus noch einmal vertieft. Schelling unterscheidet zwischen einem alle Bindung verneinenden „Eigenwillen“ und einem sich in Beziehungen gestaltenden „Universalwillen“. Die Möglichkeit zum Bösen bestehe darin, dass der Eigenwille sich seiner Integration in den Universalwillen widersetzt.
Das radikal Böse bewirke einen Umsturz der Ordnung in mir selbst und in Bezug zu anderen. Es erfolge um seiner selbst willen, denn „wie es einen Enthusiasmus zum Guten gibt, ebenso gibt es eine Begeisterung des Bösen“.
Nach der klassischen Lehre (Augustinus, Thomas von Aquin etc.) ist das Böse selbst letztlich substanzlos. Als privativer Gegensatz des Guten besteht es nur in einem Mangel (an Gutem). Im Gegensatz zum absolut Guten (Gott) gibt es demnach das absolut Böse nicht.
Durchsetzungsproblem.
Das Durchsetzungsproblem der Ethik besteht darin, dass die Einsicht in die Richtigkeit ethischer Prinzipien zwar vorhanden sein kann, daraus aber nicht automatisch folgt, dass der Mensch auch im ethischen Sinne handelt. Die Einsicht in das richtige Handeln bedarf einer zusätzlichen Motivation oder eines Zwangs.
Das Problem erklärt sich daraus, dass die Ethik einerseits und das menschliche Eigeninteresse als Egoismus andererseits oft einen Gegensatz bilden. Das Durchsetzungsproblem gewinne zudem durch die Globalisierung eine neue Dimension, die zu einer "Ethik der Neomoderne" führe.
Beispiel.
Die Tatsache, dass die Menschen im Land X Hunger leiden und ihnen geholfen werden sollte, ja es moralisch geboten erscheint ihnen zu helfen, wird niemand bestreiten. Die Einsicht es auch zu tun, einen Großteil seines Vermögens dafür herzugeben, wird es im nennenswerten Umfang erst geben, wenn eine zusätzliche Motivation auftaucht, etwa die Gefahr einer Migration wegen Hungers ins eigene Land unmittelbar bevorsteht.
Das Durchsetzungsproblem zeigt sich auf andere Weise auch in der Erziehung, etwa wenn fest verinnerlichte Verhaltensregeln später auf entwickelte ethische Prinzipien stoßen.
Lösungsansätze.
Erkenntnisse der Evolutionären Spieltheorie lassen Rückschlüsse darauf zu, dass das Durchsetzungsproblem durch Selbstdurchdringung gelöst werden kann. Diese Auffassung vertraten zuerst Vertreter der Neuen Institutionenökonomik. So wiesen Eirik Furubotn und Rudolf Richter darauf hin, dass der Aufbau einer Reputation eine dominate Spielstrategie sein kann. |
1295 | 1178831 | https://de.wikipedia.org/wiki?curid=1295 | Exponentialfunktion | In der Mathematik bezeichnet man als Exponentialfunktion eine Funktion der Form formula_1 mit einer reellen Zahl formula_2 als Basis (Grundzahl). In der gebräuchlichsten Form sind dabei für den Exponenten formula_3 die reellen Zahlen zugelassen. Im Gegensatz zu den Potenzfunktionen, bei denen die Basis die unabhängige Größe (Variable) und der Exponent fest vorgegeben ist, ist bei Exponentialfunktionen der Exponent (auch Hochzahl) des Potenzausdrucks die Variable und die Basis fest vorgegeben. Darauf bezieht sich auch die Namensgebung. Exponentialfunktionen haben in den Naturwissenschaften, z. B. bei der mathematischen Beschreibung von Wachstumsvorgängen, eine herausragende Bedeutung (siehe exponentielles Wachstum).
Als natürliche Exponentialfunktion oder e-Funktion bezeichnet man die Exponentialfunktion formula_4 mit der eulerschen Zahl formula_5 als Basis; gebräuchlich hierfür ist auch die Schreibweise formula_6 . Diese Funktion hat gegenüber den anderen Exponentialfunktionen besondere Eigenschaften. Unter Verwendung des natürlichen Logarithmus lässt sich mit der Gleichung formula_7 jede Exponentialfunktion auf eine solche zur Basis formula_8 zurückführen. Deshalb befasst sich dieser Artikel im Wesentlichen mit der Exponentialfunktion zur Basis formula_8.
Definition.
Die Exponentialfunktion zu der Basis formula_8 kann auf den reellen Zahlen auf verschiedene Weisen definiert werden.
Eine Möglichkeit ist die Definition als Potenzreihe, die sogenannte Exponentialreihe
wobei formula_12 die Fakultät von formula_13 bezeichnet.
Eine weitere Möglichkeit ist die Definition als Grenzwert einer Folge mit formula_14:
Beide Arten sind auch zur Definition der komplexen Exponentialfunktion formula_16 auf den komplexen Zahlen geeignet (s. weiter unten).
Die reelle Exponentialfunktion formula_17 ist positiv, stetig, streng monoton wachsend und surjektiv. Dabei bezeichnet formula_18 die Menge der positiven reellen Zahlen.
Sie ist folglich bijektiv.
Deshalb existiert ihre Umkehrfunktion, der natürliche Logarithmus formula_19.
Daraus erklärt sich auch die Bezeichnung Antilogarithmus für die Exponentialfunktion.
Konvergenz der Reihe, Stetigkeit.
Die punktweise Konvergenz der für die Definition der Exponentialfunktion verwendeten Reihe
lässt sich für alle reellen und komplexen formula_21 einfach mit dem Quotientenkriterium zeigen; daraus folgt sogar absolute Konvergenz. Der Konvergenzradius der Potenzreihe ist also unendlich. Da Potenzreihen an jedem inneren Punkt ihres Konvergenzbereiches analytisch sind, ist die Exponentialfunktion also in jedem reellen und komplexen Punkt trivialerweise auch stetig.
Rechenregeln.
Da die Exponentialfunktion die Funktionalgleichung formula_22 erfüllt, kann man mit ihrer Hilfe das Potenzieren auf reelle und komplexe Exponenten verallgemeinern, indem man definiert:
für alle formula_24 und alle reellen oder komplexen formula_3.
Generell gilt diese Umformung von formula_26 auch für beliebige andere Werte formula_27 als neue Basis:
Solche Funktionen heißen exponentielle Funktionen und „verwandeln“ Multiplikation in Addition.
Genauer zeigen das die folgenden Potenzgesetze:
Diese Gesetze gelten für alle positiven reellen formula_36 und formula_37 und alle reellen formula_3 und formula_39.
Ausdrücke mit Brüchen und Wurzeln können oft mit Hilfe der Exponentialfunktion vereinfacht werden:
Siehe auch Rechenregeln für Logarithmus.
Ableitung.
Die große Bedeutung der e-Funktion, eben die Exponentialfunktion mit Basis formula_8, beruht auf der Tatsache, dass ihre Ableitung wieder die Funktion selbst ergibt:
Wenn man zusätzlich
fordert, ist die e-Funktion sogar die einzige Funktion formula_45, die dies leistet. Somit kann man die e-Funktion auch als Lösung dieser Differentialgleichung f'(x) = f(x) mit dieser Anfangsbedingung f(0) = 1 definieren.
Allgemeiner folgt für reelles formula_46 aus
und der Kettenregel die Ableitung beliebiger Exponentialfunktionen:
In dieser Formel kann der natürliche Logarithmus nicht durch einen Logarithmus zu einer anderen Basis ersetzt werden; die Zahl "e" kommt also in der Differentialrechnung auf „natürliche“ Weise ins Spiel.
Stammfunktion.
Aus den Ergebnissen über die Ableitung ergibt sich die Stammfunktion der e-Funktion:
Für beliebige Exponentialfunktionen mit formula_46 und formula_51 gilt:
Exponentialfunktion auf den komplexen Zahlen.
Mit Hilfe der Reihendarstellung
lässt sich die Exponentialfunktion für komplexe Zahlen formula_54 definieren. Die Reihe konvergiert für alle formula_55 absolut.
Die Exponentialfunktion behält für alle komplexen Zahlen formula_54, formula_57 folgende wichtige Eigenschaften:
Die Exponentialfunktion ist somit ein surjektiver, aber nicht injektiver Gruppenhomomorphismus von der abelschen Gruppe formula_62 auf die abelsche Gruppe formula_63, also von der additiven auf die multiplikative Gruppe des Körpers formula_64.
In formula_65 hat die Exponentialfunktion eine wesentliche Singularität, ansonsten ist sie holomorph, d. h., sie ist eine ganze Funktion.
Die komplexe Exponentialfunktion ist periodisch mit der komplexen Periode formula_66, es gilt also
Beschränkt man ihren Definitionsbereich auf einen Streifen
mit formula_69, dann besitzt sie eine wohldefinierte Umkehrfunktion, den komplexen Logarithmus.
Die Exponentialfunktion kann zur Definition der trigonometrischen Funktionen für komplexe Zahlen verwendet werden:
Dies ist äquivalent zur eulerschen Formel
Daraus abgeleitet ergibt sich speziell die Gleichung
der in Physik und Technik wichtigen komplexen Exponentialschwingung mit der Kreisfrequenz formula_74 und der Frequenz formula_75.
Ebenso kann die Exponentialfunktion zur Definition der hyperbolischen Funktionen verwendet werden:
Man kann auch im Komplexen eine allgemeine Potenz definieren:
Die Werte der Potenzfunktion sind dabei abhängig von der Wahl des Einblättrigkeitsbereichs des Logarithmus, siehe auch Riemannsche Fläche. Dessen Mehrdeutigkeit wird ja durch die Periodizität seiner Umkehrfunktion, eben der Exponentialfunktion, verursacht. Deren grundlegende Gleichung
entspringt der Periodizität der Exponentialfunktion formula_82 mit reellem Argument formula_3. Deren Periodenlänge ist genau der Kreisumfang formula_84 des Einheitskreises, den die Sinus- und Kosinusfunktionen wegen der Eulerschen Formel beschreiben. Die Exponential-, die Sinus- und die Kosinusfunktion sind nämlich nur Teile derselben (auf komplexe Zahlen verallgemeinerten) Exponentialfunktion, was im Reellen nicht offensichtlich ist.
Exponentialfunktion auf beliebigen Banachalgebren.
Die Exponentialfunktion lässt sich auf Banachalgebren, zum Beispiel Matrix-Algebren mit einer Operatornorm, verallgemeinern. Sie ist dort ebenfalls über die Reihe
definiert, die für alle beschränkten Argumente aus der jeweils betrachteten Banachalgebra absolut konvergiert.
Die wesentliche Eigenschaft der reellen (und komplexen) Exponentialfunktion
ist in dieser Allgemeinheit allerdings nur noch gültig für Werte formula_3 und formula_39, die kommutieren, also für Werte mit formula_89 (dies ist in den reellen oder komplexen Zahlen natürlich immer erfüllt, da die Multiplikation dort kommutativ ist).
Einige Rechenregeln dieser Art für die Exponentiale von linearen Operatoren auf einem Banachraum liefern die Baker-Campbell-Hausdorff-Formeln.
Eine wichtige Anwendung dieser verallgemeinerten Exponentialfunktion findet sich beim Lösen von linearen Differentialgleichungssystemen der Form formula_90 mit konstanten Koeffizienten. In diesem Fall ist die Banachalgebra die Menge der formula_91-Matrizen mit komplexen Einträgen. Mittels der jordanschen Normalform lässt sich eine Basis bzw. Ähnlichkeitstransformation finden, in welcher die Exponentialmatrix eine endliche Berechnungsvorschrift hat. Genauer gesagt, man findet eine reguläre Matrix formula_92, so dass formula_93, wobei formula_94 eine Diagonalmatrix und formula_95 eine nilpotente Matrix sind, welche miteinander kommutieren. Es gilt damit
Das Exponential einer Diagonalmatrix ist die Diagonalmatrix der Exponentiale, das Exponential der nilpotenten Matrix ist ein matrixwertiges Polynom mit einem Grad, der kleiner als die Dimension formula_13 der Matrix formula_98 ist.
Numerische Berechnungsmöglichkeiten.
Als fundamentale Funktion der Analysis wurde viel über Möglichkeiten zur effizienten Berechnung der Exponentialfunktion bis zu einer gewünschten Genauigkeit nachgedacht. Dabei wird stets die Berechnung auf die Auswertung der Exponentialfunktion in einer kleinen Umgebung der Null reduziert und mit dem Anfang der Potenzreihe gearbeitet. In der Analyse ist die durch die Reduktion notwendige Arbeitsgenauigkeit gegen die Anzahl der notwendigen Multiplikationen von Hochpräzisionsdaten abzuwägen.
Der Rest der formula_95-ten Partialsumme hat eine einfache Abschätzung gegen die geometrische Reihe, welche auf
Die einfachste Reduktion benutzt die Identität formula_104 , d. h. zu gegebenem formula_3 wird formula_106 bestimmt, wobei formula_107 nach den Genauigkeitsbetrachtungen gewählt wird. Damit wird nun, in einer gewissen Arbeitsgenauigkeit, formula_108 berechnet und formula_107-fach quadriert: formula_110. formula_111 wird nun auf die gewünschte Genauigkeit reduziert und als formula_112 zurückgegeben.
Effizientere Verfahren setzen voraus, dass formula_113, besser zusätzlich formula_114 und formula_115 (Arnold Schönhage) in beliebiger (nach Spezifikation auftretender) Arbeitsgenauigkeit verfügbar sind. Dann können die Identitäten
benutzt werden, um formula_3 auf ein formula_39 aus dem Intervall formula_120 oder einem wesentlich kleineren Intervall zu transformieren und damit das aufwändigere Quadrieren zu reduzieren oder ganz zu vermeiden.
Bei Implementierung in Hardware werden für deren Belange geeignete Verfahren genutzt, zum Beispiel:
Hintergründe und Beweise.
Motivation.
Auf die Exponentialfunktion stößt man, wenn man versucht, das Potenzieren auf beliebige reelle Exponenten zu verallgemeinern. Man geht dabei von der Rechenregel formula_121 aus und sucht daher eine Lösung der Funktionalgleichung formula_122 mit formula_123. Nimmt man nun zunächst einmal an, dass eine Lösung tatsächlich existiert, und berechnet deren Ableitung, so stößt man auf den Ausdruck
definierte Zahl formula_8 (bzw. formula_126, formula_127 muss dann also der Logarithmus zur Basis formula_8 sein) nach der Kettenregel formal
formula_8 erfüllt dann vermutlich
Wie kann man diese Zahl formula_8 berechnen?
Setzt man rein formal formula_133 und löst die Gleichung
ist also zu vermuten, dass
gilt.
Für formula_138 erhält man mit formula_139 auch rein formal die Darstellung
also die eine Definition der Exponentialfunktion.
Taylorreihe.
Alternativ kann man auch versuchen, die Funktion
die Exponentialfunktion erfüllt also tatsächlich die Funktionalgleichung formula_142.
Ungleichungen.
Abschätzung nach unten.
Für reelle formula_3 lässt sich die Exponentialfunktion mit
nach unten abschätzen. Der Beweis ergibt sich aus der Definition
und der Tatsache, dass formula_146 für hinreichend große formula_13. Da die Folge monoton wachsend ist, ist der Grenzwert daher echt größer Null.
Diese Abschätzung lässt sich zur wichtigen Ungleichung
verschärfen. Für formula_149 folgt sie aus formula_150, für formula_151 ergibt sich der Beweis beispielsweise, indem man die bernoullische Ungleichung auf die Definition
anwendet. Eine Anwendung dieser Ungleichung ist der Polya-Beweis der Ungleichung vom arithmetischen und geometrischen Mittel. Allerdings erleichtert die Ungleichung vom arithmetischen und geometrischen Mittel die Untersuchung der Folge formula_153 sehr; um daher einen Zirkelschluss zu vermeiden, benötigt der Polya-Beweis Herleitungen der Exponentialfunktion, die ohne Ungleichung vom arithmetischen und geometrischen Mittel auskommen.
Abschätzung nach oben.
Setzt man in der Abschätzung formula_154 nach unten formula_155 statt formula_3 ein und verwendet formula_157, so erhält man durch Umstellen der Ungleichung die für alle formula_158 gültige Abschätzung nach oben formula_159.
Ableitung der Exponentialfunktion.
Die wichtigste Anwendung dieser beiden Abschätzungen ist die Berechnung der Ableitung der Exponentialfunktion an der Stelle 0:
Gemeinsam mit der Funktionalgleichung formula_142 folgt daraus die Ableitung der Exponentialfunktion für beliebige reelle Zahlen:
Wachstum der e-Funktion im Vergleich zu Polynomfunktionen.
Oft wird die Aussage benötigt, dass die Exponentialfunktion wesentlich stärker wächst als jede Potenzfunktion, d. h.
Für formula_164 ist dies klar, für formula_165 kann entweder induktiv die Regel von de L’Hospital benutzt werden, oder auch elegant abgeschätzt werden:
Zunächst gilt
Wegen formula_167 gilt
Dies konvergiert gegen formula_169 und somit der obige Grenzwert gegen 0.
Basiswechsel.
Wie bereits zuvor erwähnt, gilt
Beweis: Nach Definition des Logarithmus ist formula_171 äquivalent zu formula_172, woraus die Identität formula_173 folgt. Ersetzen von formula_174 durch formula_175 liefert
wobei im zweiten Schritt die Logarithmus-Rechenregel für Potenzen angewendet wurde.
Die Differentialgleichung der Exponentialfunktion.
Will man die einfache Differentialgleichung:
formula_177 lösen und setzt noch formula_178 voraus, so erhält man daraus eine
Definition von formula_138.
Umkehrfunktion.
Setzt man formula_180 nicht voraus, so benutzt man die Umkehrfunktion formula_181 von
Denn formula_183, und nach den Eigenschaften der Logarithmusfunktion ist
und man kann die Umkehrfunktion bilden und erhält
Da die untere Grenze gleich 1 ist, ist formula_186 und bei der Umkehrfunktion formula_180 nach Eigenschaft der Umkehrfunktion: formula_188.
Differentialgleichung.
Erweitert man die Differentialgleichung auf formula_189 für formula_190 und
löst sie, so erhält man für formula_39 die Form
Speziell für formula_193 ist
Ist dann formula_195 eine Lösung und formula_196, dann ist
und nach Voraussetzung
Für beliebiges formula_199 führen wir
ein. Es ergibt sich
und nach Voraussetzung wieder
Man besitzt nun ein Instrument zur Beschreibung von Vorgängen in verschiedenen Bereichen der Wissenschaft, in denen man mittels eines Ansatzes vom Typ
formula_203 ein Ergebnis der Form formula_204 erhält, welches auf der Exponentialfunktion basiert.
Beispiele für Exponentialfunktionen.
Physik.
Als Beispiele für das häufige Auftreten der Exponentialfunktion in der Physik seien genannt:
Chemie.
Als ein Beispiel in der Chemie sei hier eine einfache chemische Reaktion skizziert. Es wird angenommen, dass wir die Lösung eines Stoffes vorliegen haben, etwa Rohrzucker in Wasser. Der Rohrzucker werde nun durch einen Katalysator zu Invertzucker umgewandelt (hydrolysiert). Bei dieser einfachen chemischen Reaktion wird man das Geschwindigkeitsgesetz (unter Vernachlässigung der Rückreaktion) wie folgt formulieren:
Bezeichnen wir die Menge des zur Zeit formula_3 noch nicht umgewandelten Rohrzuckers mit
formula_206, so ist die Reaktionsgeschwindigkeit formula_207, und nach dem oben formulierten Geschwindigkeitsgesetz gilt die Gleichung
mit einer reaktionsspezifischen Geschwindigkeitskonstante formula_209. Aus diesem Momentangesetz erhält man nach obiger Differentialgleichung ein Integralgesetz, welches uns die Menge formula_195 des übriggebliebenen Rohrzuckers als Funktion der Zeit liefert:
wobei die Konstante formula_212 die zur Zeit formula_213 vorhandene Menge bezeichnet.
Die chemische Reaktion nähert sich also
asymptotisch ihrem Endzustand formula_214 an, der völligen Umwandlung von Rohrzucker in Invertzucker. (Die Vernachlässigung der Rückreaktion ist hier akzeptabel, da das chemische Gleichgewicht der Rohrzucker-Hydrolyse sehr stark auf Seiten des Invertzuckers liegt).
Biologie, Epidemien.
Beschreibung des exponentiellen Wachstums in der Anfangszeit einer Population von z. B. Mikroorganismen, Ausbreitung von Infektionen im Rahmen einer Epidemie und Fortpflanzung von Lebewesen, siehe r-Strategie oder SIR-Modell.
Stochastik.
Wie groß sind die Wahrscheinlichkeiten, zufällig keine, eine oder mehr Münzen zu erhalten, wenn formula_13 Münzen zufällig auf formula_13 Empfänger verteilt werden und formula_13 sehr groß ist?
Die Definitionsformel für die Exponentialfunktion
die daraus abgeleitete Näherungsformel
und die eulersche Zahl formula_220
erlauben eine einfache Abschätzung.
Die Wahrscheinlichkeit, bei der ersten Verteilung eine Münze zu erhalten, beträgt formula_221 und formula_222, keine Münze zu erhalten. Die Wahrscheinlichkeit, zweimal keine Münze zu erhalten, beträgt: formula_223. Folglich ist die Wahrscheinlichkeit, formula_13-mal erfolglos zu sein:
Die Wahrscheinlichkeit, nur einmal Erfolg zu haben, ist das Produkt aus Misserfolgen, Erfolg und der Kombinationsmöglichkeiten formula_13, wann sich der Erfolg einstellt (beim ersten Mal, oder zweiten oder dritten …):
Die Wahrscheinlichkeit, mehr als eine Münze zu erhalten, lautet entsprechend:
Wie viele Münzen formula_229 müssen es sein, um die Wahrscheinlichkeit formula_230, keine zu erhalten, zu verringern, beispielsweise auf 0,1 statt 0,37? Aus obiger Näherungsformel folgt:
Oder anders gefragt: Wie viele Münzen formula_229 müssen es mehr sein als Empfänger formula_13?
Damit im Mittel nur 10 % der Empfänger leer ausgehen, ist die 2,3-fache Menge an Münzen erforderlich, bei 1 % fast die 5-fache Anzahl.
Verallgemeinerungen.
Wenn formula_235 eine Größe ist, deren Potenzen formula_236 für beliebiges nicht-negatives ganzzahliges formula_13 existieren, und wenn der Grenzwert existiert, ist es sinnvoll, die abstrakte Größe formula_238 durch die oben angegebene Exponentialreihe zu definieren. Ähnliches gilt für Operatoren formula_239, die, einschließlich ihrer Potenzen, eine lineare Abbildung eines
Definitionsbereichs formula_240 eines abstrakten Raumes formula_241 (mit Elementen formula_242) in einen Wertebereich formula_243 der reellen Zahlen ergeben: Hier ist es sogar für alle reellen formula_244 sinnvoll, in ganz formula_240 (genauer: im zugehörigen Abschlussbereich) Exponentialoperatoren formula_246 durch den Ausdruck
formula_247 zu definieren, wobei die Konvergenz dieses Ausdrucks zunächst offenbleibt.
Iteration der Exponentiation führt auf die Verallgemeinerte Exponentialfunktion, die in der Gleitkomma-Arithmetik verwendet wird. |
1296 | 3855555 | https://de.wikipedia.org/wiki?curid=1296 | Erasable Programmable Read-Only Memory | Ein EPROM (engl. Abk. für , wörtlich "löschbarer programmierbarer Nur-Lese-Speicher") ist ein nichtflüchtiger elektronischer Speicherbaustein, der bis etwa Mitte der 1990er-Jahre vor allem in der Computertechnik eingesetzt wurde, inzwischen aber weitgehend durch EEPROMs und Flash-Speicher abgelöst ist.
Dieser Bausteintyp ist mit Hilfe spezieller Programmiergeräte (genannt „EPROM-Brenner“) programmierbar. Er lässt sich mittels UV-Licht löschen und danach neu programmieren. Nach etwa 100 bis 200 Löschvorgängen hat das EPROM das Ende seiner Lebensdauer erreicht. Das zur Löschung nötige Quarzglas-Fenster (normales Glas ist nicht UV-durchlässig) macht das Gehäuse relativ teuer. Daher gibt es auch Bauformen ohne Fenster, die nominal nur einmal beschreibbar sind (, OTP), sich durch Röntgenstrahlung aber ebenfalls löschen lassen.
Das EPROM wurde 1970 bei Intel von Dov Frohman entwickelt, patentiert und als Intel 1702 auf den Markt gebracht.
Aufbau und Funktionsweise.
Ein EPROM enthält eine Matrix aus Speicherzellen, in denen jeweils ein Transistor ein Bit repräsentiert. Eine Speicherzelle besteht aus einem MOSFET-Transistor mit einer zusätzlichen Gateelektrode zwischen Gate und Kanal, die jedoch keinen Anschluss besitzt. Es kann daher frei ein Potential annehmen und wird deshalb "Floating Gate" genannt. Es ist in einer sehr dünnen Siliciumdioxid-Schicht eingebettet. Bei normalen Betriebsverhältnissen können keine Elektronen hingelangen oder es verlassen. Zum Programmieren wird eine erhöhte Spannung an das Gate angelegt, sodass das "Floating Gate" geladen wird, indem energiereichere Elektronen durch die dünne Isolierschicht tunneln. Dadurch verschiebt sich die Ansteuerspannung, bei der der Transistor einschaltet (Schwellspannung oder "threshold"). Die Daten lassen sich nun beliebig oft auslesen, wobei die Lesespannung unterhalb der Programmierspannung liegt.
Zum Löschen wird üblicherweise kurzwellige Ultraviolettstrahlung verwendet, typischerweise 254 nm (4,9 eV) von Quecksilberdampflampen, oder Strahlung mit noch kleinerer Wellenlänge. Dadurch werden durch den äußeren photoelektrischen Effekt Fotoelektronen angeregt, die ausreichende Energie haben, die Isolierbarriere zu überwinden – die "Floating Gates" werden entladen. Das Bitmuster ist dadurch gelöscht und das EPROM in seinen ursprünglichen Zustand zurückversetzt. Dies betrifft immer den gesamten Chip, das Löschen nur eines Teilbereiches ist nicht möglich. Durch die harte UV-Strahlung entstehen außerdem immer auch Defekte im Halbleiter, so dass das Löschen nicht beliebig oft erfolgen kann. EPROMs sind zum Löschen mit einem UV-B-transparenten Fenster versehen. Es besteht meist aus Kieselglas, selten auch aus hochreiner transluzenter Aluminiumoxid-Keramik (DDR-Typen, z. B. U2732). Auch die fensterlosen nur einmal beschreibbaren Typen (OTP für "One Time Programmable") lassen sich mit Röntgenstrahlung löschen, da diese auch ohne Fenster durch das Gehäuse dringt und der Baustein selbst bis auf das Gehäuse der gleiche ist.
Ein konventioneller Löschvorgang dauert ca. 10 bis 30 Minuten. Da die Ionisation nach dem Ausschalten der Lichtquelle nicht sofort wieder abgeklungen ist und die Bausteine je nach Bauart des Löschgerätes auch über die für das Programmieren zulässige Temperatur hinaus erhitzt werden, kann das Programmieren erst nach einer weiteren Wartezeit erfolgen. Die Zeiten können durch den Einsatz von Löschgeräten mit Blitzlampen deutlich verkürzt werden. Statt einer kontinuierlichen Bestrahlung werden dabei Lichtblitze verwendet. Falls die Vorgaben des Bausteinherstellers für das Löschen nicht korrekt eingehalten werden, kann eine scheinbar richtige Programmierung mit verkürzter Datenlebensdauer die Folge sein.
Das Quarzglas-Fenster sollte nach dem Programmieren mit einem lichtundurchlässigen Aufkleber geschützt werden. Dies verhindert nicht nur ein ungewolltes Löschen – ein ungeschütztes EPROM kann nach ca. 90 Tagen direkter Sonneneinstrahlung gelöscht sein – sondern gewährleistet erst den regulären Betrieb des EPROM. Die Beleuchtung von Halbleiterchips mit einem gewöhnlichen Fotoblitzgerät kann kurzzeitige Datenverfälschung und damit Computerausfälle verursachen.
Übliche EPROMs haben 8 Bit breite Datenpfade, und die Gesamtspeicherkapazität ist in der Bezeichnung enthalten. So enthält ein 2764 64 KiB, die als organisiert sind.
Eine Weiterentwicklung des EPROM ist das elektrisch löschbare EEPROM () und das Flash-EEPROM. Flash-EEPROMs haben mittlerweile die EPROMs weitgehend vom Markt verdrängt.
Bei später produzierten Chargen von 27xx-EPROMs ging die Nachfrage zurück und es bestand nur noch der Bedarf an günstigen Chips in geschlossenen Gehäusen, denen es genügte, nur einmal programmiert zu werden.
Pinbelegung.
Wie andere integrierte Schaltungen sind gängige EPROMs durch die JEDEC in ihrer Pinbelegung standardisiert.
In-Circuit-Simulation.
Da EPROMs nicht unbegrenzt wiederbeschreibbar sind und Korrekturen (die immer zunächst eine Löschung erfordern) vergleichsweise viel Zeit in Anspruch nehmen, werden in der Entwicklungsphase von elektronischen Geräten Simulatoren verwendet. Diese gibt es in verschiedenen Varianten. Zum Beispiel gibt es Simulatoren mit USB-Anschluss, die EPROMs bis zu 4 MiBit Größe simulieren. Bei diesen Geräten wird der Programmcode über USB in den Simulator geladen und das simulierte EPROM in den Schaltungsaufbau eingefügt, beispielsweise über einen Steckadapter. Es kann sofort mit der Simulation begonnen werden. Die zu testende Schaltung verhält sich dabei genau so, als wenn ein echter EPROM-Baustein eingebaut wäre. Eine bei vorhandenem EPROM-Programmiergerät sehr kostengünstige Lösung bieten auch schon einfache Simulatoren aus batteriegepufferten RAM-Bausteinen mit Schreibschutzschalter, die am EPROM-Programmiergerät programmiert und danach mit aktiviertem Schreibschutz auf die Testschaltung gesteckt werden. |
1298 | 121104 | https://de.wikipedia.org/wiki?curid=1298 | Enigma (Maschine) | Enigma () ist eine Sammelbezeichnung für eine Reihe von Rotor-Chiffriermaschinen, die seit den 1920ern zur Verschlüsselung von Nachrichten verwendet wurden. Im Zweiten Weltkrieg wurden Enigmas von den Achsenmächten verwendet, am häufigsten durch die Wehrmacht. Den Alliierten gelang es die gegnerischen Funksprüche nahezu kontinuierlich zu entziffern, was bis 1974 geheim gehalten wurde.
Dieser Artikel gibt eine Übersicht anhand der 1930 bei der Reichswehr in Dienst gestellten Enigma I (sprich: „Enigma eins“, die weitverbreitetste Drei-Rotorversion mit Steckerbrett).
Geschichte.
Noch während der Zeit des Ersten Weltkriegs (1914–1918) suchten die deutschen Militärs nach einem Ersatz für die inzwischen veralteten, umständlichen und unsicheren manuellen Verschlüsselungsverfahren, wie ÜBCHI, ABC-Chiffre und ADFGX, die bis dahin verwendet wurden. Hierfür kamen maschinelle Verfahren in Betracht, weil sie eine einfachere Handhabung und eine verbesserte kryptographische Sicherheit versprachen. Mit der Einführung der elektrischen Schreibmaschine und des Fernschreibers zu Beginn des 20. Jahrhunderts kamen zum Teil unabhängig voneinander und nahezu gleichzeitig mehrere Erfinder auf die Idee des Rotor-Prinzips zur Verschlüsselung von Texten.
Erfinder der Enigma war Arthur Scherbius, dessen Patent hierzu vom 23. Februar 1918 stammt (siehe auch: Enigma-Patente). Er bot seine neue Erfindung der Kaiserlichen Marine an, die eine erste Probemaschine testete und deren „gute Schlüsselsicherheit“ lobte. Das Reichsmarineamt kam aber zu dem Schluss, dass „vorläufig bei der Art des Marine-Schlüsselverkehrs die Anwendung von Maschinen nicht lohnen würde“.
Nach dem Krieg beschloss Scherbius, die Maschine für zivile Anwendungen zu vermarkten. Zur Fertigung wurde die Chiffriermaschinen-Aktiengesellschaft (ChiMaAG) in Berlin gegründet.
Das erste Modell der Enigma (1923) war die Handelsmaschine. Ihr folgte schnell die Schreibende Enigma (1924). Die neuen Chiffriermaschinen wurden kommerziell auf Messen zum Kauf angeboten.
Dies weckte das Interesse auch des deutschen Militärs, das inzwischen von alliierten Entzifferungserfolgen erfahren hatte.
Die deutschen Militärs wollten eine Wiederholung dieser kryptographischen Katastrophe des Ersten Weltkriegs unbedingt vermeiden und betrachteten die neue Art der maschinellen Verschlüsselung als sicherste Lösung.
Im Jahr 1926 wurde die Enigma zunächst von der Reichsmarine unter dem Namen „Funkschlüssel C“, zwei Jahre später auch vom Heer versuchsweise eingesetzt und verschwand daraufhin vom zivilen Markt. Kurz nach Beginn der Serienfertigung verunglückte Scherbius im Jahr 1929 tödlich. Trotzdem wurde die Enigma 1930 bei der Reichswehr eingeführt.
Im Jahr 1934 übernahmen Rudolf Heimsoeth und Elsbeth Rinke die Herstellerfirma ChiMaAG. Mit der neuen Firma „Heimsoeth & Rinke“ (H&R) setzten sie Entwicklung und Produktion der Maschine in Berlin fort.
Man schätzt, dass etwa 40.000 Maschinen hergestellt wurden.
Im Laufe der Zeit kamen viele verschiedene Modelle und Varianten der Enigma zum Einsatz.
Nach Ende des Zweiten Weltkriegs wurden die Maschinen in der Schweiz, Norwegen (Norenigma), in manchen britischen Kolonien und teilweise sogar in Korea weiterverwendet.
Die meistverwendete Maschine war die Enigma I die während des Zweiten Weltkriegs das auf deutscher Seite am häufigsten benutzte Maschinenschlüsselverfahren verkörperte.
Prinzip.
Die Enigma I ist eine mechanische Rotor-Chiffriermaschine, die für jeden eingegebenen Buchstaben einen anderen Buchstaben aufleuchten lässt. Da sich der Stromkreis bei jedem Tastendruck ändert, ändert sich das geheime Schlüsselalphabet bei jedem Buchstaben.
Gibt man „OTTO“ ein, so leuchten nacheinander beispielsweise die Lampen „PQWS“ auf. Wichtig und kryptographisch stark ist, dass aufgrund der Rotation der Walzen jeder Buchstabe auf eine andere Weise verschlüsselt wird, im Beispiel das vordere O von OTTO zu P, das hintere aber zu S. Man spricht von vielen unterschiedlichen (Geheim-) „Alphabeten“, die zur Verschlüsselung benutzt werden, und bezeichnet dies als polyalphabetische Substitution. Im Gegensatz dazu verwendet eine monoalphabetische Substitution nur ein einziges Geheimalphabet, und ein Klartextbuchstabe wird stets in denselben Geheimtextbuchstaben verwandelt („OTTO“ beispielsweise in „GLLG“).
Aufbau.
Eine Enigma I inklusive Holzgehäuse kann je nach Ausführung und Zubehör rund 12 kg wiegen und die äußeren Abmessungen (L×B×H) betragen etwa 340 mm × 280 mm × 150 mm
(Daten ohne Gehäuse: 10,35 kg und 310 mm × 255 mm × 130 mm, je nach Hersteller).
Die Maschine ist ganz ähnlich einer Schreibmaschine gebaut und wird auch genau wie diese bedient.
Die Buchstabenlampen sowie die Tastatur sind ab der Enigma-D in QWERTZU-ähnlicher Belegung angeordnet.
Die Buchstaben P und L sind abweichend zu QWERTZU an die Ränder der untersten Reihe verschoben:
Q W E R T Z U I O
A S D F G H J K
P Y X C V B N M L
Es gibt auch Ausführungen mit Ziffern (z. B. Enigma-D) und Sonderzeichenunterstützung (z. B. Enigma-G). Anfänglich wurden sogar Umlaute verwendet (Enigma-B).
Die Chiffriermaschine Enigma I verwendet eine Abfolge von drei auswechselbaren, drehenden Walzen mit 26 Stellungen. Bei der Wehrmacht waren die Stellungen mit den Ziffern 01 bis 26, bei der Kriegsmarine mit den Buchstaben A bis Z bezeichnet (Alphabetring). Diese Zeichen befinden sich in aufsteigender Reihenfolge auf einem auf der Walze drehbarem Ring. Jeder Ring kann unabhängig von der Walze in 26 Positionen eingestellt werden (Ringstellung). Rechts der drehbaren Walzen befindet sich eine unbewegliche Eintrittswalze. Links der beweglichen Walzen befindet sich eine Umkehrwalze (UKW) als Reflektor (Kryptologie), die bei den meisten Enigmas nicht drehbar, aber wechselbar ist. Alle Walzen sind über 26 einzelne Schleifkontakte miteinander elektrisch verbunden. Jeder Kontakt leitet den Strom innerhalb einer Walze auf einem anderen Weg. Die Umkehrwalze bewirkt, dass der Strom, der den Walzensatz zunächst von rechts nach links durchlaufen hat, jetzt erneut durch den Walzensatz läuft, nun von links nach rechts. Der Strom verlässt den Walzensatz dann wieder über die Eintrittswalze. Jeder Tastendruck dreht mechanisch mindestens eine Walze um eine Stellung weiter und verändert damit die Schaltung des Walzensatzes, bevor der Stromkreis geschlossen wird.
An der Gerätefront ist ein Steckerbrett mit doppelpoligen Steckbuchsen für jeden der 26 Buchstaben angebracht. Die Anordnung folgt der QWERTZU-ähnlicher Belegung der Tastatur. Der Strom von der Buchstabentaste wird, bevor er die Eintrittswalze erreicht, einmal über dieses Steckerbrett geführt, wodurch es zu einer Verwürfelung der Eingabe kommen kann. Nach Durchlaufen des Walzensatzes fließt der Strom ein zweites Mal über das Steckerbrett und bringt schließlich eine der 26 Buchstabenlampen zum Aufleuchten.
Funktion.
Beim Drücken einer Buchstabentaste wird erst die rechteste Walze um einen Schritt weitergedreht und dann ein Stromkreis geschlossen, solange die Taste gedrückt bleibt. Bei der Buchstabentaste A wird beispielsweise der Batteriestrom über die Taste A zur gleichnamigen Buchse im Steckerbrett durchgeschaltet. Ist dort die Buchse A mit einer anderen Buchse durch ein von außen angebrachtes Kabel verbunden („gesteckert“), so wird A mit einem anderen Buchstaben, beispielsweise J, vertauscht. Ist kein Kabel gesteckt („ungesteckert“), dann gelangt der Strom direkt zum Kontakt A der Eintrittswalze.
Angenommen der Buchstabe A sei ungesteckert, dann wird der Strom über die Eintrittswalze zum Eingangskontakt A der rechten Walze geleitet. Deren Verdrahtung bewirkt eine Substitution (Ersetzung) des Buchstabens durch einen anderen. Der Strom, der am Eingangskontakt A von rechts eintritt, verlässt hier die Walze auf deren linken Seite am Ausgangskontakt B. So wird durch die rechte Walze A durch B ersetzt.
Der Strom gelangt nun über den Kontakt B in die mittlere Walze. Da es bei der Verdrahtung einer Walze durchaus möglich ist, dass ein Eingangskontakt mit dem gleichnamigen Ausgangskontakt verbunden ist, bleibt B hier unverändert. Der Strom verlässt über Kontakt B die mittlere Walze und tritt in die linke Walze ein. Deren Verdrahtung sorgt dafür, dass der Strom vom Eingangskontakt B zum Ausgangskontakt D geleitet wird. Der Strom hat nun alle drei (drehbaren) Walzen einmal durchlaufen und die Umkehrwalze erreicht. Sie hat nur Kontakte auf der rechten Seite und verbindet Buchstaben erneut paarweise, beispielsweise D mit E.
Nun fließt der Strom ein zweites Mal durch den Walzensatz, jetzt aber von links nach rechts. Durch die Umkehrwalze gelangt er über den Kontakt E in die linke Walze. Hier ist beispielsweise E mit C verdrahtet. Folglich fließt der Strom weiter über Kontakt C in die mittlere Walze, verlässt sie wieder über den Kontakt F und fließt in die rechte Walze. Der Strom verlässt die rechte Walze schließlich am Kontakt G.
Nach Austritt aus dem Walzensatz wird der Strom über die Eintrittswalze zurück zum Steckerbrett geleitet. Ist hier der Buchstabe G mit einem anderen Buchstaben gesteckert, dann findet eine letzte Permutation statt. Ist G ungesteckert, leuchtet die Lampe G auf. Sie leuchtet nur solange auf, wie die Taste A gedrückt gehalten wird, da nur bei gedrückter Taste der Umschaltkontakt auf die Batterie umgeschaltet ist. Lässt man sie los, erlischt die Lampe. Im geschilderten Beispiel wird somit der Buchstabe A, dessen Taste eingangs gedrückt wurde und noch immer gedrückt ist, als Buchstabe G verschlüsselt.
Falls der zu verschlüsselnde Text „AACHENISTDOCHGERETTET“ lautet, ist erneut ein A einzugeben. Also wird die Taste A losgelassen und zum zweiten Mal gedrückt. Der mechanischen Druck auf die Taste bewegt die rechte Walze erneut um eine Position weiter. Die mittlere Walze rotiert erst nach 26 Schritten der rechten Walze, die linke Walze erst nach 26 Schritten der mittleren Walze.
Der Pfad für den erneut am Kontakt A der rechten Walze eintretenden Strom hat sich radikal geändert. Er nimmt jetzt auch bei der mittleren und linken Walze sowie der Umkehrwalze einen völlig anderen Weg als zuvor, obwohl sich diese Walzen meist nicht gedreht haben. Das Ergebnis ist eine andere Verschlüsselung des Buchstabens A, der nun in C umgewandelt wird.
Bedienung.
Bei der Enigma I standen zunächst drei, ab 1939 fünf unterschiedliche Walzen zur Verfügung, die mit römischen Zahlen (I, II, III, IV und V) durchnummeriert waren. Der Benutzer wählte nach Vorgabe einer geheimen Schlüsseltabelle, die für jeden Tag wechselnde Einstellungen vorsah, drei der fünf Walzen aus und setzte diese nach der im Tagesschlüssel unter der Überschrift „Walzenlage“ vorgeschriebenen Anordnung ein.
Die „Schlüsseltafel“ stellte tabellarisch für einen kompletten Monat die jeweils gültigen Tagesschlüssel dar, die um Mitternacht gewechselt wurden (Ausnahmen: Bei der Luftwaffe geschah der Wechsel um 3 Uhr nachts. Für die Kriegsmarine siehe Enigma‑M4). Unten sind beispielhaft nur drei Monatstage dargestellt, wobei, wie damals üblich, die Tage absteigend sortiert sind. Dies erlaubt es dem Verschlüssler, die verbrauchten Codes der vergangenen Tage abzuschneiden und zu vernichten.
Beispiel für den 29. des Monats: bedeutet, dass links außen die statische Umkehrwalze UKW B benutzt wird (war fast immer so).
Die bewegliche Walze I wurde links (als langsamer Rotor), Walze IV in der Mitte und Walze III rechts (als schneller Rotor) eingesetzt.
Die Ringe, die außen am Walzenkörper angebracht sind und den Versatz zwischen der internen Verdrahtung der Walzen und der Anzeige bestimmen, sind jeweils auf die die für den Tag vorgegebenen Positionen zu drehen. Gefederte Haltestifte fixieren dann diese Positionen. Die Abfolge dieser Einstellung wird "Ringstellung" genannt. Bei Walzen mit Buchstaben wären das von links nach rechts P, Z und H, bei Walzen mit Ziffern 16-26-08 für den 16., 26. und 8. Buchstaben des Alphabets.
Tag Walzenlage Ringstellung ---- Steckerverbindungen ----
31 III I IV 01 17 22 AH BL CX DI ER FK GU NP OQ TY
30 II V I 18 24 11 BN DZ EP FX GT HW IY OU QV RS
29 I IV III 16 26 08 AD CN ET FL GI JV KZ PU QY WX
Auswahl und Anordnung der Walzen (Walzenlage) und Ringstellung blieben bei geschlossenem Gerät verborgen. Die Ringstellung wurde oft (wie hier) numerisch und nicht alphabetisch verzeichnet, vermutlich um Verwechslungen mit den anderen Teilschlüsseln vorzubeugen. Als Hilfe für den Bediener „zum Umsetzen der Zahlen in Buchstaben oder umgekehrt“ ist innen im Gehäusedeckel der Enigma als Teil der Hinweisplakette „Zur Beachtung!“ eine Umsetzungstabelle angebracht.
A B C D E F G H I J K L M N O P Q R S T U V W X Y Z
01 02 03 04 05 06 07 08 09 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26
Schließlich sind die doppelpoligen Steckbuchsen an der Frontplatte mit entsprechenden doppelpoligen Kabeln zu beschalten. In der Regel wurden genau zehn Kabel eingesteckt. Die jeweils obere Buchse eines Buchsenpaars hat einen etwas größeren Durchmesser (4 mm) als die untere (3 mm), so dass die Stecker nur in einer Orientierung eingesteckt werden können. So wurde sicher die gewünschte elektrische Überkreuzung und damit die Vertauschung der beiden Buchstaben erreicht. Nach dem Beschalten wurden die Buchsen wieder mit einer Klappe abgedeckt. Sechs Buchstaben blieben ungesteckert. (Diese feste Regel der "Six self-steckered letters" war für die Codeknacker eine Hilfe.)
Um die Gefahr des Erratens von Schlüsseln zu reduzieren, wurden von den deutschen Stellen einige Regeln für die Aufstellung der Schlüsseltabellen erfunden. So war es (zeitweise) verboten, dass eine Walzenlage, die an einem Monatstag bereits benutzt wurde, sich an einem anderen Monatstag wiederholte. (Die Briten erkannten dies und nannten es die "non-repeating rule".) Auch durfte sich eine Walze an zwei aufeinanderfolgenden Monatstagen nicht an derselben Stelle im Walzensatz befinden ("non-clashing rule"). Eine dritte Regel sollte das Erraten von naheliegenden Steckerkombinationen verhindern. So war es verboten, dass zwei im Alphabet aufeinanderfolgende Buchstaben miteinander gesteckert wurden. (Auch dies nutzten die britischen "Codebreakers" zu ihren Gunsten und nannten es "Consecutive Stecker Knock-Out CSKO".)
All diese Vorschriften bewirkten das Gegenteil, nämlich eine Schwächung der Verschlüsselung. Sie führten zu einer Arbeitserleichterung für die Codeknacker, die aufgrund der genannten Regeln insbesondere mit Fortschreiten eines Monats immer mehr Schlüsselkombinationen ausschließen konnten.
Nach Einlegen der drei Walzen und Einstellen der Ringe sowie Stecken der zehn Steckerverbindungen entsprechend der Schlüsseltafel schloss der Bediener die oberhalb des Walzensatzes angebrachte Klappe und die Frontklappe. Letzteres bewirkte ein festes Andrücken der Stecker und eine sichere Kontaktgabe sowie einen Schutz vor Ausspähen des Schlüssels. Damit war die Enigma zur Verschlüsselung oder auch Entschlüsselung bereit, vorausgesetzt der Benutzer drehte nun noch die drei (rotierenden) Walzen in die korrekte Anfangsstellung.
Funkspruch.
Um sicherzustellen, dass nicht alle Funksprüche eines Schlüsselnetzes mit identischen Schlüsseln verschlüsselt werden, was die Texte angreifbar machen würde, war vorgeschrieben, für jeden Spruch eine individuelle Anfangsstellung der drei Walzen einzustellen, „Spruchschlüssel“ genannt. Die Prozeduren hierzu änderten sich von Zeit zu Zeit und waren auch nicht bei allen Wehrmachtteilen gleichartig.
Folgender Klartext soll beispielsweise übermittelt werden:
Da die Enigma nur Großbuchstaben und keine Ziffern oder Satzzeichen verschlüsseln kann und auch kein Leerzeichen kennt, muss der oben dargestellte Klartext vor der Verschlüsselung zunächst entsprechend aufbereitet werden. Dabei werden Satzzeichen durch „X“ ersetzt, Eigennamen verdoppelt und in „X“ eingeschlossen und Zahlen ziffernweise ausgeschrieben. Ferner war es üblich, (außer bei Eigennamen) das „ch“ und das „ck“ durch „Q“ zu ersetzen und den Text anschließend in Vierergruppen (Marine) oder Fünfergruppen (Wehrmacht) aufzuteilen.
Bletchley Park verwendete bei der Entschlüsselung die heute üblicheren Fünfergruppen (nicht zu verwechseln mit den Fünfergruppen der Werftschlüssel).
Man erhält somit den folgenden für die Verschlüsselung vorbereiteten Klartext (mit "Fuellwort" als auffüllendes Wahlwort):
XAACH ENXAA CHENX ISTDO
QGERE TTETX FUELL WORTX
Diese ergibt eine Buchstabenzahl von 40 (vier Fünfergruppen pro Zeile) für die Wehrmacht oder eine Gruppenzahl von 12 bestehend aus zehn Vierergruppen (zehn Zeilen untereinander geschrieben) Text mit vorgestellter Schlüsselkenngruppe und Verfahrenskenngruppe (Anfangskenngruppen).
Der Verschlüssler stellt seine Enigma auf dem Tagesschlüssel, beispielsweise für den 29. des Monats, ein (Walzenlage B I-IV-III, Ringstellung 16-26-08 und Steckerverbindungen AD CN ET FL GI JV KZ PU QY WX). Sowohl dieser als auch die im Folgenden beschriebenen Schritte können mithilfe von Enigma-Simulationen realitätsnah nachvollzogen werden.
Der Bediener denkt sich nun eine zufällige Grundstellung aus, beispielsweise „QWE“ (17-23-05), und stellt die drei Walzen so ein, dass genau diese drei Buchstaben in den Anzeigefenstern sichtbar werden.
Nun lässt er sich einen zufälligen Spruchschlüssel ebenfalls mit drei Buchstaben einfallen, beispielsweise „RTZ“. Diesen verschlüsselt er mit seiner Enigma und beobachtet, wie nacheinander die Lampen „EWG“ aufleuchten.
Den so verschlüsselten Spruchschlüssel teilt er dem Empfänger zusammen mit der zufällig gewählten Grundstellung als Indikator sowie der Uhrzeit und der Anzahl der Vierergruppen (Kriegsmarine) oder Buchstabenzahl (Wehrmacht) als „Spruchkopf“ offen mit.
Laut damals geltender Dienstvorschriften der Wehrmacht Nr. 14 enthält der Spruchkopf die Uhrzeit als vierstellige Zahl, die Buchstabenanzahl des Spruchs, die gewählte Grundstellung und den verschlüsselten Spruchschlüssel und optional die fünf Buchstaben der Kenngruppe (Beispiel: 0930 40 qwe ewg "xyown").
Im Allgemeinen wurden alle Buchstaben handschriftlich kleingeschrieben, da sie so schneller notiert werden konnten als bei Gebrauch von Großbuchstaben.
Als Nächstes wählt der Bediener noch drei für diesen Tag gültige Kenngruppenbuchstaben anhand einer Kenngruppentabelle aus, beispielsweise „NOW“. Die Kenngruppe hat keine kryptologische Bedeutung, sie dient dem Empfänger der Nachricht nur dazu, zu erkennen, dass die Nachricht wirklich für ihn bestimmt ist und auch befugt entschlüsselt werden kann. Zur Verschleierung der Kenngruppe werden die drei Buchstaben vom Absender beliebig permutiert und um zwei für jeden Spruch zufällig zu wechselnde „Füllbuchstaben“, beispielsweise „XY“, ergänzt. Aus „NOW“ wird so zunächst etwa „OWN“ und schließlich „XYOWN“. Diese fünf Buchstaben werden unverschlüsselt als erste Fünfergruppe dem Geheimtext vorangestellt.
Der Verschlüssler stellt nun die drei Walzen seiner Enigma auf den von ihm gewählten Spruchschlüssel „RTZ“ (18-20-26) ein und verschlüsselt den obigen Klartext, das heißt, er gibt jeden einzelnen Buchstaben des Klartextes über die Tastatur der Enigma ein und liest die jeweils aufleuchtende Lampe als Geheimtextbuchstaben ab und notiert ihn. Zusammen mit dem Spruchkopf und der getarnten Kenngruppe ergibt sich der folgende Funkspruch (ggf. mit Dopplung im Spruchkopf):
0930 40 QWE EWG
XYOWN
EJZLB SYEQP DWDUE EJJEJ
IQJNL BFRXT WWCWJ MMORF
Kopf und Geheimtext werden als Morsezeichen gefunkt und vom Empfänger aufgenommen. Dieser prüft als erstes, ob die Anzahl der Buchstaben (hier: 40) korrekt ist und der Spruch unverstümmelt empfangen wurde. Dann betrachtet er die Kenngruppe, also die erste Fünfergruppe, ignoriert die ersten beiden Buchstaben und sieht „OWN“. Er sortiert die drei Buchstaben in alphabetischer Reihenfolge, erhält so „NOW“, schaut in seine Kenngruppentabelle, entdeckt dort diese Kenngruppenbuchstaben und kann nun sicher sein, dass der Spruch für ihn bestimmt ist und er ihn entschlüsseln kann. Seine Enigma ist bereits bezüglich Walzenlage, Ringstellung und Steckerverbindungen entsprechend dem auch ihm bekannten Tagesschlüssel identisch mit der des Absenders eingestellt. Es fehlt ihm noch der Spruchschlüssel, also die richtige Anfangsstellung der Walzen zur Entschlüsselung des Spruchs. Diese Information erhält er aus dem Indikator „QWE EWG“ im Spruchkopf, den er wie folgt interpretiert: Stelle die Walzen auf die Grundstellung „QWE“ (17-23-05) ein und taste dann „EWG“. Nun kann er beobachten, wie nacheinander die Lampen „RTZ“ bei seiner Enigma aufleuchten. Dies ist der einzustellende Spruchschlüssel.
Er dreht nun die Walzen auf die Anfangsstellung „RTZ“ (18-20-26) und beginnt, den Geheimtext, angefangen mit „EJZLB“, in seine Enigma einzugeben. Nun leuchten nacheinander die Lampen auf, und der folgende Text erscheint
XAACHENXAACHENXISTDOQGERETTETXFUELLWORTX
Kryptographische Stärken.
Als die Enigma im Jahr 1918 durch Scherbius zum Patent angemeldet wurde, also noch während der Zeit des Ersten Weltkriegs, war sie eine kryptographisch äußerst starke Maschine und durfte zu Recht als „unknackbar“ bezeichnet werden. Innovativ war, im Gegensatz zu den damals noch gebräuchlichen manuellen Verschlüsselungsverfahren (beispielsweise ADFGVX), die Einführung einer maschinellen Verschlüsselung. Sie war durch die damals allein üblichen manuellen, hauptsächlich linguistisch gestützten, Entzifferungsmethoden unangreifbar und blieb es auch noch bis in die 1930er-Jahre, also mehr als zehn Jahre lang.
Die kryptographischen Stärken der Enigma sind im Wesentlichen durch den rotierenden Walzensatz gegeben. Durch die Drehung der Walzen wird erreicht, dass jeder Buchstabe des Textes mit einem neuen Alphabet verschlüsselt wird (polyalphabetische Verschlüsselung). Auf diese Weise wird das bei den monoalphabetischen Verfahren so verräterische Häufigkeitsgebirge bis zur Unkenntlichkeit abgeschliffen und klassische Angriffe zur Entzifferung des Geheimtextes, wie statistische Analysen, Doppler- oder Mustersuche, sind zum Scheitern verurteilt. Auch die Periodensuche mithilfe des Koinzidenzindexes, als übliche Angriffsmethode auf polyalphabetische Verschlüsselungen, wie beispielsweise der Vigenère-Chiffre, ist ebenso aussichtslos, denn im Vergleich zur Periodenlänge (von 16.900, siehe auch: Verbesserungspotenzial) der Enigma war eine vergleichsweise winzige Höchstlänge der Funksprüche von 250 Buchstaben vorgeschrieben.
Entscheidend für die Sicherheit der Verschlüsselung gegen unbefugte Entzifferung sind die Geheimhaltung der Walzenverdrahtung sowie die Anzahl der im Walzensatz verwendeten Walzen. Die Anzahl der Walzen ist ein wichtiger Faktor, der die wesentlich stärkere Verschlüsselung der bei den deutschen U‑Booten eingesetzten Vierwalzen-Enigma‑M4 im Vergleich zur Enigma I (mit nur drei Walzen) erklärt.
Die Walzenringe, ursprünglich bereits 1928 von Willi Korn erfunden, und nicht, wie vielfach falsch publiziert, von seinem Kollegen Paul Bernstein, bestimmen einen Versatz zwischen der inneren Verdrahtung der Walzen und der Anzeige im Walzenfenster. Dadurch konnte von der sichtbaren Walzenstellung nicht auf die interne Drehposition der Walzen geschlossen werden.
Mithilfe der „Doppelsteckerschnüre“, die von vorne in das Steckerbrett gesteckt werden können, lassen sich Buchstaben vor und nach Durchlaufen des Walzensatzes paarweise involutorisch vertauschen. Diese Maßnahme diente zur weiteren Stärkung der kryptographischen Sicherheit der Enigma. Tatsächlich wird hierdurch der Schlüsselraum beträchtlich erweitert. Als Verpolungsschutz hatten die Stecker einen um 1 mm unterschiedlichen Durchmesser von 3 bzw. 4 mm.
Schlüsselraum.
Die Größe des Schlüsselraums der Enigma lässt sich aus den vier einzelnen Teilschlüsseln sowie der Anzahl der jeweils möglichen unterschiedlichen Schlüsseleinstellungen berechnen. Der gesamte Schlüsselraum der Enigma I (für M4 siehe Enigma‑M4) ergibt sich aus den folgenden vier Faktoren:
Stecker -------------- Möglichkeiten für ----------------
n Steckver- genau n Steck- bis zu n Steck–
bindung verbindungen verbindungen
0 1 1 1
1 325 325 326
2 276 44850 45176
3 231 3453450 3498626
4 190 164038875 167537501
5 153 5019589575 5187127076
6 120 100391791500 105578918576
7 91 1305093289500 1410672208076
8 66 10767019638375 12177691846451
9 45 53835098191875 66012790038326
10 28 150738274937250 216751064975576
11 15 205552193096250 422303258071826
12 6 102776096548125 525079354619951
13 1 7905853580625 532985208200576
Der gesamte Schlüsselraum einer Enigma I mit drei aus einem Vorrat von fünf ausgewählten Walzen und einer Umkehrwalze sowie bei Verwendung von zehn Steckern lässt sich aus dem Produkt der in den obigen Abschnitten a) bis d) ermittelten 60 Walzenlagen, 676 Ringstellungen, 16.900 Walzenstellungen und 150.738.274.937.250 Steckermöglichkeiten berechnen. Er beträgt:
60 · 676 · 16.900 · 150.738.274.937.250 = 103.325.660.891.587.134.000.000
Das sind etwa 10²³ Möglichkeiten und entspricht einer Schlüssellänge von ungefähr 76 bit. Die gelegentlich zu hörenden „150 Millionen Millionen Millionen“ Kombinationen, beispielsweise in den Spielfilmen „Enigma – Das Geheimnis“ und „The Imitation Game – Ein streng geheimes Leben“, basieren auf dem Weglassen der Ringstellungen. Die genaue Rechnung ergibt in diesem Fall 60 · 16.900 · 150.738.274.937.250 oder 152.848.610.786.371.500.000 unterschiedliche Fälle, wobei die Briten zumeist statt 16.900 alle 26³ oder 17.576 mögliche Walzenstellungen berücksichtigten und als Produkt dann 158.962.555.217.826.360.000 erhielten.
Der Schlüsselraum war für die damalige Zeit enorm groß und hält sogar einem Vergleich mit moderneren Verfahren stand. Beispielsweise verfügt das über mehrere Jahrzehnte gegen Ende des 20. Jahrhunderts zum Standard erhobene Verschlüsselungsverfahren DES ("Data Encryption Standard") über eine Schlüssellänge von genau 56 bit, also deutlich weniger als die Enigma. Eine Exhaustion (vollständiges Durchsuchen) des Schlüsselraums der Enigma ist selbst mit modernen Mitteln kaum möglich und war mit der damaligen Technologie vollkommen illusorisch.
Zwar bietet eine größere Schlüssellänge – für sich allein betrachtet – eine höhere Sicherheit, aber das ist nur "ein" Faktor, der die Sicherheit eines Systems bestimmt. Eine ausreichend große Größe des Schlüsselraums ist deshalb nur eine notwendige, aber keine hinreichende Bedingung für die Sicherheit eines kryptographischen Verfahrens. So verfügt die deutlich simplere Methode der einfachen monoalphabetischen Substitution (bei Verwendung eines Alphabets aus 26 Buchstaben wie die Enigma) über 26! (Fakultät) mögliche Schlüssel; das sind grob 4000·10²³ Schlüssel (ungefähr 88 bit) und verglichen mit der Zahl 10²³ der Enigma I sogar noch 4000 mal mehr Schlüssel. Dennoch ist eine monoalphabetische Substitution sehr unsicher und kann leichter gebrochen (entziffert) werden.
Auch bei der Enigma ähnelt die wesentlich zur Größe des Schlüsselraums beitragende konstruktive Komponente, nämlich das Steckerbrett, einer einfachen monoalphabetischen Substitution, denn die Steckerung bleibt schließlich während der gesamten Verschlüsselung unverändert. Das Steckerbrett kann folglich mithilfe einer intelligenten kryptanalytischen Angriffsmethode ("Turing-Bombe") überwunden und praktisch gänzlich eliminiert werden. Damit kann der Faktor 150.738.274.937.250 bei der Berechnung des Schlüsselraums effektiv wieder gestrichen werden.
Ebenso bewirken die Ringe nur eine geringe kryptographische Stärkung des Verfahrens. Bei falscher Ringstellung der rechten Walze und ansonsten korrektem Schlüssel sind periodisch (Periodenlänge = 26 Buchstaben) bereits Klartextpassagen lesbar, die jeweils nach einigen Buchstaben immer wieder abreißen. Noch weniger wirkt der Ring der mittleren Walze, wobei hier die Periodenlänge 650 Buchstaben (25·26) beträgt. Die mittlere Ringstellung trägt somit zumeist überhaupt nicht zur Größe des Schlüsselraums bei, immer dann nämlich, wenn während des Spruchs "kein" Übertrag auf die linke Walze erfolgt, der aufgrund der vorgeschriebenen Spruchlänge von höchstens 250 Buchstaben nur selten passierte. Die Ringstellung der linken Walze ist aus kryptanalytischer Sicht völlig bedeutungslos. Insgesamt stellt die Feinjustierung der Ringe keine größere Schwierigkeit mehr dar. Damit kann man bei der Berechnung der Größe des Schlüsselraums auch den Faktor 676 getrost wieder streichen.
Als kryptographisch wirksam übrig bleiben nur die 60 Walzenlagen und die (bei unbekannter Ringstellung) 17.576 zu berücksichtigenden Walzenstellungen. So schrumpft der vorher noch so gigantisch erscheinende Schlüsselraum auf vergleichsweise winzige 60·17.576 = 1.054.560 (gut eine Million) Möglichkeiten (etwa 20 bit), eine Zahl, die auch bereits zu Zeiten des Zweiten Weltkriegs mithilfe der damaligen elektromechanischen Technik exhaustiv (erschöpfend) abgearbeitet werden konnte.
Kryptographische Schwächen.
Willi Korn erreichte durch die Einführung einer Umkehrwalze, dass das Schlüsselverfahren involutorisch wird. Wenn bei einer bestimmten Stellung der Walzen ein U in ein X verschlüsselt wird, dann wird bei dieser Stellung auch ein X in ein U verschlüsselt. So vereinfachte er Konstruktion und Bedienung Maschine. Man muss nicht zwischen Verschlüsselung und Entschlüsselung unterscheiden. Darüber hinaus erhoffte er sich auch eine Steigerung der Sicherheit, denn der Strom durchfließt die Walzen nun zweimal. Durch diesen Rückgang des Stromes durch den Chiffrierwalzensatz findet eine weitere Verwürfelung statt. Infolge dieser Anordnung ist es möglich, mit verhältnismäßig wenig Chiffrierwalzen auszukommen und trotzdem eine große Chiffriersicherheit aufrechtzuerhalten.
Dies war jedoch ein Trugschluss mit weitreichenden Konsequenzen.
Zum einen bewirkt die Umkehrwalze, dass nun kein Buchstabe mehr in sich selbst verschlüsselt werden kann, denn der Strom kann ja in keinem Fall genau den Weg durch den Walzensatz wieder zurücknehmen, den er gekommen ist. Er wird stets auf einem anderen Weg zurückgeleitet, als er zur Umkehrwalze hingeflossen ist. Mathematisch spricht man hier von fixpunktfreien Permutationen. Diese Einschränkung mag als unwesentliche Kleinigkeit erscheinen, denn es bleiben ja noch 25 weitere Buchstaben des Alphabets zur Verschlüsselung, tatsächlich bedeutet dies jedoch eine drastische Reduzierung der zur Verschlüsselung verfügbaren Alphabete und darüber hinaus eine neue Angreifbarkeit des Geheimtextes. Zum anderen verursacht die Umkehrwalze dadurch, dass die Permutation und damit die Verschlüsselung involutorisch wird, eine weitere Verringerung der Alphabetanzahl.
Die durch die Umkehrwalze eingefügten kryptographischen Schwächen, insbesondere die Reduzierung der Anzahl der zur Verfügung stehenden Alphabete, lassen sich leicht klarmachen, wenn man statt von 26 Buchstaben vereinfacht von beispielsweise nur vier Buchstaben ausgeht. Mit vier Buchstaben lassen sich 4! = 24 unterschiedliche Alphabete (damit meint der Kryptograph unterschiedliche Anordnungen der Buchstaben) erzeugen, nämlich
ABCD ABDC ACBD ACDB ADBC ADCB
BACD BADC BCAD BCDA BDAC BDCA
CABD CADB CBAD CBDA CDAB CDBA
DABC DACB DBAC DBCA DCAB DCBA
Beschränkt man sich hier, statt auf alle 24 möglichen, nur auf die fixpunktfreien Permutationen, so fallen alle Alphabete weg, bei denen ein Buchstabe in sich selbst verschlüsselt wird, also auf seinem gewohnten alphabetischen Platz steht. Aus der obigen Liste sind damit die folgenden fünfzehn Alphabete zu streichen, da sie einen oder mehrere Fixpunkte aufweisen (unten rot und unterstrichen).
Übrig bleiben nur die folgenden neun fixpunktfreien Permutationen:
---- BADC ---- BCDA BDAC ----
---- CADB ---- ---- CDAB CDBA
DABC ---- ---- ---- DCAB DCBA
Berücksichtigt man jetzt noch, dass die Umkehrwalze nicht nur alle Permutationen mit Fixpunkten eliminiert, sondern auch alle nichtinvolutorischen Permutationen, so müssen aus der obigen Tabelle noch weitere sechs Fälle gestrichen werden, nämlich die, bei denen die zweifache Anwendung der Permutation nicht wieder zum ursprünglichen Buchstaben führt. Übrig bleiben von allen möglichen 24 Permutationen eines Alphabets aus vier Buchstaben lediglich die drei fixpunktfreien "und" involutorischen Fälle. Sie werden als „echt involutorische Permutationen“ bezeichnet.
---- BADC ---- ---- ---- ----
---- ---- ---- ---- CDAB ----
---- ---- ---- ---- ---- DCBA
Bei der Enigma mit ihren 26 Buchstaben bewirkt diese Beschränkung, dass statt der 26! (Fakultät), also ungefähr 4·1026 insgesamt möglichen permutierten Alphabete lediglich die 25·23·21·19···7·5·3·1 = 25!! (Doppelfakultät), also etwa 8·1012 echt involutorisch permutierten Alphabete genutzt werden können. Durch die Umkehrwalze verschenkt man so den "Faktor" von etwa 5·1013 an Möglichkeiten – eine gigantische Schwächung der kombinatorischen Komplexität der Maschine. Übrig bleibt weniger als die Quadratwurzel der ursprünglich möglichen Permutationen.
Kryptographisch noch katastrophaler als diese drastische Reduktion der Alphabetanzahl ist jedoch, dass durch die Vermeidung von Fixpunkten Aussagen über den Text möglich sind wie „Nichts ist jemals es selbst“, die bei der Entzifferung eine ganz wesentliche Hilfe waren. Weiß der Angreifer, dass niemals ein Buchstabe die Verschlüsselung seiner selbst ist, dann eröffnet ihm diese Kenntnis Abkürzungen, und er muss nicht mehr mühsam jeden einzelnen Fall abarbeiten, wie an folgendem Beispiel illustriert wird.
Ein seit Jahrhunderten bekanntes und bewährtes Entzifferungsverfahren ist die „Methode des wahrscheinlichen Wortes“.
Hierbei errät, vermutet oder weiß der Angreifer, dass im Text eine bestimmte Phrase (, ) auftritt, beispielsweise „OBERKOMMANDODERWEHRMACHT“. Liegt dem Angreifer zum Beispiel ein mit der Enigma verschlüsseltes Geheimtextfragment wie das folgende vor, so kann er ganz leicht ermitteln, an welcher Stelle im Text das vermutete wahrscheinliche Wort sich "nicht" befinden kann, indem er für jede mögliche Lage prüft, ob ein Zeichen in sich selbst verschlüsselt würde, was, wie er von der Enigma weiß, unmöglich ist. Dazu schreibt er das wahrscheinliche Wort in den verschiedenen Lagen unter den Geheimtext und prüft auf Kollisionen (), die im unteren Beispiel rot und unterstrichen hervorgehoben sind:
Die Anzahl der durch Kollisionen auszuschließenden Lagen lässt sich nach folgender Überlegung abschätzen: Bei einem wahrscheinlichen Wort der Länge 1 (also nur ein einzelner wahrscheinlicher Buchstabe) ist die Wahrscheinlichkeit für eine Kollision 1/26. Folglich ist die Wahrscheinlichkeit für "keine" Kollision 1−1/26. Bei einem wahrscheinlichen Wort wie oben mit der Länge 24 ist dann die Wahrscheinlichkeit für keine Kollision (1−1/26)24, das sind etwa 39 %. Das heißt, bei 27 untersuchten Lagen erwartet man im Mittel für 27·(1−1/26)24 der Fälle keine Kollisionen. Der Ausdruck ergibt etwa den Wert 10,5 und stimmt recht gut mit den im Beispiel beobachteten (und grün gekennzeichneten) acht kollisionsfreien Crib-Lagen überein.
Mithilfe dieser äußerst simplen kryptanalytischen Angriffsmethode lassen sich so von den 27 möglichen Lagen des wahrscheinlichen Worts hier 19, also mehr als zwei Drittel, als unmöglich eliminieren – eine erhebliche Arbeitsvereinfachung für den Angreifer.
Entzifferung.
Die Betreiber der Schlüsselmaschine Enigma waren der Meinung, die durch sie maschinell verschlüsselten Texte seien mit manuellen Methoden nicht zu knacken. Übersehen wurde, dass einer maschinellen Verschlüsselung durch maschinelle Entzifferung begegnet werden kann.
Die Geschichte der Entzifferung der Enigma beginnt im Jahr 1932, als der für Frankreich unter dem Decknamen HE ("Asché") spionierende Deutsche Hans-Thilo Schmidt geheime Schlüsseltafeln für die Monate September und Oktober 1932 sowie die Gebrauchsanleitung (H.Dv.g.13) und die Schlüsselanleitung (H.Dv.g.14) an den französischen Geheimdienstmitarbeiter Gustave Bertrand gegen Geld verriet.
Zu dieser Zeit waren erst drei Walzen (I bis III) im Einsatz und die Walzenlage wurde nur vierteljährlich und noch nicht, wie dann ab Oktober 1936, täglich gewechselt. Das "Deuxième Bureau" des französischen Geheimdienstes leitete die Unterlagen an britische und polnische Stellen weiter.
Während es Franzosen und Briten nicht gelang, in die Verschlüsselung einzubrechen und sie die Enigma als „unknackbar“ einstuften, glückte dem 27‑jährigen polnischen Mathematiker Marian Rejewski bei seiner Arbeit in dem für Deutschland zuständigen Referat BS4 des "Biuro Szyfrów" (deutsch: „Chiffrenbüro“) bereits im Jahr 1932 der erste Einbruch in die Enigma.
Dabei nutzte er eine legal gekaufte kommerzielle Maschine (vermutlich Modell C), bei der – anders als bei der ihm noch unbekannten militärischen Enigma I – die Tastatur mit der Eintrittswalze in der üblichen QWERTZ-Reihenfolge (Buchstabenreihenfolge einer deutschen Tastatur, beginnend oben links) verbunden war. Rejewski erriet die von den Deutschen für die militärische Variante gewählte Verdrahtungsreihenfolge,
die den britischen "Codebreaker" Dillwyn Knox selbst noch 1939 fast zur Verzweiflung brachte.
Anschließend schaffte es Marian Rejewski mithilfe seiner exzellenten Kenntnisse der Permutationstheorie (siehe auch: Enigma-Gleichung), die Verdrahtung der drei Walzen (I bis III) sowie der Umkehrwalze (A) (siehe auch: Enigma-Walzen) zu erschließen
– eine kryptanalytische Meisterleistung.
Die nächste Aufgabe, die gelöst werden musste, war, jeweils die richtige Walzenlage und Walzenstellung zu erschließen. Dazu nutzte Rejewski zusammen mit seinen 1932 hinzugekommenen Kollegen Jerzy Różycki und Henryk Zygalski einen schwerwiegenden verfahrenstechnischen Fehler aus, der den Deutschen unterlief: Um eine sichere Übertragung zu gewährleisten, wurde zu dieser Zeit der Spruchschlüssel noch zweimal hintereinandergestellt und verschlüsselt an den Anfang einer Nachricht geschrieben („Spruchschlüsselverdopplung“).
Somit war der erste und vierte, der zweite und fünfte sowie der dritte und sechste Geheimtextbuchstabe jeweils demselben Klartextbuchstaben zuzuordnen. Mithilfe zweier, durch ihren Kollegen Antoni Palluth von der Firma AVA speziell zu diesem Zweck gebauter Maschinen,
genannt Zyklometer und "Bomba", die zwei beziehungsweise dreimal zwei hintereinandergeschaltete und um jeweils drei Drehpositionen versetzte Enigma-Maschinen verkörperten, konnten die polnischen Kryptoanalytiker für jede der sechs möglichen Walzenlagen feststellen, bei welchen Walzenstellungen die beobachtete Zuordnung der Buchstabenpaare möglich war, und so den Suchraum erheblich einengen. Nach Analyse mehrerer Funksprüche war der korrekte Spruchschlüssel gefunden.
Nachdem die Deutschen, die von alledem nichts wussten, am 15. September 1938 ihre Verfahrenstechnik änderten
und drei Monate später mit Einführung der Walzen IV und V die Anzahl der möglichen Walzenlagen von sechs (= 3·2·1) auf sechzig (= 5·4·3) erhöhten,
konnten die Polen nicht mehr mithalten und die Enigma war wieder sicher.
Angesichts der drohenden Gefahr übergaben sie kurz vor dem deutschen Überfall auf Polen ihr gesamtes Wissen an ihre Verbündeten. Am 26. und 27. Juli 1939
kam es zum legendären Treffen von Pyry französischer, britischer und polnischer Codeknacker, knapp 20 km südlich von Warschau, bei dem sie den verblüfften Briten und Franzosen ihre Enigma-Nachbauten und ihre kryptanalytischen Maschinen präsentierten und ihre Methodiken offenbarten.
Die erste Frage, die Dilly Knox bei diesem Treffen (laut Mavis Batey auf Französisch)
gestellt hat, war: „Quel est le QWERTZU?“
(deutsch: „Was ist der QWERTZU?“; also sinngemäß: „Wie lautet die Verdrahtungsreihenfolge der Eintrittswalze?“).
Dies hatte ihn schon lange gequält. Rejewskis Antwort war genial einfach: „ABCDEFG…“.
Ein Gedanke, der Knox so abstrus erschien, dass er es nicht fassen konnte. Marian Rejewski hingegen kannte die „Tugend der Deutschen: den Ordnungssinn“,
und dies hatte ihn bereits sieben Jahre zuvor die von den deutschen Kryptographen gewählte, denkbar simpelste aller Permutationen erkennen lassen – den Trivialfall der Identität.
Daraus resultierte die für ihn leicht zu erratende gewöhnliche alphabetische Reihenfolge der Verdrahtung der Eintrittswalze.
Mit diesem Anschub, vor allem mit den nun endlich bekannten Walzenverdrahtungen, konnten die britischen Kryptoanalytiker mit Ausbruch des Krieges im etwa 70 km nordwestlich von London gelegenen Bletchley Park einen erneuten Angriff auf die Enigma starten. Das wichtigste Hilfsmittel dabei war – neben ihrer intellektuellen Leistungsfähigkeit und dem hohen Personaleinsatz von später über zehntausend
Frauen und Männern – vor allem eine spezielle elektromechanische Maschine, genannt die "Turing-Bombe", die als Nachfolgerin auf der polnischen "Bomba" aufbaute und vom englischen Mathematiker Alan Turing ersonnen wurde. Turings Idee zur Schlüsselsuche bestand darin, durch ringförmige Verkettung von mehreren, meist zwölf, Enigma-Walzensätzen die Wirkung des Steckerbretts zu neutralisieren.
Dadurch gelang es ihm, die praktisch unüberschaubare Anzahl von mehr als 200 Trilliarden Verschlüsselungsmöglichkeiten, auf die die deutschen Kryptographen ihre Hoffnungen setzten, drastisch zu reduzieren.
Das Grundprinzip geht von der Enigma I aus, bei der drei Walzen aus einem Sortiment von fünf Walzen eingesetzt werden und nur die Umkehrwalze B zur Verfügung steht. Eine andere Umkehrwalze (UKW C), von den Briten lautmalerisch "Uncle Walter" genannt, tauchte kurzzeitig auf und verschwand schnell wieder.
Für jede der 60 verschiedenen Walzenlagen gibt es 26³, also 17.576 Walzenstellungen. Wenn man bei der Schlüsselsuche von den Ringstellungen und vom Steckerbrett absehen kann, was mithilfe der durch die "Bombe" realisierten kryptanalytischen Angriffsmethode ermöglicht wurde, dann bleiben „nur“ noch 60·17.576, also 1.054.560 Möglichkeiten übrig. Diese etwa eine Million unterschiedlichen Fälle sind von Hand in vernünftiger Zeit praktisch nicht durchzuprobieren. Mithilfe der "Turing-Bombe" jedoch, die motorbetrieben mit 64 Umdrehungen pro Minute
während jeder Umdrehung 26 Fälle abarbeiten konnte, brauchte man nur noch 1.054.560/(26·64) Minuten, also etwas mehr als zehn Stunden, um sämtliche Möglichkeiten durchzutesten.
Hinzu kommt noch die Zeit zum Einstellen und Umrüsten der Maschine auf die sechzig verschiedenen Walzenlagen, wodurch die Zeit auf rund zwanzig Stunden verdoppelt wird.
Leistet man sich den Aufwand, sechzig "Bombes" einzusetzen, jeweils eine für jede Walzenlage, dann schrumpft die Zeit für einen Durchlauf von etwas mehr als zehn Stunden auf gut zehn Minuten.
Tatsächlich waren Anfang 1944 mehr als 330 "Bombes" im Vereinigten Königreich und den Vereinigten Staaten in Betrieb,
nachdem sich die Briten noch Ende 1941 mit nur zwölf "Bombes" begnügen mussten.
Entscheidend wichtig für die Funktion der "Bombe" sind wahrscheinliche Wörter ("Cribs"),
deren Auftreten man im Text erwarten kann.
Fehlen diese, dann scheitert die Entzifferung. Beispielsweise gelang den Briten der Einbruch in zwei Schlüsselkreise der Deutschen Reichsbahn nicht,
die in Bletchley Park nach der frühen Dampflokomotive "Rocket" als "Rocket II" und "Rocket III" bezeichnet wurden.
Grund war, wie sie nach dem Krieg zu ihrer Überraschung feststellten, nicht eine besonders sichere Enigma-Variante, sondern die ungewohnte Eisenbahnersprache und die Art der Transportmeldungen, die ihnen das Erraten von wahrscheinlichen Wörtern nicht erlaubten. Militärische Meldungen hingegen waren häufig stereotyp abgefasst und enthielten viele leicht zu erratende "Cribs" wie OBERKOMMANDODERWEHRMACHT, die die britischen Codeknacker zur Entzifferung nutzen konnten.
Darüber hinaus profitierten sie von der deutschen Gründlichkeit bei der Abfassung von Routinemeldungen, wie Wetterberichte, die jeden Morgen pünktlich zur selben Zeit und vom selben Ort gesendet wurden. Zwar verbot die deutsche Dienstvorschrift „Allgemeine Schlüsselregeln für die Wehrmacht“ (H.Dv.g.7) ausdrücklich „Regelmäßigkeiten im Aufbau, gleichlautende Redewendungen und Wiederholungen im Text“
und warnte eindringlich „Es muß auf jeden Fall vermieden werden, daß durch flüchtig ausgebildetes Personal Schlüsselfehler gemacht werden, die […] der feindlichen Nachrichtenaufklärung die Entzifferung ermöglichen“,
dennoch passierten genau diese Fehler, die die Codeknacker wahrnehmen und ausnutzen konnten.
Aus britischer Sicht war eine täglich frisch verschlüsselte Enigma-Meldung, die stets mit den Worten „WETTERVORHERSAGEBEREICHSIEBEN“ begann, ähnlich wertvoll wie es eine direkte öffentliche Bekanntgabe des jeweils gültigen Tagesschlüssels gewesen wäre.
So wurde beispielsweise der Enigma-Schlüssel vom "D-Day", dem Tag der Landung der Alliierten in der Normandie ("Operation Overlord"), durch den "Crib" „WETTERVORHERSAGEBISKAYA“, den die britischen Kryptoanalytiker leicht erraten konnten und korrekt vermuteten, in weniger als zwei Stunden nach Mitternacht gebrochen.
Die Briten provozierten sogar bewusst Vorfälle, nur um die darauf prompt zu erwartenden deutschen Funksprüche mit bekanntem Inhalt (und mit aktuellem Tagesschlüssel verschlüsselt) zu erhalten, und nannten diese Technik "gardening" (deutsch: „Gärtnern“).
Der britische "Codebreaker" Rolf Noskwith aus Baracke 8 beschrieb sie folgendermaßen: „Die RAF warf an bestimmten Stellen in der Nordsee Minen ab, so daß die Minenwarnung der Deutschen uns als Crib diente. Die Stellen waren sorgfältig ausgewählt, um bestimmte Ziffern, wie insbesondere 0 und 5, [als Koordinaten] zu vermeiden, für die die Deutschen unterschiedliche Buchstaben benutzten.“
Die Briten konnten sich so, unter Vermeidung der Fallunterscheidungen für „NULL“ und „NUL“ sowie „FUENF“ und „FUNF“, die Arbeit etwas erleichtern. Außer im Fall „ZWEI“ und „ZWO“ gab es für die übrigen Ziffern nur eine Schreibweise. Auch entzifferte Botschaften von kleineren Marineeinheiten, wie Hafenschiffen, die nicht über die Enigma verfügten und stattdessen Handschlüsselverfahren (Werftschlüssel oder Reservehandverfahren) benutzten, dienten den Briten als "Cribs" beim Bruch der Enigma. Die Deutschen versendeten nämlich viele Funksprüche, wie Minenwarnungen, wortgleich sowohl als Enigma-Geheimtexte als auch mit den Handverfahren verschlüsselt.
Die Briten waren dankbar für diese „Geheimtext-Geheimtext-Kompromittierung“ und nannten sie "Kisses".
So gelang es unter dem Decknamen „Ultra“, beginnend mit Januar 1940 zunächst die von der Luftwaffe und später auch die vom Heer mit der Enigma I verschlüsselten Nachrichten nahezu während des gesamten Zweiten Weltkriegs kontinuierlich zu brechen.
Im Jahr 1943 beispielsweise wurden mehr als 80.000 Funksprüche pro Monat abgefangen und entziffert, also durchschnittlich mehr als 2500 jeden Tag,
während des Krieges insgesamt waren es über zweieinhalb Millionen.
Hartnäckiger zeigten sich die Verschlüsselungsverfahren der deutschen Kriegsmarine, die eine Variante (Enigma‑M3) mit drei aus acht Walzen (I bis VIII) sowie eine ausgeklügelte Spruchschlüsselvereinbarung nutzte. Hier gelang den Briten der Einbruch erst im Mai 1941 nach Kaperung des deutschen U‑Boots "U 110" und Erbeutung einer intakten M3-Maschine und sämtlicher Geheimdokumente (Codebücher inklusive der entscheidend wichtigen „Doppelbuchstabentauschtafeln“)
durch den britischen Zerstörer HMS "Bulldog" am 9. Mai 1941.
Eine für die Briten schmerzliche Unterbrechung ("Black-out") gab es dann, als am 1. Februar 1942 die M3 (mit drei Walzen) bei den U‑Booten durch die M4 (mit vier Walzen) abgelöst wurde.
Dieses von den Deutschen „Schlüsselnetz Triton“ und von den Briten "Shark" (deutsch: „Hai“) genannte Verfahren konnte zehn Monate lang nicht gebrochen werden, eine Zeit, von den U‑Boot-Fahrern die „“ genannt, in der die deutsche U‑Bootwaffe erneut große Erfolge verbuchen konnte.
Der Einbruch in "Shark" gelang erst am 12. Dezember 1942,
nachdem der britische Zerstörer HMS "Petard" am 30. Oktober 1942 im Mittelmeer das deutsche U‑Boot "U 559" aufbrachte
und dabei streng geheime Schlüsselunterlagen, wie Kurzsignalheft und Wetterkurzschlüssel erbeutete, mit deren Hilfe es die Kryptoanalytiker in Bletchley Park schafften, auch die Enigma‑M4 zu überwinden.
Nun kamen auch die Amerikaner zu Hilfe. Unter Federführung von Joseph Desch
produzierten sie ab April 1943 im "United States Naval Computing Machine Laboratory (NCML)" mehr als 120 Stück
Hochgeschwindigkeitsvarianten der "Turing-Bombe".
Diese sogenannten "Desch-Bombes" waren speziell gegen die M4 gerichtet.
In schneller Folge kamen weitere amerikanische Behörden unterstützend hinzu, wie etwa die "Signal Security Agency (SSA)", die "Communications Supplementary Activity (CSAW)", und die "United States Coast Guard Unit 387 (USCG Unit 387)".
Die Personalstärke wuchs schnell von wenigen Hundert auf mehr als zehntausend Mitarbeiterinnen und Mitarbeiter an, die täglich Tausende von Funksprüchen entzifferten.
Danach waren die deutschen U‑Boote nie mehr sicher (siehe auch: U‑Boot-Krieg). Unmittelbare Folge der amerikanischen Entzifferungen war, beginnend mit "U 463" am 16. Mai 1943, einem U‑Tanker vom Typ XIV („Milchkuh“), bis "U 220" am 28. Oktober 1943, einem zur Versorgung eingesetzten Minenleger vom Typ XB,
die Versenkung von elf der achtzehn deutschen Versorgungs-U‑Boote innerhalb weniger Monate im Jahr 1943.
Dies führte zu einer Schwächung aller Atlantik-U‑Boote, die nun nicht mehr auf See versorgt werden konnten, sondern dazu die lange und gefährliche Heimreise durch die Biskaya zu den U‑Boot-Stützpunkten an der französischen Westküste antreten mussten.
Geschichtliche Konsequenzen.
Es gilt als unbestritten, dass die Kompromittierung der Enigma von enormer strategischer Bedeutung für den Verlauf des Zweiten Weltkriegs war. Einige Geschichtswissenschaftler gehen davon aus, dass, falls die Enigma nicht hätte gebrochen werden können, sich am Ausgang des Krieges zwar nichts geändert hätte, er aber wesentlich länger gedauert hätte und noch weitaus blutiger verlaufen wäre. So äußerte sich der englische Historiker Sir Harry Hinsley, der in Bletchley Park mitgearbeitet hatte, zur Bedeutung von "Ultra" mit den Worten „shortened the war by not less than two years and probably by four years“ ().
Die Vermutung erscheint gerechtfertigt, dass es den polnischen, britischen und amerikanischen Kryptoanalytikern und ihrer Leistung bei der Entzifferung der deutschen Maschine zu verdanken ist, dass der Zweite Weltkrieg erheblich verkürzt werden konnte und damit unzähligen Menschen auf allen Seiten das Leben gerettet wurde.
Es gibt auch Historiker, Politiker und Militärs, die die nachrichtendienstlichen Erkenntnisse als „entscheidend“ für den Sieg der Alliierten ansehen.
Die Entzifferungen waren nicht nur auf militärisch-taktischer Ebene (Heer, Luftwaffe und Marine) eine große Hilfe, sondern aufgrund der nahezu vollständigen Durchdringung des deutschen Nachrichtenverkehrs auf allen Ebenen (Polizei, Geheimdienste, diplomatische Dienste, SD, SS, Reichspost, Reichsbahn und Wehrmacht) auch einen äußerst genauen Einblick in die strategischen und wirtschaftlichen Planungen der deutschen Führung erlaubten. Speziell schätzten die Alliierten die Authentizität der aus Enigma-Funksprüchen gewonnenen Informationen, die aus anderen Quellen, wie Aufklärung, Spionage oder Verrat, nicht immer gegeben war. So konnten die Briten ihre zu Beginn des Krieges noch sehr begrenzten Ressourcen deutlich besser koordinieren und viel gezielter gegen die erkannten deutschen Schwächen einsetzen, als es ohne die Entzifferung der Enigma möglich gewesen wäre.
In den Jahren ab 1941 wären die deutschen U‑Boote nicht mehr so leicht zu finden gewesen, deren Positionen und Aufträge die Alliierten aus entzifferten Funksprüchen genau verfolgen konnten.
Wie man heute weiß, war aus entzifferten Enigma-Funksprüchen am D-Day nicht nur die gesamte deutsche Gefechtsaufstellung in der Normandie detailliert bekannt, sondern die alliierten Befehlshaber wurden dank "Ultra" auch jeden Tag äußerst präzise über die deutschen Pläne und Gegenmaßnahmen auf dem Laufenden gehalten.
Besonders bemerkenswert ist die Tatsache der perfekt funktionierenden Geheimhaltung der in Bletchley Park durchgeführten Enigma-Entzifferungen und der daraus gewonnenen "Ultra"-Informationen. Churchill selbst würdigte seine verschwiegenen "Codebreakers" mit den Worten „My geese that laid the golden eggs and never cackled“ (). Dieses „Enigma-Geheimnis“ wurde während des gesamten Krieges und selbst danach bis in die 1970er-Jahre gehütet ("Britain’s best kept secret", ). Die Deutschen hatten keinerlei Ahnung von "Ultra". In Bletchley Park wurde nur ein Maulwurf gefunden: John Cairncross, aber der spionierte für die Sowjetunion.
Nachkriegszeit.
Nach dem Krieg wurden die in Stückzahlen von mehreren Hunderten, möglicherweise Tausenden, vor allem von den Westmächten an Verbündete oder befreundete Nationen verkauft oder verschenkt.
So boten die Briten dem im Jahr 1948 30 Stück der zu dieser Zeit allgemein noch als „hochsicher“ und „unknackbar“ geltenden deutschen Verschlüsselungsmaschine an. Die Israelis waren hocherfreut über dieses wertvolle Geschenk und begannen, die deutschen Maschinen für ihre Zwecke zu modifizieren. Sie verbesserten die kryptographische Sicherheit und kombinatorische Komplexität der Enigma und ersetzten bei Tastatur, Lampenfeld, Steckerbrett und Walzensatz das lateinische Alphabet durch hebräische Buchstaben. Sie verzichteten jedoch schließlich auf den Einsatz dieser nun israelischen Enigma-Maschinen, nachdem sie durch Joseph E. Gillis, der in Bletchley Park mitgearbeitet hatte, einen subtilen Hinweis erhalten hatten.
In Korea, in ehemaligen britischen Kolonien und Protektoraten sowie einigen afrikanischen Staaten wurden Enigmas teilweise noch bis 1975 genutzt, wodurch es den Westmächten gelang, deren Nachrichtenverkehr mitzulesen.
Die wenigen heute noch existierenden intakten Exemplare – man schätzt, dass es noch rund 400 Exponate in Museen oder bei privaten Sammlern gibt – werden zu Liebhaberpreisen im fünf- und sogar sechsstelligen Bereich gehandelt.
Verbesserungspotenzial.
Die kryptographische Sicherheit der Enigma hing – im Widerspruch zu Kerckhoffs’ Prinzip– wesentlich von der Geheimhaltung ihrer Walzenverdrahtung ab. Diese war vom Benutzer anfänglich nicht veränderbar, somit ein Teil des Algorithmus und nicht des Schlüssels. Bemerkenswert ist, dass die Walzenverdrahtung seit den Anfängen in den 1920er-Jahren bis 1945 bis auf ganz wenige Ausnahmen, genannt „Sonderschaltungen“, nicht verändert wurde. Unter den üblichen Einsatzbedingungen einer so weit verbreiteten Schlüsselmaschine wie der Enigma darf man nicht annehmen, dass deren algorithmische Bestandteile auf Dauer geheim gehalten werden können.
Eine Möglichkeit zur Verbesserung der Enigma wäre ein vollständiges Auswechseln des Walzensortiments gewesen, ähnlich wie es die Schweizer mit ihrem Modell K machten.
Noch wesentlich wirkungsvoller wären Walzen, deren innere Verdrahtung schlüsselabhängig variabel gestaltet werden könnte. Ansatz hierzu war die Umkehrwalze D (britischer Spitzname: "Uncle Dick"), die jedoch erst ab Januar 1944 und nur vereinzelt zum Einsatz kam. Diese „stöpselbare Umkehrwalze Dora“ ermöglichte eine frei wählbare Verdrahtung zwischen den Kontaktstiften und somit eine variable Verbindung zwischen Buchstabenpaaren.
Wesentliche kryptographische Stärkungen der Enigma wären im Konstruktionsstadium leicht möglich gewesen. In erster Linie hätte man die Beschränkung auf fixpunktfreie Permutationen vermeiden müssen. Auch die Involutorik (Verschlüsseln = Entschlüsseln), zwar bequem für die Bedienung, schwächte die Maschine enorm. Beides wäre durch Verzicht auf die Umkehrwalze vermieden worden.
Die aus dem Jahr 1929 stammende Enigma‑H verfügte über "acht" Walzen und einen allein durch die Walzenstellung einstellbaren Schlüsselraum von mehr als 200 Milliarden.
Verglichen mit den nur 17.576 Walzenstellungen der Enigma I bietet sie eine erheblich größere kombinatorische Komplexität. Zudem verfügte dieses frühe Enigma-Modell über keine Umkehrwalze, hatte also auch nicht deren Schwächen. Hätte man diese Grundkonstruktion mit acht (statt nur drei) Walzen auf die Enigma I übertragen und zusätzlich wie dort die Lage der Walzen austauschbar gestaltet, hätte dies bei acht Walzen 8! = 40.320 (statt nur 60) Walzenlagen und in Kombination mit den Walzenstellungen einen kryptographisch wirksamen Schlüsselraum von 8.419.907.243.704.320 (mehr als acht Billiarden oder knapp 53 bit) ergeben. Im Vergleich zu den nur gut eine Million (etwa 20 bit) kryptographisch wirksamen Möglichkeiten der tatsächlich realisierten Enigma wäre so eine deutlich stärkere Maschine entstanden, die vermutlich nicht hätte gebrochen werden können.
Scherbius hatte in seinem grundlegenden Patent vom 23. Februar 1918 sogar schon "zehn" Walzen und die (bereits ohne Austauschen) daraus resultierenden rund 100 Billionen Schlüssel angegeben, außerdem keine Umkehrwalze, sondern einen Umschalter zur Einstellung von Ver- und Entschlüsselung, sowie eine über Getriebe einstellbare "unregelmäßige" Weiterbewegung der Walzen vorgeschlagen – sämtlich gute Ideen und kryptographisch starke Konstruktionsmerkmale, die jedoch im Laufe der Zeit in Vergessenheit gerieten.
Eine sehr einfache Möglichkeit, die Enigma sicherer zu gestalten, ist die Verwendung von mehr als einer Übertragskerbe. Diese Kerben sind Bestandteil jeder Walze und bewirken den Übertrag auf die nächste, im Walzensatz weiter links liegende Walze und sorgen so für die Fortschaltung der Rotoren. Den Codeknackern kam es sehr gelegen, dass sie 26 Buchstaben lang davon ausgehen konnten, dass allein die rechte Walze rotierte und erst dann eine Fortschaltung auf den mittleren Rotor passierte. Für relativ lange Textpassagen besteht die Enigma somit aus Sicht des Kryptoanalytikers nur aus einer einzigen sich drehenden (rechten) Walze und einer, aus mittlerer und linker Walze sowie der Umkehrwalze bestehenden, sozusagen besonders dicken (feststehenden) Umkehrwalze. Erst der Übertrag auf die mittlere Walze stört dies. Hätten die Walzen der Enigma über mehr als nur eine einzige Übertragskerbe verfügt, beispielsweise neun, wie bei der britischen Schlüsselmaschine Typex, so hätte sich für den Anwender praktisch nichts geändert, die Kryptanalyse jedoch wäre durch das dann häufigere Weiterschalten der mittleren und der linken Walze stark gestört worden.
Vielleicht fürchteten die Entwickler der Enigma eine Reduzierung der Periode, das ist die Anzahl der Zeichen, nach der sich das zur Verschlüsselung verwendete Alphabet wiederholt. Die Periode beträgt bei der Enigma I 26·25·26 = 16.900, wobei der Faktor 25 bei der mittleren Walze durch die bereits erwähnte (unwichtige) Anomalie des Fortschaltmechanismus verursacht wird. Bei Verwendung einer geraden Anzahl oder von dreizehn Übertragskerben statt nur einer würde die Periode tatsächlich drastisch absinken, da diese Zahlen gemeinsame Teiler mit 26 aufweisen. Bei zum Beispiel drei, fünf, sieben, neun oder elf Kerben hingegen besteht diese Gefahr nicht, da diese Zahlen zu 26 teilerfremd sind.
Interessanterweise wurden bei der Marine, in Ergänzung zu den von der Enigma I bekannten fünf Walzen, drei weitere Walzen eingesetzt (VI, VII und VIII), die zwei Übertragskerben aufweisen. Die exklusiv von der Marine verwendeten drei Walzen vermieden außerdem einen weiteren Fehler der fünf Walzen der Enigma I, denn sie hatten ihre Übertragskerben alle bei identischen Buchstaben. Nicht so die Walzen I bis V, die sich durch den bei unterschiedlichen Buchstaben erfolgenden Übertrag verrieten. Die Codeknacker hatten sich dafür den (sprachlich unsinnigen) Merkspruch „Royal Flags Wave Kings Above“ gebildet, der für die Walzen I bis V in dieser Reihenfolge den jeweiligen Buchstaben nennt, der stets im Sichtfenster erscheint, nachdem ein Übertrag auf die nächste Walze erfolgt ist.
Eine bedeutende Innovation, die die kryptographische Sicherheit der Enigma erheblich verbessert hätte, die aber zu spät kam, um während des Krieges noch eingesetzt werden zu können, waren die sogenannten Lückenfüllerwalzen. Diese neuartigen Rotoren erlaubten es „an jeder Walze Schaltlücken beliebig nach Art und Zahl einzustellen“.
Die Einstellungen hätten schlüsselabhängig verändert werden können und so wesentlich zur kryptographischen Stärkung der Maschine beigetragen. Im Juli 1944 erhielt das Ertel-Werk in München einen Fertigungsauftrag über 8000 Stück Lückenfüllerwalzen, der kurz darauf auf 12.000 Stück erhöht wurde.
Kriegsbedingt konnten jedoch nur wenige hergestellt und keine mehr ausgeliefert werden. Das amerikanische "Target Intelligence Committee" "(TICOM)" konfiszierte gegen Ende des Krieges sämtliche Informationen über die Lückenfüllerwalze und hielt sie für viele Jahre sorgsam unter Verschluss.
Falls sie in ausreichender Stückzahl hätte gefertigt und eingesetzt werden können, so wären die britischen Codeknacker vermutlich aus dem Rennen gewesen, insbesondere, wenn es, wie geplant, gelungen wäre, die Lückenfüllerwalze in Kombination mit der Umkehrwalze D einzusetzen.
Die deutsche "Abwehr" (Geheimdienst) verwendete ein Enigma-Modell (G), das über einen exklusiven Walzensatz verfügte, bei dem die (drei) Walzen tatsächlich mehrere Übertragskerben aufwiesen, nämlich 11, 15 beziehungsweise 17 Kerben.
Selbst die Umkehrwalze war – im Unterschied zu den anderen Enigma-Modellen – drehbar und rotierte mit. Dies stärkte die Verschlüsselung und sorgte sicher auch dafür, dass andere deutsche Stellen nicht mitlesen konnten. Allerdings verzichtete die "Abwehr" bei dieser besonders kompakten (äußere Abmessungen 270 mm × 250 mm × 165 mm) und handwerklich hervorragend gebauten Enigma auf ein Steckerbrett.
Die Folge war, dass es den "Codebreakers" von Bletchley Park gelang diese Verschlüsselung zu überwinden
Deutsche Agenten konnten dadurch bereits bei ihrer Einreise „in Empfang genommen“ werden. Es gelang dem britischen Inlandsgeheimdienst "MI5", viele von ihnen „umzudrehen“ und im Rahmen des Systems "Double Cross" () als Doppelagenten einzusetzen.
Zusammen mit den aus Enigma‑G-Sprüchen entzifferten Informationen erhielt der "MI5" ein so detailliertes und zutreffendes Bild über die Pläne und den Wissensstand der "Abwehr", dass jeder einzelne noch in Großbritannien operierende deutsche Agent genau bekannt war und gezielt kontrolliert und manipuliert werden konnte. Dies wurde auch zur Desinformation der deutschen Führung genutzt (siehe auch: "Operation Fortitude").
Eine einfache und trotzdem durchschlagend wirksame Maßnahme, die zu jedem beliebigen Zeitpunkt ganz leicht hätte eingeführt werden können, ist die Verwendung von einpoligen Steckerverbindungen anstelle der doppelpoligen involutorischen Kabel.
Dabei könnte man beispielsweise X mit U steckern und U nun aber nicht notwendigerweise mit X, sondern mit irgendeinem anderen beliebigen Buchstaben. So hätte schlagartig die Involutorik des Steckerbretts – wenn auch nicht der ganzen Maschine – beseitigt werden können. Dies hätte katastrophale Auswirkungen für die Codeknacker in Bletchley Park gehabt. Ein Großteil der dort erarbeiteten Methodik inklusive des von Welchman erfundenen "diagonal board" () wäre nutzlos geworden.
Zusammenfassend können folgende Punkte zur kryptographischen Stärkung der Enigma festgehalten werden
Modelle.
Eine grobe Übersicht der verwirrenden Modellvielfalt der Enigma zeigt die folgende Tabelle. Neben dem Modellnamen ist das Jahr der Indienststellung, die Walzenanzahl sowie die daraus resultierende Anzahl der möglichen Walzenlagen angegeben. Ferner ist die Anzahl und die Art der Umkehrwalze (UKW) notiert, wobei zwischen fest eingebauten UKW sowie manuell einstellbaren, also „setzbaren“ UKW und rotierenden UKW unterschieden werden muss.
Neben den meistverwendeten Modellen Enigma I, Enigma‑M3 und Enigma‑M4 ist die Enigma‑T besonders erwähnenswert, die speziell für den Nachrichtenverkehr der beiden Kriegsverbündeten Deutschland und Japan konzipiert war. Sie wurde nach Alfred von Tirpitz auch als Tirpitz-Maschine bezeichnet und verfügte über kein Steckerbrett, aber über eine „setzbare“ (einstellbare, jedoch nicht rotierende) Umkehrwalze und Walzen mit jeweils fünf Übertragskerben. Drei Walzen wurden aus einem Set von acht ausgewählt.
Die Enigma‑T kam kaum zum Einsatz.
Die Enigma-T darf nicht mit dem in Japan entwickelten Enigma-Nachbau San-shiki Kaejiki verwechselt werden.
Ein Kuriosum stellt die Enigma-Z bzw. Z30 dar, die dem spanischen Außenministerium im Jahr 1931 zum Kauf angeboten wurde. Bei ihr handelt es sich um eine Variante ähnlich der Enigma‑D, die nur zehn Zifferntasten („1“ bis „0“) und entsprechend (kleinere) Walzen mit nur zehn Kontakten und zehn Glühlampen für „1“ bis „0“ aufweist. Sie war nicht zur Verschlüsselung von Texten, sondern nur von Zahlen gedacht, wie zur Überschlüsselung von diplomatischen Codes. So konnte beispielsweise die Ziffernfolge „25183 91467“ als „38760 15924“ verschlüsselt werden. Die Spanier verzichteten damals auf den Erwerb der Enigma‑Z und entschieden sich stattdessen für die noch weniger sichere Kryha.
Anomalie.
Der Fortschaltmechanismus der Walzen weist eine konstruktive Besonderheit auf, die zur Folge hat, dass sich die Walzen der Enigma nicht immer so weiterdrehen, wie es bei einem mechanischen Kilometerzähler der Fall wäre. Diese Besonderheit äußert sich so, dass die linke (langsame) Walze bei ihrem Fortschalten stets die mittlere Walze „mitnimmt“.
Dies lässt sich an einem Beispiel illustrieren.
Bei beispielsweise Walzenlage B I II III, Ringstellung 01 01 01 und der Walzenstellung ADU dreht sich der Walzensatz mit dem ersten Tastendruck auf ADV weiter. Das ist eine ganz normale Weiterdrehung nur der rechten Walze, ohne Weiterschaltung der mittleren oder der linken Walze. Nach der bekannten Merkregel „Royal Flags Wave Kings Above“ ist für Walze III mit dem nächsten Tastendruck, also wenn sie von V auf W weiterrotiert, mit einem Übertrag auf die mittlere Walze zu rechnen. Dann wird nicht nur die rechte Walze normal weiterrotieren, sondern gleichzeitig auch die mittlere Walze von D auf E umschalten. Die nächste Walzenstellung ist somit AEW.
Nun jedoch hat die mittlere Walze (hier: Walze II) den Buchstaben erreicht, nämlich E, der nach der Merkregel unmittelbar vor ihrem Umschaltbuchstaben F liegt. Damit ist jetzt der Moment gekommen, zu dem die mittlere Walze ihrerseits einen Übertrag auf die linke Walze bewirkt. Mit dem nächsten Tastendruck wird sich also die linke Walze von A auf B weiterdrehen. Aufgrund der erwähnten konstruktiven Besonderheit führt dieses Weiterdrehen jedoch dazu, dass sie die mittlere Walze mitnimmt und sich diese noch einmal weiterdreht, also von E auf F. Folglich werden mit dem nächsten Tastendruck alle drei Walzen gleichzeitig weitergeschaltet und nach der vorherigen Walzenstellung AEW sind nun unmittelbar die Buchstaben BFX in den Anzeigefenstern der Enigma zu sehen. Nach diesem etwas fremdartig erscheinenden Ereignis kehrt die Maschine wieder in den regulären Fortschaltmodus zurück, bis dann nach 650 Tastendrücken erneut die mittlere Walze den Buchstaben E erreicht.
Anfangsstellung ADU
1. Tastendruck ADV
2. Tastendruck AEW
3. Tastendruck BFX ← Anomalie
4. Tastendruck BFY
In Summe führt dieser durch die Anomalie des Fortschaltmechanismus hervorgerufene Effekt des Doppelschritts der mittleren Walze dazu, dass von den theoretisch möglichen 26³ = 17.576 Walzenstellungen der Enigma I 26² = 676 ausgelassen werden und nur 26·25·26 = 16.900 übrig bleiben.
Authentische Funksprüche.
Mit der Enigma verschlüsselte Nachrichten wurden im Regelfall per Funk übermittelt, nur selten als Fernschreiben oder telefonisch als „Fernspruch“ oder per Signallampe als „Blinkspruch“. Der Verfasser füllte ein Formular mit dem Klartext aus, das vom Verschlüssler als Grundlage für den mithilfe der Enigma-Maschine erzeugten Geheimtext diente. Diesen übertrug er Buchstaben für Buchstaben in ein entsprechendes Funkspruchformular, das wiederum dem Übermittler als Basis diente. Verfasser, Verschlüssler und Übermittler der Nachricht konnten drei verschiedene Personen sein oder auch ein und dieselbe.
Mit dem Zubehör Fernlesegerät konnte beim Empfang zusätzlich Entschlüssler und erster Klartextleser getrennt werden.
Eine Kennzeichnung des Funkspruchs war die „Spruchnummer“. Durch Angabe der Spruchnummer mit blauem oder roten Buntstift auf den Formularen unterschied die Wehrmacht zwischen blauen, „abgegangenen“ Funksprüchen und roten, „angekommenen“ Funksprüchen.
Nur wenige der unzählig vielen während der Zeit des Krieges ausgefüllten Spruchzettel sind erhalten geblieben. Die überwiegende Mehrzahl wurde nach Empfang und Entschlüsselung der Nachrichten vernichtet.
Die Archive der Alliierten, insbesondere des damals weltweit arbeitenden britischen "Y Service" sind eine sehr wichtige Quelle für authentische Enigma-Sprüche. Sie sind bisher jedoch leider nur zu einem kleinen Teil öffentlich zugänglich.
Die unten wiedergegebenen Enigma-Funksprüche stammen aus freien Quellen. Die Geheimtexte sind inzwischen mithilfe moderner kryptanalytischer Methoden und Rechnertechnik entziffert worden.
Es sind keine fiktiven Funksprüche wie sie z. B. der Wettbewerb "Enigma Cipher Challenge" bietet, sondern Originalfunksprüche aus dem Zweiten Weltkrieg. Es ist deshalb durchaus möglich, dass Signalverstümmelungen auftreten. Das bedeutet, dass einige Zeichen nicht korrekt sind oder fehlen. Dies betrifft sowohl die Buchstaben selbst als auch die Buchstabenanzahl. Letztere kann sehr leicht überprüft werden. Dazu ist die Geheimtextlänge zu zählen und mit der im Spruchkopf angegebenen Buchstabenanzahl zu vergleichen. Gründe für in der Praxis kaum vermeidbare Verstümmelungen sind Schreibfehler, Tastfehler, atmosphärische Störungen während der Funkübertragung, Hörfehler oder schlicht Flüchtigkeitsfehler.
Weniger verstümmelt Funksprüche sind einfacher zu knacken.
Filmische Rezeption.
Die Enigma ist in einigen Spielfilmen zu sehen, die vor dem Hintergrund des U‑Boot-Krieges spielen. Im deutschen Kinoklassiker „Das Boot“ wird eine M4 zur Entschlüsselung empfangener Funksprüche gezeigt. Man hört die Stimme von Leutnant Werner sagen „Erst durch die Schlüsselmaschine ergibt sich aus wirren Buchstabenfolgen ganz langsam ein Sinn“, während in Großaufnahme die Enigma im Einsatz zu sehen und auch zu hören ist. Historisch nicht ganz korrekt ist hier die Verwendung einer M4, da sie erst am 1. Februar 1942 in Dienst gestellt wurde, während "das Boot" in Roman und Film seine Feindfahrt im Herbst und frühen Winter des Jahres 1941 durchführt. Somit hätte korrekterweise eine M3 gezeigt werden müssen.
Im amerikanischen Film „U‑571“ wird eine Enigma durch amerikanische Seeleute von einem deutschen U‑Boot erbeutet. Speziell von britischer Seite wurde kritisiert, dass, in Verkennung der geschichtlichen Realität, hier Amerikaner als Helden bei der Erbeutung einer Enigma dargestellt werden, während es in Wirklichkeit Briten waren, denen dies gelang.
Die britisch-amerikanische Gemeinschaftsproduktion „The Imitation Game – Ein streng geheimes Leben“ illustriert das Leben und die Beiträge von Alan Turing als Codeknacker in Bletchley Park. Auch hier spielt die Enigma eine zentrale Rolle. Auf Kosten der historischen Korrektheit werden im Film viele Fakten verdreht oder dramatisch überhöht dargestellt.
Beispielsweise wird Turings Romanze mit seiner Kollegin Joan Clarke intensiver dargestellt als sie tatsächlich war. Turings Nichte Inagh Payne kritisierte das Drehbuch mit den Worten: „You want the film to show it as it was, not a lot of nonsense“ (deutsch: „Man will doch, dass der Film es so darstellt, wie es war, und nicht einen Haufen Unsinn“). Im Film findet Turing heraus, dass Cairncross ein Spion ist. Diesem gelingt es jedoch, Turing mit seiner damals strafbaren Homosexualität zu erpressen. So decken sie gegenseitig das Geheimnis des anderen. Diese Falschdarstellung wurde heftig kritisiert, denn so wird Turing im Film faktisch als „Landesverräter“ dargestellt. Tatsächlich stand er niemals unter diesem Verdacht. Bei aller Sympathie für Überhöhungen aus dramaturgischer Sicht wurde diese Darstellung als Herabwürdigung Turings energisch zurückgewiesen.
Im britischen Spielfilm "Enigma – Das Geheimnis" wird die Entzifferungsarbeit der britischen "Codebreaker" in Bletchley Park thematisiert. Bemerkenswert sind die vielen authentischen Requisiten im Film, bei denen es sich um Original-Schaustücke aus dem Bletchley-Park-Museum handelt. Die diversen Funksprüche sind speziell für den Film nach den Original-Vorschriften und Verfahren wirklichkeitsgetreu erzeugt und verschlüsselt worden.
Gegen Ende des Films entpuppt sich ein polnischer Codeknacker als Verräter, der versucht, das „Enigma-Geheimnis“ an die Deutschen zu verraten. Dies entspricht in zweierlei Hinsicht nicht den historischen Tatsachen. Zum einen gab es – wie bereits dargelegt – keine Verräter in Bletchley Park, die für die Deutschen spioniert hätten. Zum anderen hat dort nicht ein einziger polnischer Kryptoanalytiker mitgearbeitet, denn aus Geheimhaltungsgründen verwehrten die Briten fast allen Ausländern, selbst Marian Rejewski, den Zutritt und erst recht die Mitarbeit.
Somit ist die filmische Darstellung in diesem Punkt historisch verfehlt. Kritisiert wurde insbesondere, ausgerechnet einen Polen im Film als Verräter darzustellen,
obwohl es ja gerade polnische Kryptoanalytiker wie Marian Rejewski, Jerzy Różycki und Henryk Zygalski waren, die bereits vor dem Krieg die entscheidenden Grundlagen für den Einbruch in das Rätsel der Enigma schufen, ohne die es den britischen Codeknackern vermutlich nicht gelungen wäre, deutsche Funksprüche zu entziffern und der Zweite Weltkrieg einen anderen Verlauf genommen hätte.
Chronologie.
Im Folgenden sind einige wichtige Zeitpunkte zur Geschichte der Enigma aufgelistet
(spezielle Zeitpunkte zur Marine-Version siehe M4):
Glossar.
Im Zusammenhang mit der Arbeitsweise der Enigma und deren Kryptanalyse wird die folgende Fachterminologie verwendet:
Weblinks.
Details
Dokumente
Entzifferungen
Exponate
Fotos, Videos und Audios
Nachbauprojekte
Simulationen der Maschine
Simulationen der Verschlüsselung |
1300 | 2773974 | https://de.wikipedia.org/wiki?curid=1300 | Eisenoxid | Eisenoxid steht für: |
1301 | 3710893 | https://de.wikipedia.org/wiki?curid=1301 | Electrically Erasable Programmable Read-Only Memory | Ein EEPROM (engl. Abk. für , wörtlich: "elektrisch löschbarer programmierbarer Nur-Lese-Speicher", auch E2PROM) ist ein nichtflüchtiger, elektronischer Speicherbaustein, dessen gespeicherte Information elektrisch gelöscht werden kann. Er ist verwandt mit anderen löschbaren Speichern, wie dem durch UV-Licht löschbaren EPROMs und dem ebenfalls elektrisch löschbaren Flash-Speicher. Er wird verwendet zur Speicherung kleinerer Datenmengen in elektrischen Geräten, bei denen die Information auch ohne anliegende Versorgungsspannung erhalten bleiben muss oder bei denen einzelne Speicherelemente bzw. Datenworte einfach zu ändern sein müssen. Zur Speicherung größerer Datenmengen wie z. B. dem BIOS in PC-Systemen sind meist Flash-Speicher ökonomischer.
Funktionsweise.
Der Ausdruck „EEPROM“ beschreibt lediglich die Eigenschaften des Speichers, dass dieser nicht-flüchtig ist und allein mit elektrischer Energie gelöscht werden kann (im Gegensatz zu dem nur durch UV-Licht löschbaren EPROM). Der Ausdruck „EEPROM“ umfasst deshalb genau genommen die heute üblicherweise als EEPROM bezeichneten wort- oder byteweise löschbaren Speicher, als auch die neueren blockweise löschbaren Flashspeicher. Da bei letzteren die sonst pro Speicherzelle notwendigen Schreib-, Lese- und Löschtransistoren entfallen können, ist mit ihnen eine deutliche höhere Speicherdichte erreichbar.
Ein EEPROM besteht aus einer Matrix aus Feldeffekttransistoren (FETs) mit isoliertem Steueranschluss (Floating Gate), in der jeder dieser FETs ein Bit repräsentiert. Beim Programmiervorgang wird auf das Floating Gate eine Ladung eingebracht, die nur durch den Löschvorgang wieder entfernt werden kann. Im Normalbetrieb bleibt die Ladung auf dem vollständig isolierten Gate erhalten.
Bei (UV-löschbaren) EPROMs wird beim Schreiben die Ladung durch Injektion heißer Ladungsträger (engl. , HCI) auf das Gate gebracht und kann nur durch Bestrahlung mit UV-Licht wieder entfernt werden.
Bei EEPROMs wird sowohl beim Schreiben als auch Löschen die Ladung durch Fowler-Nordheim-Tunneln auf das isolierte Gate aufgebracht bzw. von diesem entfernt.
Beim Flash-Speicher hingegen wird die Ladung beim Schreiben durch HCI auf das Gate aufgebracht und beim Löschen durch Fowler-Nordheim-Tunneln wieder entfernt.
Zum Programmieren des EEPROMs wird ein hoher Spannungspuls an das Control Gate gelegt, wobei ein Tunnelstrom von diesem durch das isolierende Dielektrikum auf das Floating Gate fließt. Diese hohe Spannung musste bei EPROMs von außen an den Speicherbaustein angelegt werden, während sie beim EEPROM, und auch bei den Flash-Speichern, baustein-intern erzeugt wird.
Nach dem Schreiben des Speichers, d. h. dem selektiven Aufbringen von Ladung auf die Floating Gates, werden die geschriebenen Daten durch ein Bitmuster geladener/ungeladener Gates repräsentiert. Diese Daten lassen sich nun über die Drain-Source-Anschlüsse der Transistoren beliebig oft auslesen, wobei die normale Betriebsspannung beim Lesen weit unterhalb der Programmierspannung liegt. Die Anzahl der möglichen Schreibvorgänge der einzelnen Speicherzellen ist allerdings begrenzt, die Hersteller garantieren üblicherweise einige 10.000 bis über 1.000.000 Schreibzyklen. Dieses wird zum Teil durch redundante Speicherzellen erreicht.
Anwendungsgebiete.
EEPROMs können im Unterschied zu Flash-EEPROMs byteweise beschrieben und gelöscht werden. Im Vergleich zu Flash-EEPROMs, die zwischen 1 μs und 1 ms für einen Schreibzyklus benötigen, sind herkömmliche EEPROMs mit 1 ms bis 10 ms erheblich langsamer. EEPROMs verwendet man deshalb bevorzugt, wenn einzelne Datenbytes in größeren Zeitabständen verändert und netzausfallsicher gespeichert werden müssen, wie zum Beispiel bei Konfigurationsdaten oder Betriebsstundenzählern.
Als Ersatz für die früher als Programm- oder Tabellenspeicher dienenden ROMs oder EPROMs eignete sich das EEPROM aufgrund der deutlich höheren Herstellungskosten nicht, diese Rolle wurde später durch die Flash-Speicher übernommen. Die höheren Kosten der EEPROM-Technologie führten dazu, dass zunächst eigenständige EEPROM-Bausteine zumeist über ein serielles Interface an die Mikrocontroller angeschlossen wurden. Später wurden dann bei etlichen Mikrocontrollern auch On-Chip-EEPROMs angeboten. Da Mikrocontroller heute meist sowieso in robusten Flashtechnologien hergestellt werden, die ein häufigeres Löschen und Programmieren erlauben, kann meist auch ein Bereich des Flash-Speichers für veränderliche Daten verwendet werden. Dazu wird ein Teilbereich des Flashspeichers reserviert und z. T. mit speziellen Algorithmen beschrieben und gelesen. Dabei muss ein Block ("Page") vor der Löschung, ebenso wie der gesamte reservierte Bereich, erst komplett ausgenutzt sein, bevor er neu beschrieben wird. Dieses Verfahren macht in vielen Fällen das EEPROM in Mikrocontrollern überflüssig.
Allerdings lässt sich ein EEPROM nicht in allen Anwendungen durch Flash ersetzen:
Zum einen ist es z. Z. noch nicht möglich, Flash über einen so weiten Temperaturbereich wie EEPROMs zuverlässig zu beschreiben. Allerdings macht hier die Prozesstechnik Fortschritte und Temperaturkompensation beim Schreiben verbessert das Verhalten.
Zum anderen kann es in bestimmten Anwendungen problematisch sein, wenn eine Page gelöscht werden soll,
aber wegen der EEPROM-Emulation mittels Flash nicht sofort gelöscht werden kann, und es damit nicht feststeht, wann die Page gelöscht werden wird (was aber umgangen werden könnte, indem die Page eben, wenn sie gelöscht werden soll, zuerst absichtlich / gezielt vollgeschrieben wird).
Neben Bausteinen mit parallel herausgeführten Adress- und Datenbussen gibt es auch EEPROMs in Gehäusen mit z. B. nur 8 Anschlüssen, bei denen Adressen und Daten über einen seriellen Bus wie I²C ausgetauscht werden. Derartige EEPROMs werden z. B. auf SDRAM-Modulen vom Hersteller zur Speicherung von Produktparametern verwendet, die dann von der CPU ausgelesen werden können. Mit dieser Information im SPD-EEPROM können die Speichermodule im PC dann automatisch konfiguriert werden.
Ausfallerscheinungen und Lebensdauer.
In EEPROMs gespeicherte Daten können von drei Arten von Ausfallerscheinungen betroffen sein:
In der Oxidschicht des Gates der in EEPROMs eingesetzten Floating-Gate-Transistoren sammeln sich eingefangene Elektronen an. Das elektrische Feld der eingefangenen Elektronen summiert sich zu dem Feld des "Floating Gates" und schmälert so das Fenster zwischen den Schwellenspannungen, die für die Speicherzustände Eins bzw. Null stehen. Nach einer bestimmten Anzahl von Schreibvorgängen wird die Differenz zu klein, um unterscheidbar zu bleiben, und die Speicherstelle bleibt dauerhaft auf dem programmierten Wert stehen. Hersteller geben üblicherweise die maximale Anzahl von Schreibvorgängen mit 106 oder mehr an.
Die während der Speicherung in das "Floating Gate" eingebrachten Elektronen können durch die Isolierschicht lecken, dies vor allem bei erhöhten Temperaturen (z. B. 170…180 °C), dadurch einen Verlust des Ladungszustands verursachen und die Speicherstelle so in den gelöschten Zustand zurückversetzen. Hersteller gewährleisten üblicherweise die Beständigkeit gespeicherter Daten für einen Zeitraum von 10 Jahren.
Beim Beschreiben von Speicherzellen wird der Inhalt benachbarter Zellen dann verändert, wenn nach der letzten Änderung der Nachbarzelle insgesamt eine Anzahl von Schreibvorgängen auf dem Chip erfolgte (z. B. Zelle 0x0000 geändert, Zelle 0x0001 aktuell nicht geändert und nach der letzten Änderung von 0x0001 bisher an beliebiger Stelle insgesamt 1 Mio. Schreibvorgänge insgesamt dadurch dann Gefahr von Datenverlust auf Zelle 0x0001). Somit kann die Angabe für „write disturb“ zehnmal größer sein als die Angabe für „byte endurance“. Kurz bevor „write disturb“ erreicht wird, sollte ein Refresh des gesamten EEPROM erfolgen. Es wird jede Speicherzelle einzeln gelesen und neu beschrieben. Möglich ist auch, erst zu lesen dann zu löschen und danach neu zu schreiben. |
1302 | 568 | https://de.wikipedia.org/wiki?curid=1302 | Elektrotechnik | Elektrotechnik ist eine Ingenieurwissenschaft, die sich mit der Forschung und der Entwicklung sowie der Produktion, dem Zusammenbau und der Instandhaltung von Elektrogeräten und elektrischen Anlagen befasst, die zumindest anteilig auf elektrischer Energie beruhen. Hierzu gehören als Beispiel der Bereich der Wandler, die elektrischen Maschinen und Bauelemente sowie Schaltungen für die Steuer-, Mess-, Regelungs-, Nachrichten-, Geräte- und Rechnertechnik bis hin zur technischen Informatik, Elektroinstallation und Energietechnik.
Hauptgebiete.
In unserer heutigen Zivilisation werden fast alle Abläufe und Einrichtungen elektrisch betrieben oder laufen unter wesentlicher Beteiligung elektrischer Geräte und Steuerungen. Eine der Eigenschaften von Elektrizität ist, dass Elektrizität sowohl für die Energieübertragung als auch für die Informationsübertragung sehr nützlich ist, weshalb sich die Elektrotechnik zuerst in diesen beiden Bereichen bemerkenswert entwickelte. Die klassische Einteilung der Elektrotechnik war deshalb die Starkstromtechnik, die heute in der elektrischen Energietechnik und der Antriebstechnik ihren Niederschlag findet, und die Schwachstromtechnik, die sich zur Nachrichtentechnik formierte. Als weitere Gebiete kamen die elektrische Messtechnik und die Automatisierungstechnik sowie die Elektronik hinzu. Die Grenzen zwischen den einzelnen Bereichen sind dabei vielfach fließend. Viele Berufstätige im Bereich Elektrotechnik arbeiten und spezialisieren sich ausschließlich in einem dieser Hauptgebiete, jedoch auch viele benötigen Kenntnisse aller Hauptgebiete. Mit zunehmender Verbreitung der Anwendungen ergaben sich zahllose weitere Spezialisierungsgebiete.
Theoretische Elektrotechnik.
Die Basis der Theorie und Bindeglied zur Physik der Elektrotechnik sind die Erkenntnisse aus der Elektrizitätslehre. Die Theorie der Schaltungen befasst sich mit den Methoden der Analyse von Schaltungen aus passiven Bauelementen. In der theoretischen Elektrotechnik wird unterschieden zwischen Elektrostatik und Elektrodynamik, letzteres als Beispiel die Theorie der Felder und Wellen, baut auf den Maxwell-Gleichungen und der Lorentzkraft auf. Wer sein theoretisches Grundlagenwissen noch über das Elektrotechnikstudium hinaus vertiefen möchte, kann dies mit der Quantenelektrodynamik und der Elektroschwachen Wechselwirkung tun. Ein Wissen, das zurzeit in der praktischen Elektrotechnik jedoch kaum oder nur sehr selten eine Rolle spielt und eher dem Bereich der Grundlagenforschung und den Fachgebieten Theoretische Physik und Experimentalphysik zuzuordnen ist.
Elektrische Energietechnik.
Die elektrische Energietechnik (früher Starkstromtechnik) befasst sich mit der Gewinnung, Übertragung und Umformung elektrischer Energie mit hoher elektrischer Leistung sowie auch der Hochspannungstechnik. Elektrische Energie wird in den meisten Fällen durch Wandlung aus mechanisch-rotatorischer Energie mittels Generatoren gewonnen. Zur klassischen Starkstromtechnik gehören außerdem der Bereich der Verbraucher elektrischer Energie sowie die Antriebstechnik. Zu dem Bereich der Übertragung elektrischer Energie im Bereich der Niederspannung zählt auch der Themenbereich der Elektroinstallationen, wie sie unter anderem vielfältig im Haushalt zu finden sind.
Klassische Teilgebiete oder Unterrichtsfächer
Elektrische Antriebstechnik.
Die Antriebstechnik, früher ebenfalls als „Starkstromtechnik“ betrachtet, setzt elektrische Energie mittels elektrischer Maschinen in mechanische Energie um. Klassische elektrische Maschinen sind Synchron-, Asynchron- und Gleichstrommaschinen, wobei vor allem im Bereich der Kleinantriebe viele weitere Typen bestehen. Aktueller ist die Entwicklung der Linearmotoren, die elektrische Energie ohne den „Umweg“ über die Rotation direkt in mechanisch-lineare Bewegung umsetzen. Die Antriebstechnik spielt eine große Rolle in der Automatisierungstechnik, da hier oft eine Vielzahl von Bewegungen mit elektrischen Antrieben zu realisieren sind. Für die Antriebstechnik wiederum spielt Elektronik eine große Rolle, zum einen für die Steuerung und Regelung der Antriebe, zum anderen werden Kinetische Antriebe oft mittels Leistungselektronik mit elektrischer Energie versorgt. Auch hat sich der Bereich der Lastspitzenreduzierung und Energieoptimierung im Bereich der Elektrotechnik erheblich weiterentwickelt.
Klassische Teilgebiete oder Unterrichtsfächer
Nachrichtentechnik.
Mit Hilfe der Nachrichtentechnik, auch "Informations- und Kommunikationstechnik" oder "Telekommunikation" (früher Schwachstromtechnik) genannt, werden Signale durch elektrische Leitung oder mit elektromagnetischen Wellen als Informationsträger von einer Informationsquelle (dem Sender) zu einem oder mehreren Empfängern (der Informationssenke) übertragen. Dabei kommt es darauf an, die Informationen so verlustarm zu übertragen, dass sie beim Empfänger erkannt werden können (siehe auch Hochfrequenztechnik, Amateurfunk). Wichtiger Aspekt der Nachrichtentechnik ist die Signalverarbeitung, zum Beispiel mittels Filterung, Kodierung oder Dekodierung.
Klassische Teilgebiete oder Unterrichtsfächer
Elektronik, Mikroelektronik und Nanoelektronik.
Die Elektronik befasst sich mit der Entwicklung, Fertigung und Anwendung von elektronischen Bauelementen wie zum Beispiel Spulen oder Halbleiterbauelementen wie Dioden und Transistoren. Die Anwendungen werden im Allgemeinen praktisch auf Leiterplatten mit der Leiterplattenbestückung realisiert.
Die Digitaltechnik lässt sich insoweit der Elektronik zuordnen, als die klassische Logikschaltung aus Transistoren aufgebaut ist. Andererseits ist die Digitaltechnik auch Grundlage vieler Steuerungen und damit für die Automatisierungstechnik bedeutsam. Die Theorie ließe sich auch der theoretischen Elektrotechnik zuordnen.
Die Entwicklung der Leistungshalbleiter (Leistungselektronik) spielt in der Antriebstechnik eine immer größer werdende Rolle, da Frequenzumrichter die elektrische Energie wesentlich flexibler bereitstellen können, als es beispielsweise mit Transformatoren möglich ist.
Die Mikroelektronik beschäftigt sich mit der Entwicklung und Herstellung integrierter Schaltkreise. In einigen Bereichen der Halbleiterindustrie und Halbleitertechnik wurde die 100-Nanometer-Grenze unterschritten, so spricht man hier bereits formal von Nanoelektronik.
Klassische Teilgebiete oder Unterrichtsfächer
Automatisierungstechnik.
In der Automatisierungstechnik werden mittels Methoden der Mess-, Steuerungs- und Regelungstechnik (zusammenfassend MSR-Technik genannt) einzelne Arbeitsschritte eines Prozesses automatisiert bzw. überwacht. Heute wird üblicherweise die MSR-Technik durch Digitaltechnik gestützt. Eines der Kerngebiete der Automatisierungstechnik ist die Regelungstechnik. Regelungen sind in vielen technischen Systemen enthalten. Beispiele sind die Regelung von Industrierobotern, Autopiloten in Flugzeugen und Schiffen, Drehzahlregelungen in Motoren, die Stabilitätskontrolle (ESP) in Automobilen, die Lageregelung von Raketen und die Prozessregelungen für Chemieanlagen. Einfache Beispiele des Alltags sind die Temperaturregelungen zusammen mit Steuerungen in vielen Konsumgütern wie Bügeleisen, Kühlschränken, Waschmaschinen und Kaffeeautomaten (siehe auch Sensortechnik).
Klassische Teilgebiete oder Unterrichtsfächer
Neu entstehende Spezialisierungsgebiete.
Gebäudetechnik.
Gebräuchlich sind ebenfalls die Begriffe Technische Gebäudeausrüstung (TGA) oder Versorgungstechnik mit Schwerpunkt Elektrotechnik. In Gebäuden sorgen Elektroinstallationen sowohl für die leitungsgebundene Verteilung elektrischer Energie als auch für die Nutzungsmöglichkeit von Kommunikationsmitteln (Klingeln, Sprechanlagen, Telefone, Fernsehgeräte, Satellitenempfangsanlagen und Netzwerkkomponenten). Neben der leitungsgebundenen Informationsverteilung kommt verstärkt Funkübertragung (DECT, WLAN) zum Einsatz. Die Gebäudeautomation nutzt Komponenten der Mess-, Steuerungs- und Regelungstechnik in Gebäuden, um den Einsatz elektrischer und thermischer Energie zu optimieren, beispielsweise im Bereich der Beleuchtungs-, Klima- und Belüftungstechnik. Im Rahmen der Gebäudeautomation finden zudem verschiedenste Systeme für Gebäudesicherheit Verwendung.
Medizintechnik.
Elektrotechnik-Medizintechnik Studiengänge werden an immer mehr Hochschulen angeboten. Durch die innovativen technischen Entwicklungen im Bereich der Medizin, werden in Krankenhäusern oder in Medizintechnik -Firmen und -Betrieben immer mehr spezialisierte Elektriker, Elektrotechniker und Ingenieure benötigt.
Bereiche wären beispielsweise Myoelektrik, Elektronik künstlicher Organe, Robotik-Prothesen, Bioprinter, HF-Chirurgie, Laserchirurgie, Roboterchirurgie, Röntgenapparate, Sonografie, Magnetresonanztomographie, Optische Kohärenztomografie, Nuklearmedizin, Herz-Lungen-Maschinen, Dialysegeräte, Spezielle Anforderungen der Krankenhaustechnik.
Computer-, Halbleiter- und Gerätetechnik.
Die elektronische Gerätetechnik, auch "Elektronische Systeme" genannt, entstand aus dem Hauptgebiet Elektronik und befasst sich mit der Entwicklung und Herstellung elektronischer Baugruppen und Geräte. Sie beinhaltet damit den Entwurf und die anschließende konstruktive Gestaltung elektronischer Systeme (Verdrahtungsträger, Baugruppen, Elektrogeräte) und bedient sich dabei der Halbleitertechnik und der Rechnertechnik. Vor allem im Bereich Computerhardware, Haushaltsgeräte, Informationstechnik und Unterhaltungselektronik besteht großer Bedarf.
Geschichte, bedeutende Entwicklungen und Personen.
Altertum.
Das Phänomen, dass bestimmte Fischarten (wie beispielsweise Zitterrochen oder Zitteraale) elektrische Spannungen erzeugen können (mit Hilfe des Elektroplax), war im alten Ägypten um 2750 v. Chr. bekannt.
Die meteorologische Erscheinung der Gewitterblitze begleitet die Menschheit schon immer. Die Deutung, dass die Trennung elektrischer Ladungen innerhalb der Atmosphäre in Gewittern dieses Phänomen verursacht, erfolgte jedoch erst in der Neuzeit. Elektrostatische Phänomene waren allerdings schon im Altertum bekannt. Die erste Kenntnis über den Effekt der Reibungselektrizität etwa 550 v. Chr. wird dem Naturphilosophen Thales von Milet zugeschrieben. In trockener Umgebung kann Bernstein durch Reiben an textilem Gewebe (Baumwolle, Seide) oder Wolle elektrostatisch aufgeladen werden. Was zu jener Zeit aber noch nicht bekannt war, ist, dass durch Aufnahme von Elektronen Bernstein eine negative Ladung erhält, das Reibmaterial durch Abgabe von Elektronen dagegen eine positive Ladung. Durch die "Naturalis historia" von Plinius dem Älteren wurde das durch diese Experimente beobachtete Wissen bis ins Spätmittelalter überliefert.
Ausbildung, Fortbildung und Studium.
Fortbildung.
Eine Fortbildung zum Elektromeister findet an einer Meisterschule statt und dauert 1 Jahr Vollzeit bzw. 2 Jahre berufsbegleitend.
Eine Fortbildung zum Elektrotechniker kann an einer Technikerschule in zwei Jahren Vollzeit bzw. vier Jahren berufsbegleitend absolviert werden. Im Ausland, wie zum Beispiel in Frankreich, kann an einer Technikerschule nach der Fortbildung zum Elektrotechniker ein höherer Technikerabschluss () in zwei weiteren Jahren Vollzeit an einer Technikerschule absolviert werden.
Studienfach.
Der Studiengang Elektrotechnik wurde weltweit erstmals im Januar 1883 an der Technischen Hochschule Darmstadt von Erasmus Kittler eingerichtet. Der Studienplan sah ein vierjähriges Studium mit Abschlussprüfung (zum Diplom-Elektrotechnikingenieur) vor. Elektrotechnik wird mittlerweile an vielen Universitäten, Fachhochschulen und Berufsakademien als Studiengang angeboten. An Universitäten wird während des Studiums die wissenschaftliche Arbeit betont, an Fachhochschulen und Berufsakademien steht die Anwendung physikalischer Kenntnisse im Vordergrund.
Anzahl der Studierenden in Deutschland.
Das Studienfach Elektrotechnik war im Jahre 2020 sehr beliebt, denn es lag bei der Anzahl der Studierenden auf Platz 12. Laut dem statistischem Bundesamt waren zum Wintersemester 2020/2021 an deutschen Hochschulen insgesamt 66.255 Studierende im Studienfach Elektrotechnik/Elektronik eingeschrieben. Als Vergleich mit den höchst belegten Studienfächer mit über 25.000 Studierenden: Englisch 48.766. Architektur 40.219. Bauingenieurwesen 57.611. Betriebswirtschaftslehre 243.000. Biologie 54.957. Chemie 43.826. Erziehungswissenschaft 61.853. Germanistik 69.256. Geschichte 34.523. Gesundheitsmanagement 39.823. Informatik 133.765. Internationales Management 50.959. Maschinenbau 100.256. Mathematik 58.593. Medizin 101.712. Physik 50.147. Politikwissenschaft 32.602. Psychologie 100.775. Rechtswissenschaft 119.285. Soziale Arbeit 72.597. Sozialwesen 26.258. Wirtschaftsinformatik 66.722. Wirtschaftsingenieurwesen 103.950. Wirtschaftswissenschaften 89.476.
Grundlagenstudium.
Die ersten Semester eines Elektrotechnik-Studiums sind durch die Lehrveranstaltungen "Grundlagen der Elektrotechnik", Physik und Höhere Mathematik geprägt. In den Lehrveranstaltungen "Grundlagen der Elektrotechnik" werden die physikalischen Grundlagen der Elektrotechnik vermittelt. Diese Elektrizitätslehre umfasst die Themen:
Weitere Grundlagenfächer sind Elektrische Messtechnik, Digitaltechnik, Elektronik sowie Netzwerk- und Systemtheorie. Aufgrund der Interdisziplinarität und der engen Verflechtung mit der Informatik ist auch Programmierung Teil eines Elektrotechnik-Studiums. Belegen die Programmierung und die Informationstechnik einen großen Anteil im Stundenplan wird das Studium sehr oft Elektro- und Informationstechnik genannt.
Vertiefungsrichtung bzw. Spezialisierung.
In den höheren Semestern des Bachelor- und Masterstudiums können Schwerpunkte gesetzt werden. In manchen Studiengängen sind Vertiefungsfächer aus einem breiten Katalog frei wählbar oder die Vertiefungsrichtung ist wählbar oder bereits festgelegt. Als Vertiefungsfächer bzw. Vertiefungsrichtung finden sich klassisch beispielsweise die Elektrische Energietechnik, Nachrichtentechnik, Elektronik, Automatisierungstechnik und Mess-, Steuerungs- und Regelungstechnik (MSR), Antriebstechnik. Neuartige Spezialisierungen sind beispielsweise Elektronische Systeme und Mikroelektronik, Erneuerbare Energien, Technische Gebäudeausrüstung (TGA), Medizintechnik.
Studiengänge die in einer Kombination zweier in der Praxis sehr nahestehenden Vertiefungsrichtungen spezialisieren werden ebenfalls angeboten, wie beispielsweise Energie- und Automatisierungstechnik, Energie- und Antriebstechnik, Nachrichtentechnik und Elektronische Systeme, Medizintechnik und Elektronische Systeme, Energietechnik und Erneuerbare Energien.
Interdisziplinäre Pflicht- und Wahlpflichtfächer.
Da der Beruf des Elektroingenieurs sehr oft auch interdisziplinäre Kenntnisse erfordert, so müssen, je nach Hochschule, auch Pflicht- und Wahlpflichtfächer wie beispielsweise Werkstoffkunde, Betriebswirtschaftslehre, Englisch, Technische Mechanik, Technisches Zeichnen, Patentrecht, Arbeitsschutz, Arbeitsrecht, Kommunikation bestanden werden.
Akademische Titel.
Der jahrzehntelang von den Hochschulen verliehene akademische Grad "Diplom-Ingenieur" (Dipl.-Ing. bzw. Dipl.-Ing. (FH)) wurde aufgrund des Bologna-Prozesses durch ein zweistufiges System berufsqualifizierender Studienabschlüsse (typischerweise in der Form von Bachelor und Master) größtenteils ersetzt. Der Bachelor (Bachelor of Engineering oder Bachelor of Science) ist ein erster berufsqualifizierender akademischer Grad, der je nach Prüfungsordnung des jeweiligen Fachbereichs nach einer Studienzeit von 6 bzw. 7 Semestern erworben werden kann. Dieser erste akademische Grad befähigt, den rechtlich geschützten Titel „Ingenieur“ oder „Elektroingenieur“ tragen zu dürfen. Nach einer weiteren Studienzeit von 4 bzw. 3 Semestern kann der Master als zweiter akademischer Grad (Master of Engineering oder Master of Science) erlangt werden.
Der Doktoringenieur (Dr.-Ing.) ist der höchste akademische Grad, der im Anschluss an ein abgeschlossenes Masterstudium im Rahmen einer Assistenzpromotion oder in einer Graduate School erreicht werden kann. Die Ingenieur-Ehrendoktorwürde (Dr.-Ing. E. h.) kann von Universitäten für besondere akademische oder wissenschaftliche Verdienste an Akademiker oder Nichtakademiker verliehen werden, beispielsweise 1911 von der Technischen Universität Darmstadt an Michail Ossipowitsch Doliwo-Dobrowolski.
Weitere im Ausland anerkannte akademische Titel.
Neben den Hochschulabschlüssen Bachelor, Master und Ph.D, sind in den USA, Kanada, Australien, Hongkong und Niederlande noch das Hochschulstudium "Associate Degree" mit einer Regelstudienzeit von zwei Jahren anerkannt, wie zum Beispiel im Bereich Elektrotechnik das AET oder der erworbene Titel "Electrical Engineering technician" (franz. "Ingénieur-technicien en électrotechnique"). Das Associate-Degree gilt in den gelisteten Ländern als akademischer Grad, ist aber in anderen Ländern, besonders in Europa, meistens nicht als Hochschulabschluss bzw. akademischer Grad anerkannt.
Lehramt.
An einigen Hochschulen kann der Bachelor-Studiengang "Elektro- und Informationstechnik" in sieben Semestern mit anschließendem dreisemestrigem Master-Studiengang "Master für Berufliche Bildung" studiert werden. Mit diesem Master-Abschluss und nach weiteren 1,5 Jahren Referendariatszeit besteht die Möglichkeit, eine berufliche Tätigkeit als Gewerbelehrer (höherer Dienst) an einer Berufsschule zu finden.
Interdisziplinäres Studium.
Studien die Elektrotechnik mit einer oder mehreren Fachdisziplinen kombinieren gibt es. Die Studien Maschinenbau-Elektrotechnik, Mechatronik, Robotik, Versorgungstechnik und Wirtschaftsingenieurwesen-Elektrotechnik können hier als klassische Beispiele genannt werden. |
1303 | 530688 | https://de.wikipedia.org/wiki?curid=1303 | Elektronik | Die Elektronik ist ein Teilgebiet der Elektrotechnik. Sie ist die Wissenschaft und Technik von der Steuerung des elektrischen Stromes durch elektronische Schaltungen – das sind Schaltungen, in denen mindestens ein aktives Bauelement (zum Beispiel eine Vakuumröhre oder ein Halbleiter-Bauelement) arbeitet.
Aktive elektronische Bauelemente verhalten sich prinzipiell hinsichtlich ihrer Kennlinie nichtlinear, während sich passive elektrische und elektronische Bauelemente meist eher linear verhalten. Elektronik befasst sich auch mit dem Entwurf, der Konstruktion und dem Funktionsprinzip elektronischer Bauelemente. Die Mikroelektronik umfasst integrierte Schaltkreise, deren Strukturgrößen im Mikrometer- und Nanometerbereich liegt und die zunehmend diskret (das heißt, aus einzelnen aktiven und passiven Elementen) aufgebaute elektronische Schaltungen ablösen. Dessen ungeachtet findet eine zunehmende Miniaturisierung der Bauteile und Baugruppen statt.
Elektronik erzeugt und verarbeitet elektrische Signale (Informationsverarbeitung, Signalverstärkung und -konditionierung, früher als Schwachstromtechnik bezeichnet). Leistungselektronik wandelt elektrische Energie hinsichtlich ihre Spannung, ihres Stromes oder ihrer Schwingungsform und -frequenz.
Die Elektronik verwendet vorrangig Transistoren, Dioden sowie passive Bauelemente wie Kondensatoren und Widerstände.
Elektronische Schaltungen werden meist auf Leiterplatten aufgebaut (Leiterplattenbestückung) und zu elektronischen Baugruppen, Geräten und Apparaten zusammengebaut.
Die Optoelektronik ist ein Teilgebiet der Elektronik und erzeugt, verwendet und detektiert Licht im Zusammenhang mit der Funktion einer elektronischen Schaltung.
Wortbildung.
Der Begriff Elektronik leitet sich von dem griechischen Wort "elektron" (ἤλεκτρον) ab, das Bernstein bedeutet. Elektronik ist ein Kofferwort, das aus den Begriffen "Elektron" (dem Elementarteilchen) und "Technik" zusammengefügt wurde. Die Elektronik ist sozusagen die "Elektronen-Technik."
Geschichte.
1873 entdeckte Willoughby Smith, dass Selen in der Lage ist, bei Licht zu leiten (Photoeffekt). Auf diese Erkenntnis hin entdeckte Karl Ferdinand Braun 1874 den Gleichrichtereffekt. Stoney und Helmholtz prägten den Begriff des Elektrons als Träger des elektrischen Stroms. 1883 erhielt Thomas Alva Edison ein Patent auf einen Gleichspannungsregler, der auf der Glühemission (dem Edison-Richardson-Effekt) beruhte, einer Voraussetzung für alle Vakuumröhren. 1897 begann die Entwicklung der Braunschen Röhre durch Karl Ferdinand Braun. Im Jahre 1899 begann daraufhin die Entwicklung der Spitzendiode. 1904 erlangte John Ambrose Fleming ein Patent auf eine Vakuumdiode.
Zu Beginn des 20. Jahrhunderts war die Entwicklung von Elektronenröhren bereits fortgeschritten. Die ersten Elektronenröhren wurden entwickelt und bereits in elektrischen Schaltungen genutzt. Mit der Triode stand zum ersten Mal ein brauchbares Bauelement zum Aufbau von Verstärkern zur Verfügung. Dadurch wurden Erfindungen wie Rundfunk, Fernsehen und Radar möglich.
Im Jahr 1948 wurde der erste Transistor vorgestellt. Transistoren können wie Röhren als Verstärker, elektronische Schalter oder als Oszillator eingesetzt werden. Jedoch lassen sich Transistoren im Gegensatz zu Vakuumröhren, die sehr viel Raum und elektrische Leistung brauchen, sehr klein fertigen, denn sie basieren auf Halbleitertechnik, wodurch sehr viel höhere Stromdichten möglich sind.
In den 1960er Jahren gelang die Fertigung von kompletten, aus mehreren Transistoren und weiteren Bauelementen bestehenden Schaltungen auf einem einzigen Siliziumkristall. Die dadurch eingeleitete Technik der integrierten Schaltkreise (kurz IC von engl. ) hat seitdem zu einer stetigen Miniaturisierung geführt. Heute ist die Halbleiterelektronik der wichtigste Zweig der Elektronik.
Als Schlüsseltechnologie für die Zukunft wird zuweilen die Polytronik gesehen. Sie bezeichnet die Zusammenführung kunststoffbasierter Systemfunktionen zu der Vision „intelligentes Plastik“.
Bauelemente.
Zu den wichtigen Bauelementen zählen Widerstand, Kondensator, Transistor, Diode, Spule und die Integrierte Schaltung (kurz IC). Alle diese Bauelemente werden in einer großen Typenvielfalt angeboten. Eine Bauteil-variante ist die SMD-Bauelemente, die durch ihre meistens sehr kompakte Bauform, direkt an der Oberfläche der Leiterplatte angelötet werden.
Man spricht von "passiven Bauelementen," wenn primär Widerstände, Kondensatoren und Induktivitäten gemeint sind. Unter den "aktiven Bauelementen" werden meist alle Arten von integrierten Schaltungen, Halbleiterbauelementen und Elektronenröhren verstanden.
Durch die exakt berechnete Zuordnung der logisch miteinander arbeitenden elektronischen Bauteile auf einer Platine entsteht ein elektronischer Schaltkreis.
Ein selbständig und logisch arbeitender Rechnen-Operator-Chip ist der moderne Prozessor, der nicht nur auf dem Mainboard eines Computers zu finden ist, sondern ein Bestandteil moderner Industrie- und Fahrzeugtechnik ist.
Entwurf von Leiterplatten und integrierter Schaltkreise.
„Entwurfsautomatisierung elektronischer Systeme“ ist die deutsche Bezeichnung rechnergestützter Hilfsmittel für den Entwurf von elektronischen Systemen, insbesondere der Mikroelektronik. Im Englischen wird dies „Electronic Design Automation“ genannt (abgekürzt EDA). EDA wird zumeist als Teilgebiet des "computer-aided design" (CAD) bzw. des "computer-aided engineering" (CAE) verstanden. Alternativ wird anstelle von EDA auch von ECAD ("electronic CAD") gesprochen.
Analogtechnik.
Die Analogtechnik beschäftigt sich vor allem mit der Verarbeitung von stetigen Signalen. Man nutzt dabei die physikalischen Gesetze aus, die das Verhalten der Bauelemente (Widerstände, Kondensatoren, Transistoren, Röhren usw.) beschreiben.
Grundschaltungen sind zum Beispiel Stromquellen, Stromspiegel, Differenzverstärker, Kaskaden oder die Bandabstandsreferenz. Es lassen sich z. B. Verstärker, Operationsverstärker, Oszillatoren, Filter usw. aufbauen. Mit Operationsverstärker-Schaltungen lassen sich mathematische Operationen ausführen (zum Beispiel Subtraktion, Addition, Integration, Differentiation) oder strenge Frequenzfilter bauen. Auch Diskriminatoren sind der Analogtechnik zuzuordnen.
Früher löste man Differentialgleichungen mit Analogrechnern.
Die Analogtechnik bildet prinzipiell die Grundlage der Digitaltechnik. Diese ersetzt zunehmend die Analoge Signalverarbeitung, da sie weniger benachteiligt ist durch Bauteiltoleranzen und Signalstörungen.
Digitaltechnik.
Die Digitaltechnik beschäftigt sich mit der Verarbeitung von diskreten Signalen (ausgedrückt als Zahlen oder logische Werte). Die Diskretisierung betrifft dabei immer den Wertebereich und oft auch zusätzlich das zeitliche Verhalten. In der Praxis beschränkt man sich auf zweiwertige Systeme, d. h.: Spannungen oder Ströme sollen – abgesehen von Übergangsvorgängen – nur zwei Werte annehmen (an/aus, 1 oder 0, auch "high/low," kurz H/L). Die Änderung der Werte kann bei zeitdiskreten Systemen nur zu bestimmten, meist äquidistanten Zeitpunkten stattfinden, die ein Takt vorgibt. Analog-Digital-Umsetzer setzen analoge Signale in Digitalsignale um. Transistoren werden in der Digitaltechnik als Schaltverstärker, zur Signalverknüpfung und als Speicherzelle eingesetzt.
Die Digitalisierung der Analogsignalverarbeitung (DSP) geht auf Kosten des Bauteilaufwandes. Ist z. B. eine analoge Schaltung mit einem Fehler von 0,1 % behaftet, so kann dieser Fehler ab ca. 10 Bit Datenbreite von digitalen Schaltungen unterboten werden (210 = 1024). Ein analoger Multiplizierer benötigt etwa zwanzig Transistoren, ein digitaler Multiplizierer mit derselben Genauigkeit mehr als die zwanzigfache Anzahl. Der Aufwand wächst durch die Digitalisierung also zunächst an, was aber durch die immer weiter vorangetriebene Miniaturisierung mehr als kompensiert wird. Auf einem integrierten Schaltkreis kann eine sehr große Menge von Transistoren realisiert werden (zum Beispiel 10 Millionen). Deren Parameter dürfen jedoch ohne Funktionsverlust in erheblichem Maße variieren, wodurch wiederum der Kosten- und Flächen-Aufwand sinkt. Die Eigenschaften der Schaltung werden also weitgehend von den physikalischen Eigenschaften der Bauelemente entkoppelt.
Die vereinfachte Beschreibung digitaler Schaltungen mit den zwei Zuständen H und L reicht vor allem bei immer höheren Geschwindigkeiten und Frequenzen nicht immer aus, um sie zu charakterisieren oder zu entwerfen. Im Grenzfall befindet sich die Schaltung den überwiegenden Teil der Zeit im Übergang zwischen den beiden logisch definierten Zuständen. Daher müssen in solchen Fällen oft zunehmend analoge und hochfrequenztechnische Aspekte berücksichtigt werden. Auch die Metastabilität von Flipflops kann zu Jitter und Ungenauigkeiten führen.
Logikschaltungen.
Digitale Schaltungen – auch Schaltsysteme oder logische Schaltungen genannt – bestehen hauptsächlich aus Logikgattern, wie AND-, NAND-, NOR-, OR- oder NOT-Gattern und Speichern, z. B. Flipflops oder Zählern. Durch die Realisierung dieser Schaltungen in einem Integrierten Schaltkreis (monolithische Schaltung) entstehen einfache und immer komplexere Bausteine wie beispielsweise Mikroprozessoren und FPGA.
Hochfrequenztechnik.
Die Hochfrequenztechnik beschäftigt sich vorwiegend mit der Erzeugung und der Ausstrahlung sowie dem Empfang und der Verarbeitung von elektromagnetischen Wellen. Beispiele sind die Funktechnik (Rundfunk, Fernsehen, Radar, Fernsteuerung, Funktelefone, Satellitennavigation, Mikrowellentechnik), aber auch die Vermeidung unerwünschter Schwingungen (Störung, EMV) und unkontrollierter Abstrahlung (Abschirmung).
Die Hochfrequenztechnik ist auch zum Entwurf digitaler Schaltungen zunehmend nötig, da die Taktfrequenzen im Gigahertz-Bereich liegen. Die Dispersion bei der Signalausbreitung auf Leitungen und als Funkwelle stört zunehmend. Bauelemente und Leitungen zeigen bei Hochfrequenz zunehmend unerwünschte parasitäre Effekte (Eigenkapazität von Induktivitäten, Leitungen und Anschlüssen, Eigeninduktivität von Kondensatoren, Leitungen und Anschlüssen), wodurch die mathematische Modellierung (Schaltungssimulation) und der Schaltkreis- und Leiterplattenentwurf erschwert sind.
Leistungselektronik.
Leistungselektronik bezeichnet das Teilgebiet der Elektrotechnik, das die Umformung elektrischer Energie mit elektronischen Bauelementen zur Aufgabe hat. Die Umformung elektrischer Energie mit Transformatoren oder mit rotierenden Maschinensätzen wird dahingegen nicht zur Leistungselektronik gerechnet.
Mikroelektronik & Nanoelektronik.
Die Mikroelektronik beschäftigt sich mit der Entwicklung und Herstellung integrierter Schaltkreise mit Strukturgrößen bzw. Strukturbreiten typisch unter 100 Mikrometern. Oft wird die 100-Nanometer-Grenze unterschritten, hier spricht man teilweise von Nanoelektronik.
Die kleinsten Strukturbreiten bei integrierten Schaltkreisen in Serienproduktion lagen 2018 bei 7 nm, siehe Apple A12 Bionic, und 2020 bei 5 nm, siehe Apple A14 Bionic.
Bedeutung in der Gesellschaft.
Die Elektronik, ihre Miniaturisierung und ständig erweiterte Funktionalität hat einen zunehmenden Einfluss auf das gesellschaftliche Leben und die Warenproduktion. Sie ermöglichte unter anderem die Entwicklung des Computers zum Heimgerät oder des Funktelefones zu einer Kommunikationsplattform. Die Elektronik führte zu einer großen Effizienz- und Qualitätssteigerung der industriellen Fertigung, der landwirtschaftlichen Produktion sowie der Medizintechnik. Ingenieurleistungen wie Entwicklung, Planung, Entwurf, Projektierung und Konstruktion sind ohne elektronische Datenverarbeitung kaum mehr möglich.
Kommerzielle Elektronikfertigung.
Im Jahre 2007 kamen 38 % aller weltweit hergestellten Elektronikprodukte aus der Asien-Pazifik-Region.
Im Jahre 1995 lag dieser Anteil noch bei 20 %. Allein China erhöhte seinen Anteil von 3 % 1995 auf 16 % 2007. Unter den Top-10-Ländern befinden sich auch Südkorea, Malaysia, Singapur und Thailand. Der Anteil von Westeuropa lag 2007 bei 19 % der globalen Produktion (entspricht ca. 192 Mrd. Euro). Für die Leistungsreihenfolge der Größe der Elektronikfertigung in Westeuropa gilt folgende Rangliste (Stand 2006): Deutschland, Frankreich, Großbritannien, Irland, Italien.
Elektronik und Elektrotechnik als Beruf.
Fortbildung.
Eine Fortbildung zum Elektromeister findet an einer Meisterschule statt und dauert 1 Jahr Vollzeit bzw. 2 Jahre berufsbegleitend.
Eine Fortbildung zum Elektrotechniker kann an einer Technikerschule in 4 Semestern Vollzeit bzw. 8 Semestern berufsbegleitend absolviert werden.
Studienfach.
Elektronik wird an vielen Universitäten, Fachhochschulen und Berufsakademien als Studiengang angeboten. An Universitäten wird während des Studiums die wissenschaftliche Arbeit betont, an Fachhochschulen und Berufsakademien steht die Anwendung physikalischer Kenntnisse im Vordergrund. |
1304 | 284660 | https://de.wikipedia.org/wiki?curid=1304 | Elektronenkonfiguration | Die Elektronenkonfiguration gibt im Rahmen des Schalenmodells der Atomhülle die Verteilung der einzelnen Elektronen auf verschiedene Energiezustände und damit Aufenthaltsräume (Atomorbitale) an.
Quantenzahlen und Schalen.
Der Zustand jedes Elektrons der Hülle wird nach dem Bohr-Sommerfeldschen Atommodell sowie dem Orbitalmodell durch vier Quantenzahlen bestimmt:
Gemäß dem Pauli-Prinzip darf der Zustand keiner zwei Elektronen eines Atoms in allen vier Quantenzahlen übereinstimmen. Mit diesem Prinzip lässt sich zeigen, dass sich die Elektronen auf die verschiedenen erlaubten Zustände und damit auf die Schalen und Unterschalen verteilen.
Die Hauptquantenzahlen legen die Schalen fest, die Nebenquantenzahlen die Unterschalen. Jede Schale kann gemäß den Beschränkungen von formula_1, formula_2 und formula_3 mit maximal 2n² Elektronen besetzt werden. Die Schalen werden aufsteigend, beginnend bei der Kernschale, mit Großbuchstaben bezeichnet: K, L, M, N, O, P, Q... Die Orbitale werden entsprechend den Serien von Spektrallinien benannt, die ein angeregtes Elektron aussendet, wenn es in sein ursprüngliches Orbital zurückfällt; die ersten vier Serien heißen aus historischen Gründen s („sharp“), p („principal“), d („diffuse“) und f („fundamental“).
Die äußerste besetzte Schale (Valenzschale) bestimmt das chemische Verhalten und ist daher maßgeblich für die Einordnung ins Periodensystem.
Auffüllen der Schalen nach dem Aufbauprinzip.
Mit steigender Elektronenzahl der Elemente werden die möglichen Zustände – bei den niedrigen Energien beginnend – besetzt. Gemäß der Hundschen Regel werden dabei die Orbitale gleicher Energie zuerst einfach, dann doppelt belegt.
Die Unterschalen werden in folgender Reihenfolge besetzt (zeilenweise, d. h. periodenweise geordnet):
Zusammenhang mit dem Periodensystem.
Im Periodensystem entspricht die Besetzung des s-Orbitals einer neuen Schale dem Sprung in eine neue Periode.
Notation.
Die Elektronenkonfiguration eines Atoms wird durch die besetzten Unterschalen beschrieben:
Beispiel Chlor: 1s2 2s2 2p6 3s2 3p5 →[Ne] 3s2 3p5.
Dabei sind die Unterschalen nicht nach dem Aufbauprinzip anzugeben, sondern in der Reihenfolge der Hauptquantenzahl; also z. B. für Europium: [Xe] 4f7 6s2.
Daneben ist noch die Zellen- oder auch Pauling-Schreibweise als anschauliche grafische Darstellung üblich. |
1305 | 3979526 | https://de.wikipedia.org/wiki?curid=1305 | Eritrea | Eritrea ([]; , "Erətra" oder "Ertəra", ) ist ein Staat im nordöstlichen Afrika. Er grenzt im Nordwesten an den Sudan, im Süden an Äthiopien, im Südosten an Dschibuti und im Nordosten an das Rote Meer. Der Landesname leitet sich von seinem griechischen Namen ab, der auf die Bezeichnung , zurückgeht und früher als "Erythräa" eingedeutscht wurde. Die Eigenbezeichnung "Ertra" (aus Altäthiopisch "bahïrä ertra", „Rotes Meer“) bezieht sich ebenfalls auf diese alte griechische Bezeichnung des Roten Meeres. Ein Viertel der knapp 6 Millionen Einwohner (2016) zählenden Bevölkerung Eritreas konzentriert sich auf die Hauptstadtregion von Asmara, die weiteren Städte sind deutlich kleiner.
Früher lag im Hochland von Eritrea das Königreich "Medri Bahri" mit der Hauptstadt Debarwa, in welchem der Baher Negash herrschte; das Tiefland von Eritrea war mehr als 300 Jahre eine osmanische und ägyptische Kolonie, Hauptstadt war Massaua. 1890 wurde Eritrea zur italienischen Kolonie. Ab 1941 stand das Land unter britischer Verwaltung und war seit 1952 föderativ mit dem damaligen Kaiserreich Abessinien in Personalunion verbunden, ehe es 1961 als Provinz Eritrea dem Äthiopischen Kaiserreich von Haile Selassie zentralistisch eingegliedert wurde. Nach dreißigjährigem Unabhängigkeitskrieg wurde Eritrea 1993 von Äthiopien unabhängig.
Im 21. Jahrhundert hat das Land eine der Form nach republikanische Verfassung und wird seit der Unabhängigkeit politisch von der autoritären "Volksfront für Demokratie und Gerechtigkeit" dominiert, die aus der Unabhängigkeitsbewegung der "Eritreischen Volksbefreiungsfront" hervorgegangen ist. Präsident ist seither Isayas Afewerki. Hinsichtlich der Freiheitsrechte seiner Bürger wird Eritrea von Menschenrechtsorganisationen stark kritisiert. Die US-amerikanische staatsnahe Nichtregierungsorganisation "Freedom House" charakterisierte Eritrea in ihrem Länderbericht 2019 als „hermetischen Polizeistaat“. In einer auf Arte im Dezember 2021 ausgestrahlten Dokumentation von Evan Williams wird Eritrea als „das Nordkorea Afrikas“ bezeichnet.
Geographie.
Physische Geographie.
Die beinahe wüstenartige Trockensavanne am Roten Meer ist sehr heiß und trocken. Im Hochland des Landesinneren dagegen fallen jährlich bis zu 600 Millimeter Regen, vor allem in der Zeit von Juni bis September. Die meisten großen Städte Eritreas finden sich im Hochland, auf über 1600 Metern über dem Meer. Im südlichen Hochland befinden sich die wenigen fruchtbaren Regionen des Landes, wie die Gegend von Mendefera, das Umland von Badme und das Grenzdreieck mit Äthiopien und dem Sudan in der Region Gash-Barka. Auch die höchste Erhebung des Landes, der Dega mit 3047 Metern, südöstlich von Asmara, liegt im Hochland von Abessinien.
Eritrea hat im Westen des Landes auch Anteil an der Sahara: westlich des Flusses Barka und nördlich des Flusses Gash setzt sich die östliche Sahara vom Sudan her fort und endet mit dem Anstieg zum Hochland von Abessinien. Die östliche Sahara erreicht Eritrea auch im Nordosten und zieht sich entlang der Küste, bis sie bei Massaua endet. Massaua ist, verglichen mit anderen Küstenstädten der Region wie Bur Sudan und Assab, mit etwas mehr Niederschlägen gesegnet.
Im Grenzgebiet mit Dschibuti hat Eritrea Anteil an einer weiteren Wüste: An der südlichen Küste, in der Gegend von Assab, liegt die Danakil-Wüste, eine der heißesten und trockensten Wüsten der Welt. In der Danakilsenke befindet sich mit 110 Metern unter dem Meeresspiegel der tiefste Punkt des Landes.
Humangeographie.
Städte.
Die größten Städte sind (Berechnung 2012): Asmara 665.000 Einwohner, Assab 99.000 Einwohner, Keren 80.000 Einwohner, Massaua 52.000 Einwohner, Mendefera 25.000 Einwohner und Barentu 19.000 Einwohner.
Verwaltungsgliederung.
Bis 1996 war Eritrea in neun Regionen ("awraja") gegliedert. Diese Regionen stammten noch aus der italienischen Kolonialzeit und ihre Regionshauptstädte waren Akkele Guzay (Adi Keyh), Barka (Agordat), Denkalia (Assab), Gash Setit (Barentu), Hamasien (Asmara), Sahel (Nakfa), Semhar (Massaua), Senhit (Keren) und Seraye (Mendefera).
Mit der Verwaltungsreform vom 15. Juli 1996 wurde die Zahl der Regionen ("zoba") auf sechs reduziert:
Bevölkerung.
Demografie.
Die Anzahl der Einwohner wird in unterschiedlichen Quellen nicht einheitlich angegeben. Für das Jahr 2017 wird die Einwohnerzahl bei den Vereinten Nationen mit 5,1 Millionen, im CIA World Factbook mit 5,9 Millionen und bei Statista mit 6,7 Millionen angegeben.
Im internationalen Vergleich ist die Versorgungsquote mit Verhütungsmitteln in Eritrea schlecht. Es ist daher von einem starken Bevölkerungswachstum betroffen, welches zu einem großen Teil auf ungeplanten Schwangerschaften beruht.
So hatten nach Angaben der Deutschen Stiftung Weltbevölkerung im Jahr 2015 nur 7 % der verheirateten Frauen Zugang zu modernen Verhütungsmitteln. Es wird daher geschätzt, dass die Bevölkerung von 6,8 Mio. im Jahr 2015 auf ca. 14 Mio. im Jahr 2050 anwachsen wird.
Volksgruppen.
In Eritrea gibt es neun größere ethnische Gruppen. Das größte Volk des Landes sind die Tigrinya (55 Prozent, nach anderen Angaben 50 Prozent). Sie leben auch in Äthiopien in der Region Tigray. Ihre Sprache Tigrinya ist neben dem Arabischen die Amtssprache Eritreas. Die Volksgruppe, die in Eritrea Tigrinya genannt wird, entspricht sprachlich und kulturell den Tigray in Äthiopien. Die äthiopischen Tigray und eritreischen Tigrinya sind aber aufgrund einer über längere Zeit getrennt verlaufenden politischen Geschichte nicht mehr als eine einheitliche Gruppe zu betrachten. Historisch bezeichneten sie sich selbst als Habescha. Schon in der Vergangenheit vor der Kolonialzeit waren die Tigrinya-Sprecher überaus vielgestaltig in Form verschiedener autonomer Provinzen und Abstammungsgruppen und politisch nur selten vereint.
Das zweitgrößte Volk sind die Tigre (30 Prozent). Zu den größeren Volksgruppen zählen noch die Saho (4 Prozent), die Bilen (2 Prozent) und die Rashaida (2 Prozent). Auch die Kunama machen zwei Prozent der Einwohner aus. Die kleinen ethnischen Gruppen Sokodas und Iliit an der sudanesischen Grenze betrachten sich als Kunama, sind aber geographisch und linguistisch getrennt (sie sprechen Dialekte des Ilit-Sokodas, auch West-Kunama genannt).
Die Minderheit der Bedscha wird offiziell als Hedareb bezeichnet, was auch als Name einer Untergruppe verwendet wird. Weitere Minderheiten sind die Nara und die Afar. Außerdem gibt es sehr kleine Gruppen westafrikanischen Ursprungs (meist Haussa-Sprecher), die in Eritrea Tokharir genannt werden.
Die Informationslage in diesem Bereich ist dürftig. Außerdem leben inzwischen 500.000 bis eine Million Eritreer, zumeist orthodoxe Tigrinya, im Ausland, was bis zu einem Fünftel der Bevölkerung entspricht. Seit 2015 zählt Eritrea neben Nigeria und Somalia als Hauptherkunftsland afrikanischer Flüchtlinge in Europa ("siehe auch Flüchtlingskrise in Europa 2015/2016#Subsahara-Afrika"). Mit nur 0,3 % der Bevölkerung, im Jahre 2017, zählt die Ausländerquote zu den niedrigsten weltweit. Zahlreiche im Ausland lebende politische Flüchtlinge sind wieder in ihre Heimat zurückgekehrt. Eine verschwindend kleine Minderheit bilden europäischstämmige Eritreer, hauptsächlich im 19. Jahrhundert eingewanderte Italiener.
Religion.
Die Bevölkerung Eritreas teilt sich offiziell zu fast gleichen Teilen in Muslime (Sunniten) und Christen (Eritreisch-Orthodoxe Tewahedo-Kirche, Eritreisch-Katholische Kirche, Protestanten). Der vom US State Department herausgegebene "International Religious Freedom Report" ging für das Jahr 2007 von 50 Prozent Muslimen und 48 Prozent Anhängern des Christentums in Eritrea aus, für das Jahr 2006 noch von 60 Prozent Muslimen und 37 Prozent Christen. Die "Association of Religion Data Archives" beziffert 50,15 Prozent Muslime und 47,91 Prozent Christen. Daneben bestehen einige kleine einheimische traditionelle Religionen. Trotz der sehr unterschiedlichen Anschauungen und des daraus resultierenden Konfliktpotenzials bildet die Bevölkerung eine nationale Einheit. Die Christen leben vorwiegend in der Hochebene um Asmara und die muslimischen Teile der Bevölkerung hauptsächlich im Tiefland und in Küstennähe.
In den letzten Jahren kam es zur systematischen Verfolgung nicht anerkannter christlicher Minderheiten durch die Regierung, weil diese nicht den ideologischen Paradigmen der Regierungsseite entsprechen. Evangelikale Nachrichtenagenturen aus den USA berichten inzwischen regelmäßig von Christenverfolgungen im Land. Amnesty International gab an, Angehörige staatlich verbotener Minderheitenkirchen seien bei extremer Hitze unter Erstickungsgefahr in Frachtcontainern gefangen gehalten worden.
Sprachen.
Die neun Sprachen der neun größten Ethnien gelten formell als gleichberechtigte Nationalsprachen. Diese sind Tigrinya (2,3 Millionen Sprecher), Tigre (800.000), Afar (300.000), Saho, Kunama, Bedscha, Blin, Nara (je rund 100.000) und Arabisch, das von den Rashaida als Muttersprache und von etlichen anderen Eritreern als Zweitsprache gesprochen wird. Der Staat fördert die Verwendung dieser Sprachen in den Schulen bei den jeweiligen Volksgruppen und in Sendungen des nationalen Radiosenders.
Es gibt keine offiziell festgelegte Amtssprache. De facto dienen aber vorwiegend Tigrinya und Arabisch – die auch als Verkehrssprachen weit verbreitet sind – sowie Englisch als Arbeitssprachen der Regierung. Italienisch, ein Erbe der Kolonialzeit, wird vor allem von der älteren Bevölkerung verstanden. Viele Schilder und Läden in Asmara sind auch auf Italienisch beschriftet. Tigrinya und Italienisch werden in der Wirtschaft, im Handel und im Gewerbe am häufigsten gebraucht. Es existiert zudem eine Schule in Asmara, in der Italienisch gelehrt wird – die "Scuola Italiana di Asmara". Italienisch verliert allerdings an Bedeutung, während die Verbreitung des Englischen zunimmt.
Die Sprachen Eritreas gehören zu zwei der großen Sprachfamilien in Afrika: Tigrinya, Tigre und Arabisch sind semitische Sprachen, Saho, Bilen, Afar und Bedscha sind kuschitische Sprachen – beides Zweige der afroasiatischen Sprachfamilie. Nara (Baria) und Kunama/Baza gehören hingegen zur Familie der Nilosaharanischen Sprachen.
Das Dahalik, das auf Inseln des Dahlak-Archipels von einigen Tausend Personen gesprochen wird, wurde früher als Dialekt des Tigre betrachtet, ist aber nach neueren linguistischen Erkenntnissen eine eigenständige semitische Sprache.
Soziales.
Bildung.
Seit der Unabhängigkeit konnten im Bildungssektor große Fortschritte gemacht werden: Der Alphabetisierungsgrad für Menschen zwischen 15 und 24 Jahren war 2015 mit 93 % (2002: 78 %) einer der höchsten in Subsahara-Afrika.
Formal besteht Schulpflicht für Kinder im Alter von 7 bis 13 Jahren, dennoch besuchen nur zwischen 39 und 57 Prozent der Schulpflichtigen eine Grundschule und nur rund 21 Prozent eine weiterführende Schule. Die Schulen sind schlecht ausgestattet, die durchschnittliche Klassenstärke liegt bei 63 (Grundschulen) beziehungsweise 97 (weiterführende Schulen) Schülern je Klasse. Mädchen sind deutlich benachteiligt. Der Anteil der Analphabeten liegt bei 30 Prozent.
Während die Schüler in der Grundschule auf ihrer jeweiligen Muttersprache unterrichtet werden, wechselt die Unterrichtssprache ab der 6. Klasse zu Englisch.
Das 12. Schuljahr findet für alle Schüler verpflichtend im Militärcamp Sawa statt. An den Militärdienst schließt sich für den Großteil der Absolventen der zivile Nationaldienst („Community Service“) an, der z. B. in der Verwaltung, im Bildungswesen oder in nationalen Entwicklungsprojekten abgeleistet und oft als Zwangsdienst bezeichnet wird. Die Schüler mit den besten Leistungen dürfen studieren und werden ihren Studienfächern zugeteilt. Nach der Schließung der Universität Asmara im Jahr 2004, wurden Bildungseinrichtungen in verschiedenen Teilen des Landes aufgebaut, unter anderem das Eritrea Institute of Technology in der Nähe von Asmara und das College of Marine Sciences & Technology in Massawa.
Gesundheit.
Das Gesundheitswesen wird maßgeblich vom Staat finanziert und ist für Personen mit Armutsausweis kostenlos.
Die Lebenserwartung wird für 2010–2015 auf 63,4 Jahre geschätzt. Die Fruchtbarkeitsrate lag 2012 bei 4,7 Kindern pro Frau. Die Kindersterblichkeit liegt bei 74 auf 1000 Lebendgeburten, womit Eritrea auf dem 51. Platz weltweit liegt. Die Müttersterblichkeit konnte zwischen 1990 und 2013 um 75 % gesenkt werden.
2002 waren noch fast 89 % der Frauen zwischen 15 und 49 Jahren von der Weiblichen Genitalverstümmelung betroffen, nach 94,5 % im Jahr 1995. Deutlicher zeigte sich der Erfolg der Aufklärungsarbeit an der 2002 auch erhobenen Prävalenz unter den Töchtern, je nach Bildungsstand der Mütter 40 % bis 67,5 %, im Mittel 62,5 %. Am 31. März 2007 trat ein gesetzliches Verbot der Frauenbeschneidung in Kraft.
Quelle: UN
Medien.
Eritreas Medien sind staatlich. Es gibt die Zeitung "Neues Eritrea" ( = = ), die Hörfunksender "Stimme der Massen" ( = ), "Zara FM" und "Radio Numa" sowie den Fernsehsender "ERi-TV".
Geschichte.
Zwischen 500 vor Christus und dem 19. Jahrhundert.
Seit der historisch erforschten Frühzeit um 500 v. Chr. herrschten verschiedene Mächte über das Land. Auf dem heutigen Staatsgebiet befand sich das Aksumitische Reich. Während des Mittelalters unterstand das christliche Hochland den äthiopischen Kaisern, in den Küstengegenden herrschten lokale Fürsten. Mit der Eroberung durch die Osmanen wurde Eritrea 1554 für mehr als 300 Jahre zur Provinz Habeş Eyaleti des Osmanischen Reiches. Während dieser Zeit wurden insbesondere die der äthiopisch-orthodoxen Kirche angehörenden Einwohner der Küstengegenden islamisiert. Die Hauptstadt auf dem Gebiet Eritreas war Massaua.
Seit 1870 bzw. 1882 war die Bucht von Assab italienisch, doch erst nach der Besetzung Massauas (1885) und Asmaras (1889) wurde daraus 1890 eine italienische Kolonie unter dem neu geschaffenen Namen "Colonia Eritrea".
Im 20. Jahrhundert.
Nach dem Überfall Italiens auf Äthiopien wurde Eritrea 1936 in das neu gegründete Italienisch-Ostafrika eingegliedert. Es erhielt große Gebiete Nordäthiopiens dazu, so wurde der größte Teil Tigrays Teil von Eritrea. 1941 wurde die Zugehörigkeit zu Italien durch alliierte Streitkräfte beendet. Das Gebiet wurde unter die britische Militärverwaltung gestellt und 1947 – nach der formellen Aufgabe Eritreas durch Italien – britisches Mandatsgebiet. Nach dem Zweiten Weltkrieg entschieden sich die Vereinten Nationen für eine Föderation der Provinz Eritrea mit dem Kaiserreich Abessinien.
Nachdem der äthiopische Kaiser Haile Selassie die politischen Rechte der eritreischen Bevölkerung von 1952 bis 1961 systematisch ausgehöhlt und anschließend 1961 durch die (Selbst-)Auflösung des eritreischen Parlaments Eritrea annektiert hatte, griffen eritreische Separatisten zu den Waffen. Die Unabhängigkeitsbewegungen erhielten in den 1960ern und den darauffolgenden Jahren großen Zulauf.
Der Unabhängigkeitskrieg endete nach dreißig Jahren 1991 mit dem Sieg der Eritreischen Volksbefreiungsfront (EPLF) und verschiedener weiterer äthiopischer Rebellengruppen (u. a. die EPRDF) und der Entmachtung des äthiopischen Derg-Regimes. Die EPRDF bildete eine neue Regierung und erlaubte die Unabhängigkeit Eritreas. Diese wurde nach einer durch die UN überwachten Volksabstimmung am 24. Mai 1993 erklärt, bei der 99,83 Prozent der Teilnehmer für die Unabhängigkeit stimmten. Dieser Tag ist seither Nationalfeiertag Eritreas.
In den darauffolgenden Jahren verschlechterten sich die Beziehungen zwischen Äthiopien und Eritrea. 1998 brach ein Grenzkrieg der beiden Staaten aus, der in einer Pattsituation endete. Seitdem war die UN-Beobachtermission UNMEE in der Grenzregion stationiert, um den rechtmäßigen Grenzverlauf zu markieren.
Im 21. Jahrhundert.
Im Jahr 2002 empfahl eine unabhängige Grenzkommission die neuen Staatsgrenzen. Im Rahmen eines Schiedsspruches der Äthiopisch-Eritreischen Grenzkommission des Ständigen Schiedshofs in Den Haag unterzeichneten Äthiopien und Eritrea das Abkommen, in dem sich beide zur Anerkennung des Grenzverlaufs bereiterklärten. Tatsächlich bestehen jedoch weiterhin Differenzen, zumal keine der beiden Seiten alle Ansprüche erfüllt bekam. Das umstrittene Gebiet um Badme wurde der eritreischen Seite zugesprochen, Äthiopien protestierte daraufhin und verlangte eine sofortige Korrektur des Schiedsspruchs. Bis 2018 konnte daher die Umsetzung der Grenzdemarkierung nicht wie vereinbart vollzogen werden. Sämtliche UN-Truppen, die eigentlich zur Friedenssicherung abgestellt worden waren, wurden von eritreischer Seite aus Protest gegen die äthiopische Blockadehaltung massiv in ihren Arbeiten behindert. 2008 entschied der Sicherheitsrat der Vereinten Nationen, das Mandat der UNMEE nicht weiter zu verlängern.
Am 5. Juni 2018 erklärte die äthiopische Regierung ihre Bereitschaft, die Regelungen des Grenzabkommens von 2002 zu akzeptieren. Dazu gehöre auch die Übergabe Badmes an Eritrea. Am 8. Juli 2018 erklärte Äthiopiens Regierungschef Abiy Ahmed, dass Äthiopien und Eritrea wieder diplomatische Beziehungen aufnehmen. Zugleich wurde ein Friedensvertrag zwischen den beiden Ländern geschlossen.
Politik.
Politisches System.
Eritrea besitzt offiziell eine demokratische Verfassung. Wahlen finden auf regionaler und nationaler Ebene statt (Baito). Der Präsident ist Staatsoberhaupt und Oberbefehlshaber der Streitkräfte.
Das Staatsoberhaupt und der Regierungschef sind die höchsten Instanzen der eritreischen Übergangsregierung. Zusammen mit der 24-köpfigen Staatsvertretung, bestehend aus 16 Ministern und weiteren Staatsvertretern, bilden sie die Exekutive Eritreas.
Die Legislative wird von einer 150 Mitglieder umfassenden eritreischen Nationalversammlung gebildet. Von den 150 sind 75 Mitglieder des Zentralkomitees der Volksfront für Demokratie und Gerechtigkeit (PFDJ) und 75 Volksvertreter, die direkt vom Volk gewählt werden. Unter diesen 75 Vertretern des Volkes müssen elf Frauen und 15 Emigranten sein. Die Nationalversammlung wählt den Präsidenten, erlässt Gesetze und Verordnungen und kümmert sich um deren Einhaltung.
Da Eritrea ab 1952 Teil von Äthiopien war, nahmen Eritreerinnen und Eritreer an den äthiopischen Wahlen von 1957 auf der Basis eines ab dem 4. November 1955 in Äthiopien geltenden allgemeinen aktiven und passiven Wahlrechts teil. Damit war das Frauenwahlrecht Gesetz. Nach der Unabhängigkeit von 1993 sah die Verfassung von 1997 ein allgemeines Wahlrecht für die Wahlen zur Nationalversammlung und für die Präsidentschaftswahlen vor.
Die reguläre Gerichtsbarkeit Eritreas besteht aus einem Obergericht mit fünf Standorten, 36 Regionalgerichten und etwa 368 Gemeindegerichten; daneben gibt es eine Sonder- und eine Militärgerichtsbarkeit.
Parteien.
Die Politik Eritreas wird von der Volksfront für Demokratie und Gerechtigkeit ("PFDJ") dominiert. Die Volksfront für Demokratie und Gerechtigkeit, die aus der früheren bewaffneten Unabhängigkeitsbewegung der Eritreischen Volksbefreiungsfront ("EPLF") hervorgegangen ist, nimmt mit ihrem Parteivorsitzenden Isayas Afewerki auch gleichzeitig den Posten des Staatspräsidenten und Regierungschefs in Anspruch. Eritrea gilt daher als Einparteienstaat. Auch wenn von offizieller Seite bekräftigt wird, dass man sich für ein Parteiengesetz einsetze, sind diese Behauptungen eher kritisch zu sehen. Neben der PFDJ gibt es noch eine Reihe anderer politischer Parteien im Lande, die aber alle nicht zu Wahlen zugelassen sind.
Innerhalb des Landes gibt es noch einige oppositionelle Splittergruppen, die aber bisher keinen Einfluss auf die Politik des Landes nehmen konnten:
Menschenrechtslage.
Aufgrund andauernder Menschenrechtsverletzungen wurde im Oktober 2012 Sheila Keetharuth zur Sonderberichterstatterin zur Situation der Menschenrechte für Eritrea der Vereinten Nationen ernannt. Ein erster Bericht wurde dem UN-Menschenrechtsrat im Zuge der Resolution 20/20 am 28. Mai 2013 vorgestellt. Darin stellte sie schwerwiegende Menschenrechtsverletzungen wie willkürliche Tötungen und Verhaftungen, erzwungenes Verschwindenlassen, Folter sowie fehlende Meinungs-, Religions- und Versammlungsfreiheit fest.
Amnesty International zufolge werden Regierungskritiker, Deserteure und Eritreer, die im Ausland um Asyl ersucht haben, inhaftiert. Insgesamt betrachten viele internationale Beobachter das politische System Eritreas als repressiv oder gar als Diktatur. Die Regierung hielt dem – vor Friedensgesprächen mit Äthiopien im Jahr 2018 – entgegen, dass sich Eritrea im Übergang zur Demokratie befinde, von Äthiopien bedrängt werde und deswegen praktisch Kriegszustand herrsche. Ein Sturz der jungen Regierung würde dadurch verhindert. In Eritrea saßen 2017 elf Journalisten in Haft.
Staatlich anerkannt sind die orthodoxe, die katholische und die evangelisch-lutherische Kirche sowie der Islam. Nicht anerkannte religiöse Minderheiten wie evangelikale Christen und die Zeugen Jehovas sind besonders seit 2002 von staatlichen Repressionen und Inhaftierung betroffen. Zu den wegen ihres Glaubens Inhaftierten gehörte Anfang 2008 auch eine Gruppe von etwa 70 Muslimen, die sich weigerten, den von der Regierung eingesetzten Mufti als ihr Oberhaupt anzuerkennen.
Ein UNHCR-Bericht vom Juni 2015 konstatiert ("systematic, widespread and gross human rights violations").
Die Haftbedingungen in den mindestens 37 teils geheimen, teils offiziellen Internierungslagern und Militärgefängnissen sind prekär. Es kommt zu Folter, sexuellem Missbrauch und Gewalt. Es wird von Todesfällen berichtet. Unter anderem wird auf der Insel Nakura ein Gefängnis betrieben, dessen Anfänge auf die italienische Kolonialzeit zurückgehen. Das faschistische Italien baute das Gefängnis ab 1936 zum KZ Nocra aus, die Anlagen werden auch heute noch vom eritreischen Regime als Gefängnis genutzt. Bereits seit der Kolonialzeit ist das Gefängnis bzw. zwischenzeitliche Konzentrationslager in der gesamten Region für seine Brutalität und Menschenfeindlichkeit bekannt, zudem herrschen extreme klimatische Bedingungen.
Im jährlich veröffentlichten Weltverfolgungsindex (WVI) von Open Doors, welcher die Länder mit der stärksten Christenverfolgung aufzeigt und analysiert, liegt Eritrea 2022 an sechster Stelle. Demnach gehört das Land zu denjenigen Ländern auf der Welt, in denen Christen aufgrund ihrer Religionszugehörigkeit am stärksten unterdrückt werden.
Das repressive politische System, die schwierige Wirtschaftslage und die Einberufungen zu zeitlich nicht begrenzter Zwangsarbeit sorgen dafür, dass Eritrea eines der Länder mit dem höchsten Anteil an außerhalb des Landes lebenden Staatsbürgern ist. Etwa ein Fünftel der Bevölkerung lebt im Ausland.
Außenpolitik.
Die Beziehungen Eritreas zu seinen Nachbarstaaten sind angespannt. Eritrea wie Äthiopien werden beschuldigt, insbesondere seit 2006/2007 ihre Streitigkeiten nunmehr als „Stellvertreterkrieg“ in Somalia auszutragen. Äthiopien unterstützt die Übergangsregierung Somalias und intervenierte von Ende 2006 bis Anfang 2009 militärisch; Eritrea beherbergt Teile der somalischen Opposition im Exil. Vorwürfe, wonach es Islamisten und andere Gegner der Übergangsregierung illegal mit Waffen beliefert habe, hat es zurückgewiesen. Die separatistische Ogaden National Liberation Front in Äthiopien hat Unterstützung von Eritrea erhalten.
Mitte 2008 kam es zu mehreren Zusammenstößen eritreischer und dschibutischer Truppen im umstrittenen Grenzgebiet beider Staaten. Die USA und der Sicherheitsrat der Vereinten Nationen beschuldigten Eritrea daraufhin der militärischen Aggression.
Im Ausland lebende Eritreer müssen eine „Aufbausteuer“ in Höhe von zwei Prozent ihres Bruttoeinkommens an den eritreischen Staat zahlen. Früher wurde diese von den Botschaften Eritreas in den jeweiligen Ländern erhoben, da Botschaften aber keine Steuern mehr eintreiben dürfen, müssen im Ausland lebende Eritreer jetzt entweder selbst in die Heimat reisen oder einen dort lebenden Verwandten mit der Zahlung beauftragen. Bei Nichtbezahlung werden keine offiziellen Dokumente ausgestellt, es besteht keine Möglichkeit, Erbschaften anzutreten und Geschäftstätigkeiten aufzunehmen, zudem drohen Repressalien gegen im Land lebende Verwandte. Schüler, Studenten oder Arbeitslose sind von der Abgabe befreit. Diese Abgabe, die von hunderttausenden Auslandseritreern erhoben wird, auch wenn sie eine andere Staatsbürgerschaft besitzen, stellt eine der größten Geldquellen der eritreischen Regierung dar.
Anfang Juli 2018 teilte Äthiopiens Regierungschef Abiy Ahmed nach einem Treffen mit dem eritreischen Präsidenten Isayas Afewerki in Asmara mit, dass nach jahrzehntelanger Feindseligkeit die Wiederaufnahme der diplomatischen Beziehungen vereinbart wurde. So ist geplant, Botschaften und Grenzen wieder zu öffnen sowie Flugverbindungen wiedereinzurichten und Häfen zugänglich zu machen. Der Anfang April 2018 neu gewählte Ministerpräsident Abiy Ahmed hatte bereits zu Beginn seiner Amtszeit eine Friedenslösung mit dem Nachbarland angestrebt. Anfang Juni 2018 hatte er angekündigt, den Beschluss einer von den Vereinten Nationen unterstützten internationalen Schiedskommission über den Grenzverlauf beider Länder aus dem Jahr 2002 „vollständig“ umzusetzen und sich aus den umstrittenen Gebieten zurückzuziehen.
Wirtschaft.
Kennzahlen.
Das Bruttoinlandsprodukt (BIP) für 2017 wird auf 5,8 Milliarden US-Dollar geschätzt. In Kaufkraftparität beträgt das BIP 9,4 Milliarden US-Dollar oder 1.580 US-Dollar je Einwohner. Das reale Wachstum betrug 5,0 %. Eritrea gehört damit zu den ärmsten Ländern der Welt.
Folgende Tabelle gibt Überblick über die Entwicklung der Wirtschaft seit dem Jahr 1995. Aufgrund der internationalen Isolation des Landes ist das Pro-Kopf-Einkommen seit der Unabhängigkeit des Landes kaum gewachsen.
Tourismus.
Der Tourismus im Land beruht weitestgehend auf wenigen Individualurlaubern, im Ausland lebenden eritreischen Bürgern auf Heimatbesuch und einer kleinen Anzahl ausländischer Reiseveranstalter, die mit in der Regel kleinen Gruppen das Land bereisen. Themengebiete sind unter anderem archäologische Studien, italienische Kolonialgeschichte, Reisen für professionelle Fotografen zu den ethnischen Gruppen des Landes und Reisen für Eisenbahnfans. Auch das Dahlak-Archipel ist mit organisierten Touren bereisbar. Klassischer Badeurlaub wird mangels einer geeigneten touristischen Infrastruktur aber kaum angeboten. Vereinzelte solcher Angebote für Touristen existieren zwar, 10 Kilometer nördlich von Massaua befindet sich mit dem "Gurgussum Beach Resort" beispielsweise eine in die Jahre gekommene Hotelanlage mit eigenem Strandabschnitt am Roten Meer. Aufgrund der außenpolitischen Situation, der Menschenrechtsbedingungen vor Ort und der allgemeinen wirtschaftlichen Isolation Eritreas liegt das Land jedoch fernab populärer Reiserouten, weshalb auch im beispielhaft genannten Hotelkomplex benötigte Investitionen seit längerem ausbleiben.
Landwirtschaft.
Etwa 75 % der Bevölkerung sind in der Landwirtschaft beschäftigt. Trotzdem müssen Nahrungsmittel importiert werden, auch weil während des Krieges und darüber hinaus mindestens 300.000 Personen zum Militärdienst eingezogen waren und daher Arbeitskräfte in der Landwirtschaft und anderen Wirtschaftsbereichen fehlten. Durch Dürre und wirtschaftspolitische Inkompetenz der autoritären Regierung kam es zu schweren Hungersnöten.
Das Hauptanbaugebiet ist das westliche Tiefland und das Hochland. Angebaut werden vor allem Getreide, Baumwolle, Mais, diverse Gemüsesorten sowie auch eine Vielzahl verschiedener Obstsorten.
Industrie.
Eritrea verfügt über Bodenschätze wie Gold, Silber, Kupfer, Schwefel, Nickel, Pottasche, Marmor, Zink und Eisen. Salz wird in großem Umfang produziert. Diese Rohstoffe fördert Eritrea schon seit längerer Zeit für den weltweiten Export.
Es gibt Zement-, Textil- und Nahrungsmittelindustrie, darunter mehrere Brauereiunternehmen, Alkohol- und Weinproduktion. Eritrea verfügt über eine Vielzahl von Ersatzteil- und Möbelunternehmen. Seit einigen Jahren werden in der eritreischen Industriestadt Dekemhare Busse, Transport-, Reinigungs- und Müllwagen vom eritreischen Unternehmen Tesinma produziert.
Staatshaushalt.
Der Staatshaushalt umfasste 2016 Ausgaben von umgerechnet 2,165 Milliarden US-Dollar, dem standen Einnahmen von umgerechnet 1,580 Milliarden US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 10,9 Prozent des BIP.
Im Jahr 2016 betrug die Staatsverschuldung 125,5 Prozent des Bruttoinlandsproduktes (BIP) Eritreas.
2006 betrug der Anteil der Staatsausgaben (in Prozent des BIP) folgender Bereiche:
Militär.
Die Streitkräfte Eritreas sind aus der Eritreischen Volksbefreiungsfront (EPLF) hervorgegangen, die für die Unabhängigkeit Eritreas von Äthiopien kämpfte. Die Beziehungen Eritreas zum Ausland sind gespannt. Unter anderem bedingt durch den dreißigjährigen Unabhängigkeitskrieg gegen Äthiopien wird die Eigenständigkeit Eritreas stark betont, was zum Teil als Isolationismus bezeichnet wird. Es kam in der jungen Geschichte des Landes zu mehreren Grenzkonflikten, insbesondere zum erneuten Krieg gegen Äthiopien 1998–2000. Das Militär in Eritrea nimmt eine große Rolle ein: Sowohl Männer als auch Frauen müssen in Eritrea einen unbefristeten Wehrdienst leisten, der laut Amnesty International einer Zwangsarbeit gleichkommt. Wehrdienstverweigerer werden strafrechtlich verfolgt und als Deserteure gebrandmarkt. In Friedenszeiten droht ihnen eine Haftstrafe von bis zu fünf Jahren. In Kriegszeiten kann die Haftstrafe zwischen fünf Jahren bis lebenslänglich betragen und in schweren Fällen droht die Todesstrafe.
Die militärische Situation um den unbefristeten Wehrdienst gilt als hauptsächliche Fluchtursache für Flüchtlinge, die aus Eritrea versuchen, nach Europa zu gelangen.
Nach der Normalisierung der Beziehungen zu Äthiopien 2018 griff Eritrea auf Seiten der äthiopischen Regierung in den 2020 ausgebrochenen Tigray-Krieg ein. Dabei wurden von Seiten der eingesetzten eritreischen Streitkräfte Kriegsverbrechen begangen, unter anderem das Massaker von Aksum, bei welchem je nach Quelle zwischen 345 und 800 Zivilisten ermordet wurden. Seit etwa 2019 kommt es bei eritreischen Kulturfestivals oft zu gewalttätigen Auseinandersetzungen, wobei Gegner des dortigen Militärregimes das Festivalgelände stürmen, unter dem Vorwand, das herrschende Regime missbrauche die Veranstaltung zu politischer Propaganda.
Verkehr.
Im Logistics Performance Index, der von der Weltbank erstellt wird und die Qualität der Infrastruktur misst, belegte Eritrea 2018 den 155. Platz unter 160 Ländern.
Das Straßennetz in Eritrea ist relativ gut ausgebaut. Allerdings wurde die von den Italienern sehr gut ausgebaute Infrastruktur zunächst von den Briten und später von den Äthiopiern weitestgehend zerstört, so dass heute nur noch ein kleiner Teil davon übriggeblieben ist. Die meisten Straßen sind Schotterpisten.
Zwischen Massaua und Asmara gibt es eine Eisenbahnverbindung, auf der planmäßig aber nur ein Ausflugszug mit einer Dampflokomotive recht regelmäßig zwischen Asmara nach Nefasit verkehrt. Zudem kommen immer wieder Sonderzüge für Eisenbahnfans auf die Strecke. Es wird erwogen, die historische Strecke zwischen Asmara und Agordat (westliches Tiefland) wieder aufzubauen.
Große Tiefwasserhäfen sind Massaua und Assab, in T'í'o befindet sich ein kleinerer Hafen im Aufbau.
Flughäfen finden sich in Asmara, außerdem in Massaua, Sawa, Tesseney und Assab. In Nakfa und Barentu gibt es lange Schotterpisten, die jedoch kaum angeflogen werden. Flugverbindungen bestehen hauptsächlich nach Istanbul mit Turkish Airlines, nach Kairo mit Egypt Air, nach Dubai mit Flydubai, außerdem gibt es einige Strecken der staatlichen Eritrean Airlines, wie etwa nach Khartum.
Sport.
Die größten internationalen Erfolge erzielten eritreische Sportler im Langstreckenlauf. Der wichtigste und am weitesten verbreitete Sport in Eritrea ist aber der Radsport. Er kam mit den italienischen Kolonialherren ins Land und 1946 wurde erstmals der Giro d’Eritrea ausgetragen. An den Wochenenden werden heute in Eritrea anspruchsvolle Straßenrennen abgehalten. International bekannte Straßenradsportler sind Daniel Teklehaimanot, Natnael Berhane und Merhawi Kudus, die (Stand 2015) bei dem südafrikanischen Radsportteam MTN-Qhubeka unter Vertrag stehen und Radrennen auf höchster sportlicher Ebene bestreiten. Im Jahr 2015 waren Teklehaimanot und Kudus die ersten Eritreer, die an der Tour de France teilnahmen. In deren Verlauf trug Teklehaimanot sogar für mehrere Tage das Gepunktete Trikot des Führenden in der Bergwertung, was auf den Straßen Asmaras mit einem Autokorso gefeiert wurde. In jüngerer Zeit war neben Teklehaimanot auch Amanuel Ghebreigzabhier bei Profiteams in Europa unter Vertrag. Auch der wohl bekannteste eritreische Sportler, Zersenay Tadese, versuchte sich in seiner Jugend zunächst als Straßenradfahrer, bevor er zum Langstreckenlauf wechselte. Er ist mehrfacher Weltmeister und war bis Oktober 2018 Weltrekordhalter im Halbmarathonlauf. Der jüngste Marathonweltmeister der Geschichte ist Ghirmay Ghebreslassie aus Eritrea. Erst 19-jährig gewann er den Marathon der Weltmeisterschaften im August 2015 in Peking. |
1307 | 1029574 | https://de.wikipedia.org/wiki?curid=1307 | Euklid | Euklid von Alexandria ( "Eukleídēs", latinisiert ) war ein griechischer Mathematiker, der wahrscheinlich im 3. Jahrhundert v. Chr. in Alexandria gelebt hat.
Leben.
Über das Leben Euklids ist fast nichts bekannt. Aus einer Notiz bei Pappos hat man geschlossen, dass er im ägyptischen Alexandria wirkte. Die Lebensdaten sind unbekannt. Die Annahme, dass er um 300 v. Chr. gelebt hat, beruht auf einem Verzeichnis von Mathematikern bei Proklos, andere Indizien lassen hingegen vermuten, dass Euklid etwas jünger als Archimedes (ca. 285–212 v. Chr.) war.
Aus einer Stelle bei Proklos hat man auch geschlossen, dass er um das Jahr 360 v. Chr. in Athen geboren wurde, dort seine Ausbildung an Platons Akademie erhielt und dann zur Zeit Ptolemaios’ I. (ca. 367–283 v. Chr.) in Alexandria wirkte.
Er sollte nicht mit Euklid von Megara verwechselt werden, wie das bis in die frühe Neuzeit häufig geschah, so dass der Name Euklids von Megara auch auf den Titeln der Ausgaben der Elemente erschien.
Werke.
Die überlieferten Werke umfassen sämtliche Bereiche der antiken griechischen Mathematik: das sind die theoretischen Disziplinen Arithmetik und Geometrie ("Die Elemente", "Data"), Musiktheorie ("Die Teilung des Kanon"), eine methodische Anleitung zur Findung von planimetrischen Problemlösungen von bestimmten gesicherten Ausgangspunkten aus ("Porismen") sowie die physikalischen bzw. angewandten Werke ("Optik", "astronomische Phänomene").
In seinem berühmtesten Werk "Elemente" (altgriechisch "Stoicheia" ‚Anfangsgründe‘, ‚Prinzipien‘, ‚Elemente‘) trug er das Wissen der griechischen Mathematik seiner Zeit zusammen. Er zeigte darin die Konstruktion geometrischer Objekte, natürlicher Zahlen sowie bestimmter Größen und untersuchte deren Eigenschaften. Dazu benutzte er Definitionen, Postulate (nach Aristoteles Grundsätze, die akzeptiert oder abgelehnt werden können) und Axiome (nach Aristoteles allgemeine und unbezweifelbare Grundsätze). Viele Sätze der "Elemente" stammen offenbar nicht von Euklid selbst. Seine Hauptleistung besteht vielmehr in der Sammlung und einheitlichen Darstellung des mathematischen Wissens sowie der strengen Beweisführung, die zum Vorbild für die spätere Mathematik wurde.
Erhaltene Schriften von Euklid sind neben den "Elementen", den "Data" und der "Teilung des Kanons": "Optika", "Über die Teilung der Figuren" (auszugsweise erhalten in einer arabischen Übersetzung), "Phainomena" (geometrische Behandlung der Astronomie) (Fragmente ediert von Johan Ludwig Heiberg). Von weiteren Werken sind nur die Titel bekannt: u. a. "Pseudaria" (Trugschlüsse), "Katoptrika".
Die "Elemente" waren vielerorts bis ins 20. Jahrhundert hinein Grundlage des Geometrieunterrichts, vor allem im angelsächsischen Raum.
Geometrie – Arithmetik – Proportionslehre.
Neben der pythagoreischen Geometrie enthalten Euklids "Elemente" in Buch VII-IX die pythagoreische Arithmetik, die Anfänge der Zahlentheorie (die bereits Archytas von Tarent kannte) sowie die Konzepte der Teilbarkeit und des größten gemeinsamen Teilers. Zu dessen Bestimmung fand er einen Algorithmus, den euklidischen Algorithmus. Euklid bewies auch, dass es unendlich viele Primzahlen gibt, nach ihm Satz des Euklid genannt. Auch Euklids Musiktheorie baut auf der Arithmetik auf. Ferner enthält das Buch V die Proportionslehre des Eudoxos, eine Verallgemeinerung der Arithmetik auf positive irrationale Größen.
Das bekannte fünfte Postulat der ebenen euklidischen Geometrie (heute Parallelenaxiom genannt) fordert: Wenn eine Strecke formula_1 beim Schnitt mit zwei Geraden formula_2 und formula_3 bewirkt, dass die innen auf derselben Seite von formula_1 entstehenden Winkel formula_5 und formula_6 zusammen kleiner als zwei rechte Winkel sind, dann treffen sich die beiden Geraden formula_2 und formula_3 auf eben der Seite von formula_1, auf der die Winkel formula_5 und formula_6 liegen. Schneiden also zwei Geraden eine Strecke (oder Gerade) so, dass die auf einer Seite von der Strecke und den zwei Geraden eingeschlossenen zwei Winkel kleiner als 180° sind, dann schneiden sich die beiden Geraden auf dieser Seite und begrenzen zusammen mit der Strecke (oder dritten Geraden) ein Dreieck.
Für die Wissenschaftsgeschichte ist die Beschäftigung mit dem Parallelenaxiom von großer Bedeutung, weil sie viel zur Präzisierung mathematischer Begriffe und Beweisverfahren beigetragen hat. Im Zuge dessen wurde im 19. Jahrhundert auch die Unzulänglichkeit der euklidischen Axiome offenkundig. Eine formale Axiomatik der euklidischen Geometrie findet sich in David Hilberts Werk "Grundlagen der Geometrie" (1899), das zu vielen weiteren Auflagen und anschließenden Forschungen geführt hat. Darin wird zum ersten Mal ein vollständiger Aufbau der euklidischen Geometrie geleistet, bis zu der Erkenntnis, dass jedes Modell des Hilbertschen Axiomensystems isomorph zum dreidimensionalen reellen Zahlenraum mit den üblichen Deutungen der geometrischen Grundbegriffe (wie Punkt, Gerade, Ebene, Länge, Winkel, Kongruenz, Ähnlichkeit usw.) in der Analytischen Geometrie ist.
Schon seit der Antike versuchten viele bedeutende Mathematiker vergeblich, das Parallelenaxiom mit den übrigen Axiomen und Postulaten zu beweisen (es wäre dann entbehrlich). Erst im 19. Jahrhundert wurde die Unverzichtbarkeit des Parallelenaxioms mit der Entdeckung einer "nichteuklidischen Geometrie" durch Bolyai und Lobatschewski klar. Die Poincaré’sche Halbebene H (Henri Poincaré) ist ein Modell für ein solches Axiomensystem, in dem das Parallelenaxiom nicht gilt. Somit kann das Parallelenaxiom nicht aus den übrigen Axiomen gefolgert werden (siehe nichteuklidische Geometrie).
Musiktheorie.
In Euklids musiktheoretischer Schrift "Die Teilung des Kanon" (griechisch "Katatomē kanonos", lat. "Sectio canonis"), die als authentisch einzustufen ist, griff er die Musiktheorie des Archytas auf und stellte sie auf eine solidere akustische Basis, nämlich auf Frequenzen von Schwingungen (er sprach von Häufigkeit der Bewegungen). Er verallgemeinerte dabei den Satz des Archytas über die Irrationalität der Quadratwurzel formula_12 und bewies ganz allgemein die Irrationalität beliebiger Wurzeln formula_13. Der Grund für diese Verallgemeinerung ist seine Antithese gegen die Harmonik des Aristoxenos, die auf rationalen Vielfachen des Tons (Halbton … n-tel-Ton) aufbaut. Denn in der pythagoreischen Harmonik hat der Ton (Ganzton) die Proportion 9:8, was Euklid zu seiner Antithese „Der Ton ist weder in zwei noch in mehrere gleiche Teile teilbar“ veranlasste; sie setzt allerdings kommensurable Frequenzen voraus, die in der pythagoreischen Harmonik bis zum Ende des 16. Jahrhunderts (Simon Stevin) angenommen wurden. Die Antithese „Die Oktave ist kleiner als 6 Ganztöne“ stützte er auf die Berechnung des pythagoreischen Kommas. Ferner enthält Euklids "Teilung des Kanons" – wie ihr Titel signalisiert – die älteste überlieferte Darstellung eines Tonsystems am Kanon, einer geteilten Saite, und zwar eine pythagoreische Umdeutung des vollständigen diatonischen Tonsystems des Aristoxenos. Euklids Tonsystem wurde durch Boethius tradiert; es wurde in der Tonbuchstaben-Notation Odos zur Grundlage des modernen Tonsystems.
Eponyme.
Nach Euklid sind folgende mathematische Strukturen benannt:
Zudem sind nach Euklid folgende mathematische Sätze und Beweise benannt:
Weiter sind nach Euklid benannt:
Literatur.
Übersichtsdarstellungen in Handbüchern
Gesamtdarstellungen und Untersuchungen
Rezeption
Arabische Überlieferung |
1309 | 2047658 | https://de.wikipedia.org/wiki?curid=1309 | Erfindung | Eine Erfindung oder Invention ist eine schöpferische Leistung, durch die eine neue Problemlösung, also die Erreichung eines neuen Zieles mit bekannten Mitteln oder eines bekannten Zieles mit neuen Mitteln ermöglicht wird. Von Erfindungen wird besonders oft im Zusammenhang mit technischen Problemlösungen gesprochen, etwa von der Erfindung des Motors oder des Dynamits. Solche Erfindungen können unter Umständen durch ein Patent oder als Gebrauchsmuster geschützt werden. Erfindungen gibt es auch im kulturellen Bereich. So gilt etwa die moderne Oper als Erfindung Claudio Monteverdis.
Erfindung und Entdeckung.
Vom Begriff der Erfindung ist die Entdeckung abzugrenzen. Eine Entdeckung betrifft bereits Vorhandenes, das bislang unbekannt und dessen Nutzen unbestimmt ist. Damit hat sich infolge der Entdeckung nichts geändert (außer der damit verbundene Wissenszuwachs eines Einzelnen oder der Allgemeinheit). Beispiele sind die Entdeckung der Schwerkraft, eines Planetoiden, eines chemischen Stoffes oder einer Tierart. Eine Erfindung dagegen betrifft stets eine neue Erkenntnis, die bisher nicht dagewesen ist. Diese Sache steht jedoch mit bereits Bekanntem in einem Zusammenhang, sie tritt nicht als etwas völlig Neues auf. Es werden an bekannten Gegenständen oder Verfahren Veränderungen vorgenommen, so dass ihre Wirkung qualitativ oder quantitativ verbessert wird.
Heute neigt man dazu, Erfindungen nur auf technische Verfahren oder Gegenstände zu beziehen und abstrakte Dinge, wie etwa die Erfindung eines neuen Versmaßes, davon auszunehmen.
Eine exaktere Definition lautet: Entdeckung ist die erstmalige Beschreibung eines Naturgesetzes, z. B. der elektrischen Kraft zwischen Atomen oder eines aus Naturgesetzen abgeleiteten Gesetzes, z. B. das Coulombsche Gesetz.
Erfindung hingegen ist die Anwendung der Naturgesetze in bisher nicht dagewesener Konstellation zur Lösung eines gegebenen Problems (Technik). Somit ist jede erstmalige Beschreibung oder Anwendung einer Technik eine Erfindung, zum Beispiel ein Sonnensegel für Raumschiffe. Ein neues Versmaß wendet keine Naturgesetze an und ist damit keine Erfindung, selbst wenn diese Schöpfung neu und genial wäre.
Erste Erfindungen.
Erste Erfindungen machte bereits der Naturmensch. Sie betrafen insbesondere Werkzeuge, die eine bessere Verwendung von Arm und Hand zur Folge hatten. Nachdem der Mensch die Entdeckung gemacht hatte, dass ein Stein in der Hand die Wirkung des Armes erhöhte, konnte er dem Stein eine besondere Form geben, um dessen Wirkungsweise zu erhöhen. Das führte unter anderem zur Erfindung des Faustkeils, des Beils, der Axt, des Hammers, der Sichel und des Schwerts.
Kritiker argumentieren, der Mensch könne sich nicht als der erste Erfinder bezeichnen. Heute sei aus der Zoologie bekannt, dass auch Tiere wie Vögel die erforderlichen Fähigkeiten besäßen, um Erfindungen zu machen und diese an Artgenossen weiterzugeben. Säugetiere wie Schimpansen und Gorillas seien hierin sogar sehr gut. Allerdings ist es auch bei Bejahung dieses Ansatzes kaum möglich, ein solches Geschehen in den Bereich der Technik einzuordnen, was für echte Erfindungen definitionsgemäß erforderlich wäre.
Der Prozess des Erfindens (Geneplore Model).
Finke und andere (1992) beschäftigten sich mit den Prozessen des kreativen Erfindens unter Berücksichtigung des Geneplore-Modells. Nach diesem Modell lassen sich bei Erfindungsprozessen zwei Phasen unterscheiden:
Die "preinventive forms" besitzen nach Finke und anderen eine funktionsunabhängige Ästhetik und zeichnen sich außerdem durch "implicit meaningfulness" aus, so dass sie vielseitig und flexibel interpretierbar seien. Diese Ergebnisse legen nahe, bei kreativen Aufgabenstellungen häufiger das Prinzip "function-follows-form" anzuwenden.
TRIZ ist ein formalisierter Prozess zu konkreten Problemlösungsansätzen, die zu Erfindungen führen können.
Wirkung von Erfindungen.
Die westliche Zivilisation beruht weitgehend auf dem Ge- und Verbrauch von Gütern (und Dienstleistungen). Diese müssen erarbeitet werden. Das wird im Allgemeinen zumindest in seiner Quantität als unangenehm erlebt, daher sind die Menschen weitgehend bestrebt, möglichst effektiv zu arbeiten (Werkzeuggebrauch) beziehungsweise die nötige Arbeit von Maschinen verrichten zu lassen – ein Ziel, dem auch die meisten Erfindungen dienen.
Dazu bedurfte es – außer der Bewältigung der damit aufgeworfenen, oft tiefgreifenden Nebenwirkungen auf anderen Gebieten – der technischen Entwicklung auf dreierlei Stufen:
1. Material: Man braucht vielerlei haltbare, belastbare Werkzeuge
2. Energie: Die Werkzeuge müssen hergestellt, dann muss damit gearbeitet werden.
3. Information: Werkzeug-Bau und -Benutzung erfordern Wissen, Wissensverarbeitung, -weitergabe.
Dafür, ob eine Erfindung zu einem Fortschritt führt, ist nicht die Technik, sondern die gesellschaftliche Akzeptanz entscheidend. Diese Akzeptanz kann aber auch durch äußere Einflüsse erzwungen werden. Ein Beispiel dafür ist das Durchsetzen der Erfindung des Papiergelds in China. Wer Papiergeld als Zahlungsmittel ablehnte, wurde mit dem Tod bestraft.
Patentfähige Erfindungen.
Eine patentfähige Erfindung wird am jeweiligen Stand der Technik gemessen und ist eine
nicht naheliegende Lehre zum technischen Handeln, das heißt eine Anweisung zum Einsatz beherrschbarer Naturkräfte zur unmittelbaren Erreichung eines kausal übersehbaren Erfolgs.
Im deutschen, österreichischen und Schweizer Patentrecht ist geregelt, dass die Erfindung auf einem technischen Gebiet liegen muss. Damit wurde klargestellt, dass ein Patent nur für eine technische Erfindung erteilt werden kann, aber auch in jedem technischen Gebiet gleichermaßen erteilt werden muss.
Nicht patentfähige Erfindungen.
Entdeckungen sind nicht patentierbar. Ebenso wenig werden wissenschaftliche Theorien, physikalische Gesetze oder mathematische Modelle als Erfindungen angesehen; auch sie werden entdeckt.
Auch geistig-schöpferische (sprich kreative) Werke aus Literatur, Musik oder Kunst werden nicht als Erfindung eingestuft. Ein Rechtsschutz solcher Werke kann sich aus dem Urheberrecht ergeben.
Computerprogramme sind in der Regel keine patentfähigen Erfindungen. Ausnahmen bestehen, wenn das Programm zur Steuerung von Naturkräften verwendet wird (z. B. Airbag, elektronische Motorsteuerung). Die genaue Abgrenzung wird derzeit sehr kontrovers diskutiert (siehe dazu Software-Patente).
Im Europäischen Patentübereinkommen (EPÜ) werden in Artikel 52 die Ausschlüsse vom patentrechtlichen Erfindungsbegriff aufgeführt. |
1310 | 198764696 | https://de.wikipedia.org/wiki?curid=1310 | Euclid | Euclid steht für:
Siehe auch: |
1311 | 530688 | https://de.wikipedia.org/wiki?curid=1311 | Eklat | Ein Eklat [], in der Schweiz auch Eclat geschrieben, ist ein unerfreulicher Vorfall, der in der Öffentlichkeit für Aufsehen sorgt.
Begriffsgeschichte.
Das Wort wurde in der zweiten Hälfte des 17. Jahrhunderts aus dem Französischen ("éclat", eigentlich „plötzliches lautes Geräusch, Knall, Krach“, auch „Splitter, Bruchstück“, zu "éclater" „zerplatzen, knallen“) ins Deutsche entlehnt und lange in zwei verschiedenen – bereits im Französischen vorhandenen – Bedeutungen gebraucht. Bis Mitte des 19. Jahrhunderts gebräuchlich, heute aber veraltet, ist der Wortsinn „glanzvoller Auftritt, Pracht, Prunk, Pomp, Glanz, Gloria‘“ in Wendungen wie „großen Eklat machen“ oder „mit großem Eklat feiern.“
Heute wird das Wort im Deutschen nur noch in der Bedeutung „ärgerliches, Aufsehen erregendes gesellschaftliches oder politisches Ereignis“ bzw. „heftiger, plötzlicher Streit“ gebraucht, also weitgehend synonym zum ebenfalls aus dem Französischen entlehnten „Skandal“. Sinnverwandt ist die „Affäre“, womit aber eher missliche Angelegenheiten langwieriger Art bezeichnet werden. |
1312 | 367076 | https://de.wikipedia.org/wiki?curid=1312 | Che Guevara | Ernesto „Che“ Guevara (* offiziell 14. Juni 1928, nach anderen Quellen 14. Mai 1928 in Rosario, Argentinien; † 9. Oktober 1967 in La Higuera, Bolivien) war ein marxistischer Revolutionär, Guerillaführer und Autor. Er war von 1956 bis 1959 ein zentraler Anführer "()" der Rebellenarmee der Kubanischen Revolution und ist neben Fidel Castro deren wichtigste Symbolfigur.
Guevara stammte aus einer argentinischen bürgerlichen Familie. Bereits seine während des Medizinstudiums erstellten Reisetagebücher hatten literarische Qualität und wurden mehrmals verfilmt. Einzelne seiner Schriften und Reden beeinflussten revolutionäre Strömungen weit über Kuba hinaus. Sein Leben wie auch die Umstände seines Todes und der posthume Personenkult um ihn waren und sind Gegenstand vielfältiger Betrachtungen in Filmen, Büchern und anderen Medien.
Die US-Zeitschrift "Time" zählte ihn 1999 zu den 100 einflussreichsten Menschen des 20. Jahrhunderts. Alberto Kordas Fotografie von Guevara, als "Guerrillero Heroico" betitelt, gilt als berühmtestes fotografisches Abbild einer Person und zählt zu den Medienikonen.
Überblick.
Guevaras Vorfahren waren argentinische Großbürger. Bereits während seines Medizinstudiums unternahm Guevara zahlreiche Reisen, die er umfangreich kommentierte und dokumentierte. Er empörte sich über die vielfach angetroffene wirtschaftliche Ungleichheit und soziale Ungerechtigkeit in Latein- und Mittelamerika. In Guatemala lernte er seine erste Frau kennen, eine Regierungsangestellte, die ihn mit weiteren politischen Aktivisten bekannt machte. Nach dem von den USA betriebenen Sturz der dortigen Regierung Jacobo Árbenz Guzmáns (am 27. Juni 1954) ging er nach Mexiko und traf dort 1955 auf Fidel Castro. Er schloss sich dessen Bewegung des 26. Juli an und ließ sich militärisch ausbilden. Im Dezember 1956 nahm er an der Landung von Castros Revolutionären auf Kuba teil, die den von den USA unterstützten Diktator Fulgencio Batista stürzen wollten. Er wurde während der Kubanischen Revolution zum Kommandanten („Comandante“) ernannt und spielte eine wichtige Rolle im – 1959 letztlich erfolgreichen – Guerillakrieg.
Guevara wurde von Castro als Industrieminister und danach als Leiter der kubanischen Zentralbank eingesetzt. Er strebte eine vollständige Verstaatlichung der kubanischen Wirtschaft und den Aufbau einer Schwerindustrie an. Kapitalflucht und die Emigration von über 10 % der Bevölkerung, nahezu der gesamten früheren Oberschicht, führten zu einem drastischen Rückgang von Wirtschaftsleistung und Produktivität. Auch die von Guevara mit anderen Ländern geschlossenen Handelsverträge verursachten in der Praxis erhebliche Schwierigkeiten. Weiterhin führte auch Ches kritische Haltung gegenüber der „entstalinisierten“ Sowjetunion und seine politischen Sympathien für das China der Kulturrevolution zu Konflikten mit Fidel Castro. Che trat 1964 nach der Rückreise von einem Konferenzauftritt in Algier, der großes internationales Aufsehen erregte, von allen Ämtern zurück und verschwand komplett aus der kubanischen Öffentlichkeit. Er versuchte vergeblich, in anderen Ländern das kubanische Revolutionsmodell voranzutreiben, so im Kongo und später in Bolivien. In Bolivien wurde er 1967 von Regierungssoldaten gefangen genommen und kurz darauf erschossen. Bis heute wird er in Kuba als Volksheld verehrt.
Neben seinen Reiseaufzeichnungen und Tagebüchern, die mehrfach sehr erfolgreich herausgegeben und verfilmt wurden, seinen theoretischen Schriften und seinem politischen und militärischen Handeln ist insbesondere die posthume Wirkung Che Guevaras als Märtyrer und Idol der 68er-Bewegung und der lateinamerikanischen Linken von Bedeutung. Bereits 1968 erfolgte die erste kommerzielle Verfilmung seiner Biografie, der US-Film "Che!."
Ches Selbstverpflichtung zu revolutionären Idealen machte ihn zu einem bedeutenden gesellschaftlichen Führer in Kuba. Sein Anspruch, den „Neuen Menschen“ weniger mit materiellen Anreizen als mit moralischen Ansprüchen, Selbstdisziplin und auch gewaltsamen Mitteln zu erzwingen, führte zu erheblichen Konflikten im nachrevolutionären Kuba. Seine Wirtschaftspolitik war wenig erfolgreich. Kritiker machen ihn darüber hinaus für politische Unterdrückung und die Exekution zahlreicher Gegner verantwortlich.
Als „romantischer Held“, nach Sean O’Hagan in der Nachfolge Lord Byrons gilt er bei seinen Anhängern – weit über Kuba und Südamerika hinaus auch in den Industrieländern – als Synonym für Widerstand, Emanzipation und Rebellion.
Auch Ches bekannte Abbilder entwickelten sich zu allgegenwärtigen Symbolen für Widerstand und Protest. Als Medienikone der 1960er Jahre wird das berühmte und nicht geschützte (das revolutionäre Kuba hatte Vereinbarungen zum Urheberrecht gekündigt) Porträt "Guerrillero Heroico" weltweit vermarktet. Dieses Porträt wurde auch auf der 3-CUP-Banknote abgebildet.
Leben.
Kindheit und Jugend.
Ernesto Guevara wurde während einer Schiffsreise bei einem Zwischenhalt in Rosario geboren. Seine Eltern Celia de la Serna y Llosa (1906–1965) und Ernesto Rafael Guevara Lynch (1901–1987) hatten auch baskische und irische Vorfahren und waren aus gutbürgerlichen Verhältnissen ausgebrochen. Sie waren kurz nach der Hochzeit im November 1927 von Buenos Aires nach Puerto Caraguatay in der Provinz Misiones gezogen, um dort eine Mateplantage zu betreiben. Das Unternehmen lief nicht besonders gut, zeitweilig litt die Familie auch unter finanziellen Engpässen, wobei sie auf geerbte Wertpapiere zurückgreifen konnte.
Im Alter von zwei Jahren erlitt Guevara seinen ersten Asthmaanfall. Die Krankheit begleitete ihn sein Leben lang und prägte seine Persönlichkeit und Entwicklung. Im Jahr 1932 zog die Familie auf ärztlichen Rat in die Stadt Alta Gracia, Argentinien. Zunächst wurde er zu Hause von seiner Mutter unterrichtet, las viel – unter anderem Werke der europäischen Literatur in der bedeutenden Bibliothek seiner Familie – und lernte Französisch, das er noch als Erwachsener fließend sprach. Als die Asthmaschübe später seltener wurden, wurde er dazu verpflichtet, doch die Schule zu besuchen. Die Krankheit hinderte ihn auch nicht daran, mit anderen Kindern zu spielen und intensiv Sport zu treiben.
Durch seine Familie, die inzwischen durch die Geburten seiner Geschwister Celia (* 1929), Roberto (* 1932), Ana Maria (* 1934) und Juan Martín (* 1942) auf sieben Personen angewachsen war, wurde er schon früh politisch geprägt. Als nach dem Militärputsch Francos 1936 der Spanische Bürgerkrieg ausbrach, wurde ihr Haus zum Treffpunkt spanischer republikanischer Exilanten. Im Jahr 1941 wechselte er auf das Dean-Funes-Gymnasium in Córdoba, was bedeutete, dass er für den Schulweg insgesamt täglich 70 km zu bewältigen hatte.
Im Jahr 1943 wechselte Ernestos Schwester Celia auf eine Schule in Córdoba – die Eltern zogen dorthin, um den Kindern den beschwerlichen Schulweg zu ersparen. 1946 trennten sich seine Eltern. Guevara erlebte im selben Jahr das Sterben seiner Großmutter unmittelbar mit. Auch deswegen entschied er sich nach bestandener Abiturprüfung in Buenos Aires, wo er bei seiner Mutter lebte, Medizin zu studieren.
Trotz der asthmatischen Anfälle war Guevara in seiner Jugend ein hervorragender Sportler, der Schwimmen, Fußball, Golf und Schießen liebte und außerdem ein „unermüdlicher“ Radfahrer war. Vor allem aber war er ein begeisterter Rugbyspieler und spielte beim "Club Universitario de Buenos Aires" auf der Position des Verbinders. Aufgrund seines aggressiven Spielstils lautete sein Spitzname "Fuser" – eine Verschmelzung von "el Furibundo" (der Furiose) und dem Nachnamen seiner Mutter (de la Serna).
Studium und Reisen.
Guevara unterbrach sein Medizinstudium mehrmals für umfangreiche Reisen durch Argentinien und Südamerika. Im Oktober 1950 lernte er Maria del Carmen Ferreyra, eine Millionärstochter, kennen und lieben. Die Beziehung war nicht von Dauer. Ein Jahr vor Guevaras Staatsexamen brach er im Dezember 1951 zusammen mit einem Freund, dem angehenden Biochemiker Alberto Granado, in Córdoba auf, um mit einer Norton Modell 18 den lateinamerikanischen Kontinent zu erkunden und unter anderem – ein sehr prägendes Erlebnis – eine Lepra-Kolonie in Peru zu besuchen. Guevara war mit der Ansicht aufgebrochen, in ganz Südamerika seien die Verhältnisse ähnlich wie in Argentinien, doch durch die Reise wurde er sich angesichts des Elends der Landbevölkerung und großer sozialer Gegensätze bewusst, welche Ausnahme sein Wohlstand darstellte.
Die Reisen wurden posthum unter dem Titel "The Motorcycle Diaries" (deutsch "Die Reise des jungen Che") verfilmt. Er legte nach Abschluss der Reise in den darauf folgenden sieben Monaten seine restlichen Prüfungen ab und überarbeitete auch sein Reisetagebuch, in dem er festhielt: „Dieses ziellose Streifen durch unser riesiges Amerika hat mich stärker verändert als ich glaubte“.
Sein Medizinstudium schloss er am 11. April 1953 mit dem Doktorgrad in Medizin und Chirurgie ab.
Im Juli 1953 reiste Guevara in Begleitung seines Jugendfreundes Carlos Ferrer nach La Paz in Bolivien. Dort blieben sie sechs Wochen und lernten dabei Ricardo Rojo – einen argentinischen Anwalt – kennen, der wegen seiner antiperonistischen Haltung seine Heimat hatte verlassen müssen. Während Rojo daraufhin nach Ecuador fuhr, reisten Guevara und Ferrer nach Peru. Sie besuchten Machu Picchu, Lima und erreichten schließlich Ende September Guayaquil in Ecuador, wo sie Rojo wiedertrafen. Eigentlich war geplant, als Nächstes nach Venezuela zu fahren, wo Guevara Alberto Granado wiedersehen wollte. Guevara änderte die Reiseplanung jedoch, denn Rojo hatte ihn überzeugt, mit ihm nach Guatemala zu fahren, wo eine Revolution kurz bevorstand.
Am 31. Oktober fuhren sie per Schiff nach Panama und von dort aus nach Costa Rica, wo er Plantagen der United Fruit besichtigte. In Costa Rica lernte er auch zwei Kubaner kennen, die Monate zuvor vergeblich versucht hatten, den kubanischen Diktator Fulgencio Batista zu stürzen: Calixto Garcia und Severino Rossel. Unter den Überlebenden dieses gescheiterten Umsturzversuches (Angriff auf die Moncada-Kaserne) waren auch Fidel und Raúl Castro, die er zu diesem Zeitpunkt allerdings noch nicht kennenlernte.
Mit dem Tod Stalins und dem langsam beginnenden Tauwetter im Ostblock begann Guevaras Verehrung für den sowjetischen Diktator. Noch aus Costa Rica schrieb er im Dezember 1953 in einem Brief an seine Tante Beatriz: „Vor einem Bild des alten, betrauerten Stalin habe ich geschworen, nicht eher zu ruhen, bis diese kapitalistischen Kraken vernichtet sind. In Guatemala werde ich mich schleifen und tun, was ich tun muss, um ein richtiger Revolutionär zu werden.“ Einen weiteren Brief vom April 1955 unterzeichnete er gar mit "Stalin II."
Werdegang zum Revolutionär.
Guatemala.
Am Silvesterabend des Jahres 1953 traf Guevara in Guatemala ein. Wenige Tage später lernte er die Peruanerin Hilda Gadea (1925–1974) kennen, seine spätere Ehefrau. Hilda hatte Wirtschaftswissenschaften studiert, war ein Mitglied der peruanischen Alianza Popular Revolucionaria Americana und arbeitete als Regierungsangestellte in Guatemala-Stadt. Sie pflegte ihn bei seinen Asthmaschüben, half ihm in finanziellen Notlagen und vermittelte ihm Grundlagen des Marxismus sowie Kontakte mit Mitgliedern der linken Regierung Arbenz. In Guatemala traf er auch Ñico López, einen weiteren Überlebenden des im Jahr 1953 gescheiterten Versuchs, Batista zu stürzen, durch den er später Fidel Castro kennenlernte. In Guatemala wurde er auch das erste Mal mit seinem Spitznamen „Che“ genannt.
Während seines Aufenthaltes kam es in Guatemala zu einem maßgeblich vom US-Auslandsgeheimdienst CIA organisierten Putsch gegen den guatemaltekischen Präsidenten Jacobo Árbenz Guzmán. Árbenz war 1950 nach dem Sturz des Diktators Jorge Ubico Castañeda gewählt worden und hatte Reformen eingeleitet, die den Armen des Landes helfen sollten. So hatte er einen Mindestlohn eingeführt und brachliegende Ländereien, die meist US-amerikanischen Firmen gehörten, verstaatlicht. Am 18. Juni 1954 marschierten Söldner ins Land ein, deren Intervention von den USA militärisch und logistisch unterstützt wurde und dem Schutz der wirtschaftlichen Interessen von US-Firmen wie der United Fruit Company sowie der Verhinderung einer kommunistischen Machtergreifung dienen sollte. Árbenz wurde gestürzt und an seiner Stelle Castillo Armas als Präsident eingesetzt. Eine seiner ersten Amtshandlungen war die Rücknahme der Landreform.
Guevara erlebte US-amerikanische Bombenabwürfe auf Guatemala-Stadt. Viele seiner Freunde wurden nach Armas’ Machtübernahme verhaftet, so auch Hilda Gadea. Ernesto hingegen konnte in die argentinische Botschaft fliehen, lehnte es allerdings ab, nach Hause zu fliegen. Stattdessen wartete er zwei Monate, bis ihm ein Visum gewährt wurde, das ihm die Einreise nach Mexiko ermöglichte.
Mexiko.
Ernesto Guevara erreichte am 21. September 1954 in Begleitung von Julio Roberto Cáceres Valle, einem guatemaltekischen Kommunisten, Mexiko-Stadt. Zusammen mit ihm schlug er sich die erste Zeit durch. Hilda Gadea folgte ihm nach ihrer Freilassung, sie trafen sich in Mexiko-Stadt wieder, wo Ernesto Guevara inzwischen am "Hospital General" arbeitete. Beide heirateten am 18. August 1955, am 15. Februar 1956 wurde ihr erstes Kind Hilda Beatriz geboren.
Als 1955 der Sturz Juan Peróns erfolgte und in Argentinien Aussicht auf eine Revolution bestand, wollte Ricardo Rojo nach Buenos Aires aufbrechen. Er versuchte Guevara zu überreden mitzukommen, doch dieser hatte andere Pläne. Bereits Ende 1954 hatte er weitere Exilkubaner kennengelernt, die beim gescheiterten Putschversuch 1953 mitgewirkt hatten und nun in Mexiko-Stadt lebten. Durch sie lernte er im Sommer 1955 Fidel Castro kennen. Der Anführer jener Rebellen, die 1953 durch den Angriff auf die Moncada-Kaserne von sich reden machten, war nach seiner Haftentlassung nach Mexiko ins Exil gegangen. Castro bereitete dort mit einer Gruppe von Exilkubanern unter der Hilfe von Alberto Bayo, einem Veteranen des Spanischen Bürgerkriegs und Guerilla-Experten, eine bewaffnete Expedition zurück nach Kuba vor mit dem Ziel, das Batista-Regime zu stürzen. Guevara schloss sich zunächst als Expeditionsarzt der Gruppe an. Im April 1956 wurde seine Teilnahme konkreter, als die Rebellen im 60 Kilometer von Mexiko-Stadt entfernten Chalco eine militärische Ausbildung erhielten. Im Juli wurde das Trainingslager von der Polizei entdeckt und die Rebellen landeten kurzzeitig im Gefängnis. Guevara kam erst nach zwei Monaten als letzter frei, mit der Auflage, das Land zu verlassen. Guevara ignorierte dies und tauchte bei Freunden unter. Nun drängte die Zeit – Kuba hatte von den Rebellen erfahren und Castro wollte schnell aufbrechen. Nachdem er die Motoryacht "Granma" gekauft hatte, trafen sich am 23. November 1956 die Rebellen, insgesamt 86 an der Zahl, in Tuxpan und fuhren zwei Tage später los in Richtung Kuba, das sie am 2. Dezember 1956 erreichten.
Kubanische Revolution.
Vorgeschichte.
Nach der Landung der Yacht "Granma" auf Kuba wurde gleich beim ersten Gefecht die Mehrzahl der Rebellen getötet oder festgenommen. Celia Sánchez und Frank País, die eine „Zweite Front“ in den kubanischen Städten unterhielten, unterstützten die Kämpfer mit Waffen und Medikamenten. Neue Mitstreiter stießen hinzu und ermöglichten eine Fortsetzung des Guerillakampfs. Im Verlaufe der Kämpfe änderte sich Guevaras Rolle schnell von der eines Arztes zu einem direkten Teilnehmer bei bewaffneten Aktionen. Sein Einsatz und sein taktischer Überblick ließen ihn schnell zu einer gefragten militärischen Instanz werden. Gegenüber mutmaßlichen Deserteuren griff er dabei hart durch und schreckte auch nicht davor zurück, Todesurteile selbst zu vollstrecken. Als erster Guerillero nach "Comandante en Jefe" Fidel Castro wurde Guevara am 21. Juli 1957 in den Rang eines "Comandante" der Rebellenarmee der Bewegung des 26. Juli erhoben und mit der Führung der II. Kolonne betraut.
Als seine größte militärische Leistung gilt die Einnahme von Santa Clara am 29. Dezember 1958 nach zweijährigem Guerillakampf gegen die zahlenmäßig weit überlegene, bis März 1958 noch von den USA unterstützte, inzwischen aber demotivierte und überalterte Batista-Armee. Der Weg in die Hauptstadt Havanna war damit frei. Am 1. Januar 1959 flüchtete der Diktator Fulgencio Batista aus Kuba, und Castros Gruppe übernahm die Kontrolle. Am 9. Februar 1959 wurde Guevara zum „geborenen kubanischen Staatsbürger“ ernannt.
Beteiligung an der kubanischen Revolutionsregierung.
Castro wollte nach der Revolution 1959 ein insbesondere von den USA unabhängiges Kuba aufbauen. Guevara wurde neben Fidel Castro, dessen Bruder Raúl Castro, Camilo Cienfuegos und einigen anderen ein wichtiges Mitglied in der neuen kubanischen Regierung. Guevara nahm am Sowjet-Kommunismus orientierte Positionen ein, stärker noch als der vorrangig pragmatisch und realpolitisch geprägte Fidel Castro. Auch für Stalin, das chinesische Modell unter Mao und insbesondere das nordkoreanische hegte er Sympathien. Später (1965) sagte Guevara nach einer Reise nach Pjöngjang, dass Nordkorea ein Modell sei, das auch das revolutionäre Kuba anstreben solle.
Auf dem Höhepunkt seiner politischen Aktivität in Kuba war Guevara Leiter der Nationalbank Kubas und Industrieminister. Der ehemalige Guerillaführer und aus Protest gegen den Regierungskurs als Militärgouverneur der Provinz Camagüey zurückgetretene Huber Matos, der anschließend mit Guevaras Einverständnis wegen Hochverrats zu zwanzig Jahren Haft verurteilt wurde, wirft Guevara und Castro vor, die Revolution gegen Batista zur schleichenden Umgestaltung Kubas in eine kommunistische Diktatur benutzt zu haben.
Unter Guevaras Führung wurden die kubanischen Unternehmen und US-amerikanische Beteiligungen verstaatlicht. Begünstigt von einer großzügig gehandhabten Immigrationsregelung wanderte etwa ein Zehntel der Bevölkerung, unter ihnen fast die gesamte kubanische Oberschicht, in die USA aus – insbesondere nach Florida. Neben politischen Aktivitäten entfalteten einige dieser Exilkubaner – zusammen mit US-Regierungsstellen – in der Folgezeit verdeckte und offene militärische Operationen gegen Kuba. Bekannt wurde die 1961 zum Beginn der Amtszeit John F. Kennedys versuchte Invasion in der Schweinebucht unter Beteiligung von 1.500 Exilkubanern. Ihr Scheitern führte zum bis heute andauernden Wirtschaftsboykott der USA und beschleunigte die Anlehnung der kubanischen Revolution insbesondere an sowjetische Vorbilder.
Nach 1963 kam es zu kontroversen Diskussionen zwischen Fidel Castro, Guevara und den als Wirtschaftsberatern engagierten intellektuellen Marxisten Charles Bettelheim und Ernest Mandel. Guevara galt hierbei als Vertreter eines radikal zentralistischen und schnellstmöglichen Übergangs zum Sozialismus und einer moralischen Mobilisierung des „neuen Menschen“.
Als Industrieminister suchte Guevara die reine Lehre der Planwirtschaft umzusetzen und eine vollständige Verstaatlichung der kubanischen Wirtschaft anzustreben. Die Zuckerproduktion ging in der Folge um ein Drittel zurück, die Getreideproduktion halbierte sich, die Industrialisierungspläne wurden verschoben. Tschechoslowakische Wirtschaftsexperten kritisierten 1962 eine mangelhafte Umsetzung der Planwirtschaft. Bekannt waren jedoch die fehlenden Fachkenntnisse Guevaras in Wirtschaftsfragen. Auf betrieblicher Ebene lehnte er vermehrte materielle Anreize, Freiräume für private Kleinunternehmen und eine Lohndifferenzierung nach Leistung aus ethischen Gründen ab. Guevara war vielmehr von einer Pflicht zur Beteiligung an der kubanischen Revolution, dem sozialistischen Aufbau und dem Kampf gegen Angriffe auf das befreite Kuba überzeugt, was er 1965 unter dem Titel "Der Sozialismus und der Mensch in Kuba" auch schriftlich darlegte. Guevara selbst lebte seine Vorsätze und Ideale vor und verlangte die entsprechende Aufopferungsbereitschaft auch von anderen. Er war regelmäßig bei freiwilligen Arbeitseinsätzen beteiligt und verzichtete öffentlichkeitswirksam auf Vergünstigungen für sich und seine Familie.
Politik im nachrevolutionären Kuba.
Direkt nach dem Sieg der Revolution besaß Guevara als Kommandant der auch als Gefängnis genutzten Garnisonsfestung La Cabaña in Havanna sowie als zeitweiser Vorsitzender des als Revisionsinstanz gegründeten „Obersten Kriegsrats“ die Oberaufsicht über die revolutionären Tribunale gegen vermeintliche oder tatsächliche Gefolgsleute des Batista-Regimes. Unter seiner Verantwortung wurden zahlreiche Todesurteile gefällt und vollstreckt. Auch war er für die Errichtung von Straf- und Arbeitslagern mitverantwortlich, in denen „Gegner der Revolution“ – zu denen auch Homosexuelle zählten – interniert wurden.
Bereits im Juni 1959 unterstützte Guevara lateinamerikanische Guerillagruppen. In Honduras bereiteten sich mehrere Gruppierungen, so die "Frente Revolucionario Sandino," denen u. a. die späteren FSLN-Angehörigen Tomás Borge und Edén Pastora Gómez angehörten, auf einen Sturz der nicaraguanischen Regierung vor. Guevara entsandte zu ihrer Unterstützung ein Schiff mit 300 Handfeuerwaffen nach Puerto Cortés, das jedoch von der honduranischen Armee beim Entladen der Waffen beschlagnahmt wurde.
Privatleben.
In La Cabaña heiratete Che Guevara am 2. Juni 1959 seine zweite Frau, Aleida March, nachdem er sich von Hilda Gadea hatte scheiden lassen. An der einfachen zivilen Zeremonie nahmen auch die Comandantes Fidel Castro und Camilo Cienfuegos sowie Celia Sánchez teil. In den nächsten Jahren bekam das Paar vier Kinder:
Che Guevaras erste Frau Hilda lebte mit der gemeinsamen Tochter Hilda „Hildita“ Beatriz Guevara Gadea (* 15. Februar 1956 in Mexiko-Stadt; † 21. August 1995 in Havanna) ab 1959 auch in Havanna. Auf den Kontakt mit seiner Exfrau soll er Aleida March zuliebe weitgehend verzichtet haben. Seine Tochter Hildita nahm er jedoch regelmäßig mit in seine neue Familie.
Einer zwischenzeitlichen außerehelichen Beziehung mit der damaligen Studentin und späteren Journalistin Lilia Rosa López (* 1940) entstammt Guevaras 1964 in Havanna geborener Sohn Omar Pérez López – der Schriftsteller und bildende Künstler erfuhr erst 1989 von Guevaras Vaterschaft.
Außenpolitische Aktivitäten.
Im Sommer 1960 besuchte Guevara, während der dortigen Kampagne des „Großen Sprungs nach vorn“, die Volksrepublik China und unterzeichnete fast unmittelbar nach dem öffentlich ausgetragenen chinesisch-sowjetischen Zerwürfnis einen Handelsvertrag mit China. Ende 1960 reiste Guevara in die Tschechoslowakei, in die Sowjetunion (bekannt wurde Guevaras Blumenniederlegung am Grabe Josef Stalins, gegen den Willen der sowjetischen Führung), in die Deutsche Demokratische Republik, nach Nordkorea und Ungarn und schloss mit diesen Ländern Handels- und Kreditvereinbarungen ab.
Zur Absicherung ihrer Politik der Konfrontation mit den USA richtete sich die kubanische Regierung zunehmend an der Sowjetunion aus. Guevara hatte mit der Sowjetunion über Waffenlieferungen verhandelt und nach dem Fehlschlagen der Invasion in der Schweinebucht zusammen mit Raúl Castro Vorbereitungen zur Stationierung russischer Atomwaffen auf Kuba getroffen, was zur weltpolitisch bedeutsamen Kubakrise 1962 führte. Guevara zeigte sich allerdings enttäuscht von der Sowjetunion, die im Sinne ihrer außenpolitischen Doktrin der „friedlichen Koexistenz“ auf dem Höhepunkt der Kubakrise einlenkte. Kurz nach der Kubakrise äußerte er gegenüber Journalisten des "Daily Worker," er hätte Atomraketen in Richtung USA abgefeuert, wenn die Sowjetunion es denn zugelassen hätte. Che Guevara pries im November 1962 die Bereitschaft des kubanischen Volkes, „sich in der atomaren Konfrontation zu opfern, damit seine Asche als Dünger neuer Gesellschaften diene“. Das auf dem „atomaren Scheiterhaufen“ vergossene Blut des Volkes wäre der „heiligste Schatz“ gewesen.
Am 11. Dezember 1964 hielt Guevara eine vielbeachtete Rede vor den Vereinten Nationen, in der er aus seiner Sicht die damalige Außenpolitik der USA beschrieb und sich zur Frage atomarer Bewaffnung der NATO-Länder und zur Wiedervereinigung der beiden deutschen Staaten äußerte.
Politischer Rücktritt und erneute revolutionäre Aktivitäten.
Konflikte mit Fidel Castro.
Gegenüber dem pragmatischen, realpolitisch geprägten Fidel Castro begann er mit seinen radikalen, von manchen als prochinesisch interpretierten Idealen in Gegensatz zu geraten. 1964 verlagerte Castro unter Druck der Sowjetunion den Schwerpunkt der kubanischen Wirtschaft wieder auf die Zuckerrohrproduktion und verschob die von Guevara angestrebte Industrialisierung „um mindestens zehn Jahre“.
Eine weitere Reise führte Guevara 1964 als Leiter der kubanischen UN-Delegation nach New York. In einer bekannten Rede vor der UN bekannte er sich zur revolutionären Gewalt als Mittel der internationalen Politik und forderte die Übertragung der kubanischen Revolution auf andere Länder. Im Anschluss besuchte er unter anderem erneut die Volksrepublik China im Vorfeld der Kulturrevolution, die Vereinigten Arabischen Emirate, Ägypten, Algerien, Ghana und weitere afrikanische Länder. Bekannt wurden antisowjetische Vorbehalte, die er im Februar 1965 bei einem Besuch einer afrikanisch-asiatischen Solidaritätskonferenz im unabhängigen, sozialistisch regierten Algerien äußerte. Damit geriet er in offenen Konflikt mit der sowjetischen Haltung wie auch mit der kubanischen Führung.
Die Differenzen mit den Castro-Brüdern spitzten sich zu. Nach der Rückkehr in Kuba trat Guevara zur allgemeinen Verwunderung von der öffentlichen Bühne ab und von seinen Ämtern zurück. Er verließ Kuba in der Verkleidung eines Geschäftsmannes, um mit weiteren kubanischen Kämpfern die Rebellen im Kongo zu unterstützen. Am 24. April 1965 erreichte er über den Tanganjikasee den Kongo.
Kongo.
Im Kongo gab es schon seit 1960 bürgerkriegsähnliche Zustände und politische und militärische Bewegungen, die von den USA, der Sowjetunion oder China unterstützt wurden. Guevaras Versuch, dort eine Revolution nach kubanischem Vorbild anzuzetteln, scheiterte aber. Guevara erklärte dies mit dem Phlegma sowie der fehlenden Konsequenz und Organisation der Rebellen um Laurent Kabila im Kongo. Ende 1965 kehrte er enttäuscht nach Kuba zurück. Externe Kritiker sprachen von völlig unzulänglicher Vorbereitung, einer mangelnden Einsicht in die Verhältnisse vor Ort bis hin zu Mängeln bei Sprachkenntnissen, Ausrüstung und Training. Jon Lee Anderson zitiert Warnungen Gamal Abdel Nassers, dem Guevara freundschaftlich verbunden war, vor dem Einsatz im Kongo, die er aber nicht beachtete.
Angola.
Am 5. Januar 1965 gab es mit Guevaras Besuch im Hauptquartier der angolanischen Guerillabewegung MPLA in Brazzaville den ersten hochrangigen Kontakt zwischen Kuba und der MPLA. Bei seinem Treffen versuchte er deren Anführer Agostinho Neto, Lúcio Lara und Luís de Azevedo von seiner Vision einer pan-afrikanischen Revolution zu überzeugen. Sein Vorschlag, die MPLA möge ihre Kämpfer auch in den Kongo schicken, wurde von ihnen jedoch abgelehnt. Stattdessen forderten sie Ausbilder, Waffen und Ausrüstung sowie erfahrene kubanische Guerillakämpfer, um die MPLA-Kämpfer in Cabinda zu unterstützen. Mit seinem Treffen hatte Guevara die Grundlage für Kubas massive Intervention in den Bürgerkrieg in Angola von 1975 geschaffen. Im Mai 1965 kamen die ersten neun kubanischen Ausbilder in Brazzaville an. Für sie stellte die Disziplinlosigkeit und der hohe Grad des Tribalismus der Kämpfer jedoch eine besondere Herausforderung dar.
Bolivien.
Zunächst war Peru als nächster Einsatzort gedacht, doch gingen die "Comandantes" Guevara und Juan Vitalio Acuña Núñez und andere bewaffnete kubanische Kämpfer, darunter auch die deutschstämmige Tamara Bunke, 1966 schließlich nach Bolivien. Che Guevara führte selbst (allerdings unter falschem Namen) eine Gruppe von 44 Kämpfern unter dem Namen ELN (Nationale Befreiungsarmee). Er war dabei bestrebt, die Erfahrungen mit der Rebellenarmee auf Bolivien zu übertragen. Guevaras persönliche Erlebnisse sind in seinem später veröffentlichten "Bolivianischen Tagebuch" dokumentiert.
Die Gruppe operierte in den bewaldeten Berghängen des östlichen zentralbolivianischen Hochlandes. Ab März 1967 lieferten sie sich dort Scharmützel mit Regierungstruppen. Eine Kontaktaufnahme mit der bolivianischen Bevölkerung, etwa durch einen dem kubanischen Radio Rebelde vergleichbaren Sender, fand nicht statt. Entgegen den hochgesteckten Erwartungen schlossen sich nur zwei einheimische Bauern der Truppe an – die vorwiegend Quechua sprechende indigene Landbevölkerung blieb auf Distanz zu den Spanisch sprechenden Revolutionären. Genauso blieb die erwartete Unterstützung durch bolivianische Bergarbeiter und die Kommunistische Partei Boliviens (PCB) unter Mario Monje aus.
Die Gruppe wurde im April 1967 in zwei Teile gespalten: Guevara führte die Hauptgruppe an, sein Stellvertreter Juan Vitalio Acuña Núñez die Nachhut. Die zwei Gruppen konnten aber wegen des Ausfalls der Funkgeräte nicht mehr miteinander kommunizieren und sich daher auch nicht finden. Im August 1967 wurde die Nachhut aufgerieben, Acuña starb am 31. August 1967 zusammen mit Bunke in einem Hinterhalt bolivianischer Regierungstruppen bei Vado de Puerto Mauricio.
Auch Guevaras Truppe befand sich in der Defensive und bestand am Ende nur noch aus 14 Personen. Er selbst wurde am 8. Oktober 1967 nach einem Gefecht mit bolivianischem Militär bei La Higuera verwundet und zusammen mit Simeón Cuba Sanabria gefangen genommen. Fünf Mitgliedern seiner Gruppe, darunter Inti Peredo, gelang die Flucht nach Chile.
Guevara wurde nach seiner Festnahme durch eine vom späteren Minister und Botschafter Gary Prado Salmón angeführte Eliteeinheit in einem dörflichen Schulhaus in La Higuera inhaftiert. Am 9. Oktober 1967 um 13:10 Uhr wurde er dort von Mario Terán, einem Feldwebel der bolivianischen Armee, auf Weisung von Präsident René Barrientos Ortuño ohne vorherige Gerichtsverhandlung und entgegen dem Verbot der Todesstrafe in der bolivianischen Verfassung exekutiert. Im Nebenraum wurde gleichzeitig sein bolivianischer Kampfgefährte Cuba erschossen.
Guevara war es im Frühjahr 1967 noch gelungen, eine Grußadresse an eine Solidaritätskonferenz der OSPAAAL (Organización de Solidaridad de los Pueblos de África, Asia y América Latina) zu versenden. Auch in Deutschland wurde das von Rudi Dutschke und Gaston Salvatore übersetzte Manuskript unter anderem mit der Aufforderung bekannt, „zwei, drei, viele Vietnams“ zu schaffen, sowie mit der Mahnung, sich als Guerilla im Kampf von „unbeugsamem Hass“ antreiben zu lassen, um eine „effektive, gewaltsame, selektive und kalte Tötungsmaschine“ darzustellen. Innerhalb der europäischen Studenten- und Protestbewegung fanden Guevaras Aussagen breiten Widerhall.
Nach Che Guevaras Tod.
Guevara wurde im etwa 30 Kilometer von La Higuera entfernten Vallegrande aufgebahrt und sein Leichnam der Presse vorgeführt. Dabei entstanden mehrere Fotos, unter anderem die bekannte Fotografie des bolivianischen Fotografen Freddy Alborta. Nach offiziellen Angaben war er im Kampf getötet worden. Später wurde er heimlich begraben, nachdem ihm seine Hände abgetrennt worden waren, um einen Nachweis zur Identifizierung zu haben. In Bolivien gab es keine Todesstrafe, und man wollte eine jahrelange Haft in einem noch nicht einmal vorhandenen Hochsicherheitsgefängnis und die zu erwartenden diplomatischen Verwicklungen vermeiden. Jahre später erst wurden die tatsächlichen Todesumstände nach und nach bekannt.
Die Bilder des toten Guevara – mit ihrer frappierenden Ähnlichkeit zu Darstellungen des toten Christus etwa von Andrea Mantegna – wurden in Zeitungsberichten als Abbild eines modernen Heiligen interpretiert, der zweimal sein Leben für fremde Länder riskiert hatte und es für ein drittes dreingegeben habe. Régis Debray, der Guevara in Bolivien begleitet hatte, bezeichnete Guevara als Mystiker, als Heiligen ohne Gottesglauben. Guevaras Beschwörung des „Neuen Menschen“, dem weniger am materiellen als am geistigen Fortschritt gelegen sei, sei anderen zufolge eher jesuitischen als linken Idealen verpflichtet gewesen. Guevara selbst wird im Umfeld seines Todesortes in Bolivien wie ein religiöser Heiliger verehrt.
Die abgetrennten Hände Guevaras wurden konserviert, zur Identifizierung nach Buenos Aires versandt und später Kuba überlassen. Seine Gebeine selbst wurden erst 1997 in Vallegrande entdeckt, nachdem ein ehemaliger Offizier der bolivianischen Armee den Begräbnisort enthüllt hatte. Die sterblichen Überreste Guevaras und einiger seiner Begleiter wurden exhumiert und nach Kuba überführt, um dort mit einem Staatsbegräbnis in dem eigens geschaffenen Mausoleum Monumento Memorial Che Guevara in Santa Clara beigesetzt zu werden.
Ende 2007 wurden eine Haarlocke und Fingerabdrücke Guevaras und weitere Dokumente der Festnahme für insgesamt 119.500 US-Dollar versteigert.
Rezeption und Kritik.
Verehrung.
Vor allem in Kuba gilt "el Che" bis heute als Volksheld. Schulkinder sind täglich angehalten, ihm als revolutionärem Vorbild nachzueifern. So lautet das Motto des Kinderverbandes (Organización de Pioneros José Martí): „Pioneros por el comunismo ¡Seremos como el Che!“ („Pioniere für den Kommunismus – wir werden sein wie Che!“).
Auch in die Kunst, insbesondere Kubas, fand die Verehrung des Che Eingang. So wird er in Carlos Pueblas Lied Hasta siempre, comandante zu einem revolutionär-religiösen Mythos, gleichsam zu einem Märtyrer, erhoben. In einem der bekanntesten Lieder des kubanischen Liedermachers Silvio Rodríguez „Fusil contra fusil“ klingt dies ebenfalls an. Wolf Biermann hingegen sang in seiner deutschen Fassung des „Hasta siempre“ vom „Christus mit der Knarre“, der „kein Bonze“ geworden sei und nicht „vom Schreibtisch aus den Helden“ gespielt hätte.
Sein Tod im Namen einer revolutionären Bewegung machte ihn zu einem Märtyrer linker Unabhängigkeits- und Befreiungsbewegungen in der ganzen Welt. Che Guevara ist heute eine Ikone: Sein Bild findet sich millionenfach auf Kleidungsstücken und Gebrauchsgegenständen. Sich mit ihm zu schmücken ist nicht unbedingt ein politisches Bekenntnis, verspricht aber ideellen (und für Produzenten und Händler der damit ausgestatteten Gegenstände auch finanziellen) Gewinn. Reinhard Mohr sprach von „politisch auf ganzer Linie gescheitert, als Ikone unsterblich“ angesichts des seiner Ansicht nach quasireligiösen Umgangs mit Guevara, der unter anderem von Jean-Paul Sartre posthum als „vollständigster Mensch unserer Zeit“ beschrieben worden war. Die Verklärung Guevaras wird als Umdeuten eines kämpferischen Kommunisten in eine beliebige Ikone des Unangepasstseins kritisiert, andere sehen einen kompromisslosen Stalinisten unter der Maske des zeitlosen jugendlichen Helden kaschiert. Stephan Lahrem und Christopher Hitchens zufolge sei Guevara ein beliebtes idealisiertes Vorbild gewesen, weniger in den Entwicklungsländern als vielmehr für bürgerliche Städter in den „Wohlstandsgesellschaften“, gerade weil sein Kämpfen und Sterben für revolutionäre Ideale keineswegs einem normalen bürgerlichen Leben entsprach. Hitchens stellt Guevara eher in eine romantische als in eine orthodox linke Tradition, näher an den Reiseschriftsteller und Aufrührer Lord Byron als an Karl Marx. Um als romantische Ikone zu überdauern, müsse man nicht nur möglichst jung sterben, sondern „jung und hoffnungslos“. Guevara habe beide Kriterien erfüllt.
Auch in der Außerparlamentarischen Opposition (APO) Westeuropas während der 1960er Jahre bis hin zur deutschen RAF beriefen sich einige auf Guevaras Thesen vom Guerillakampf oder wurden von Zeitzeugen wie Régis Debray inspiriert. Bei vielen Demonstrationen der Studentenbewegung wurde neben dem Porträt des führenden nordvietnamesischen Revolutionärs Ho Chi Minh und dem Mao Zedongs auch "Guerrillero Heroico" (Der heldenhafte Guerillakämpfer), ein berühmtes Abbild Guevaras, mitgeführt. Bis heute ist das in vielen Variationen verbreitete, stark kontrastierte Abbild Ches mit Barett, rotem Stern und einem über den Betrachter hinwegweisenden Blick zu einer der bekanntesten Aufnahmen des 20. Jahrhunderts geworden. Das Bild wurde von dem kubanischen Fotografen Alberto Korda bei einem Staatsbegräbnis am 5. März 1960 aufgenommen, bei dem Guevara neben anderen offiziellen Trauergästen auf einer Tribüne stand. Nach dem Tod Guevaras wurde das Foto vom Verleger Giangiacomo Feltrinelli weltweit verbreitet. Unter dem Einfluss der Studentenbewegung der 1960er Jahre in West-Berlin schuf der Künstler Wolf Vostell 1968 das Bild "Che Guevara", eine Verwischung einer Fotografie des der Presse präsentierten Leichnam des Che Guevara.
Anlässlich Guevaras 20. Todestag fand in Ouagadougou eine Gedenkveranstaltung unter der Leitung von Thomas Sankara statt. Unter den Teilnehmern befand sich eine kubanische Delegation, der auch Guevaras Sohn Camilo angehörte.
Kritik insbesondere an Menschenrechtsverletzungen.
Der aus Kuba stammende US-Amerikaner Humberto Fontova beschreibt Guevara als ineffektiven wie brutalen Taktiker. Verschiedene Kritiker führen das Scheitern der von Guevara verantworteten Wirtschafts- und Industriepolitik auf seine Persönlichkeit wie auf unzureichende wirtschaftspolitische Konzepte zurück.
Guevara wurden darüber hinaus Folter und Ermordung hunderter kubanischer Häftlinge, der Mord an Kleinbauern im Operationsbereich seiner Guerillatruppen sowie später die Freude an der Exekution von Gegnern und die Einrichtung des ersten Arbeitslagers auf Kuba vorgeworfen. Seine Brutalität umschrieb er mit paradoxen Formeln, etwa der Definition des Ansporn des Revolutionärs in „einem unermesslichen Gefühl der Liebe“, wobei er sich gleichzeitig darin üben müsse, „eine kaltblütige Tötungsmaschine zu werden, angetrieben von blankem Hass“.
Eine entsprechende Beschreibung Guevaras als skrupellos und brutal in der linken "taz" rief im Oktober 2007 erhebliches Aufsehen in der deutschen linken Szene hervor, nachdem solche Kritik sonst eher Exilkubanern und früheren Dissidenten aus dem ehemaligen Ostblock zugeordnet worden war. Ähnlich umstritten war die Deutung Gerd Koenens, der von „phantastischen Weltbrandstiftungsszenarien“ Guevaras sprach, „die noch aus der ‚atomaren Asche‘ den Neuen Menschen entstehen sahen“.
Dem von ihm verkörperten Freiheitsideal widerspricht die häufig als stalinistisch definierte kompromisslose Politik gegenüber seinen Gegnern: Während seiner Zeit als Ankläger wurden in der als Gefängnis genutzten Festung La Cabaña als ehemalige Anhänger des Batista-Regimes, als Kollaborateure oder als Vertreter des US-Geheimdienstes beschuldigte Kubaner in revolutionären Militärtribunalen verurteilt. Diese zu Zeiten des Ausnahmezustands in der ersten Jahreshälfte 1959 abgehaltenen Verfahren entsprachen keinerlei rechtsstaatlichen Mindeststandards und lösten internationale Empörung aus. Über die Zahl der von Guevara direkt befohlenen Erschießungen gibt es keine genauen Angaben – 216 Fälle sind namentlich belegt, ein ehemaliger Angehöriger des Tribunals in La Cabaña geht von rund 400 aus, kubanische Oppositionelle rechnen teilweise mit wesentlich höheren Zahlen. Die in den Folgejahren häufigen, auch international kritisierten Tötungen rechtfertigte Guevara 1964 ausdrücklich in einem Debattenbeitrag vor der Vollversammlung der Vereinten Nationen mit der Bemerkung, Kuba befinde sich in einem Kampf auf Leben und Tod. Als Industrieminister schickte Guevara zahlreiche „mangelnder revolutionärer Moral“ beschuldigte Mitarbeiter ohne Gerichtsurteil in das sogenannte „Lager für Besserungsarbeit“ auf der Halbinsel Guanahacabibes, eines der ersten von mehreren hundert in den ersten Revolutionsjahren entstandenen Zwangsarbeitslagern.
Der mexikanische Autor und spätere Außenminister im neoliberalen Kabinett Fox, Jorge Castañeda, nutzt seine Biographie Guevaras zur Illustration der Ansicht, wonach die Verehrung Guevaras und seiner militanten Thesen und Aktionen ein Grund für die verzögerte und lange marginale Herausbildung einer lateinamerikanischen Sozialdemokratie gewesen sei. |
1313 | 738680 | https://de.wikipedia.org/wiki?curid=1313 | Estnische Sprache | Estnisch (Eigenbezeichnung: "eesti keel") ist eine flektierend-agglutinierende Sprache und gehört zum ostseefinnischen Zweig der Gruppe der finno-ugrischen Sprachen. Das Estnische ist eng mit dem Finnischen und dem 2013 ausgestorbenen Livischen verwandt. Eine entfernte Verwandtschaft besteht zum Ungarischen.
Estnisch ist die einzige Amtssprache der Republik Estland und wird dort von 950.000 Menschen gesprochen. Durch die historischen Ereignisse des 20. Jahrhunderts gibt es auch im Ausland estnische Gemeinden, die etwa 150.000 Sprecher zählen. Die Gesamtzahl der Sprecher des Estnischen als Muttersprache liegt damit bei rund 1,1 Millionen.
Der "Sprachcode" ist codice_1 bzw. codice_2 (nach ISO 639).
Alphabet.
Das estnische Alphabet verwendet die folgenden Buchstaben:
a, b, c, d, e, f, g, h, i, j, k, l, m, n, o, p, q, r, s, š, z, ž, t, u, v, w, õ, ä, ö, ü, x, y
Hierbei kommen die Buchstaben c, f, q, š, z, ž, w, x und y nur selten, entweder in Fremdwörtern oder fremden Namensgebungen, vor. (Alle gängigen Zeichen fett) Die Vokale a, e, i, o, u, ü, ä, ö und õ können alle in der ersten Silbe eines Wortes vorkommen, in der letzten sind aber nur noch die Vokale a, e, i, u, und in einigen Fremdwörtern o "(metroo)", möglich. Mit den Konsonanten g, b oder d beginnen nur Fremdwörter.
Phonologie.
Vokale.
Das Estnische besitzt 9 Monophthonge, die in drei Quantitätsstufen (kurz vs. lang vs. überlang) auftreten können. Die Quantität gilt hierbei als distinktives, also bedeutungsunterscheidendes Merkmal. Weiterhin gelten "Lippenrundung" (gerundet vs. ungerundet) und "Zungenstellung" (vorne vs. hinten) als distinktive Merkmale estnischer Vokale. Es gilt hierbei zu beachten, dass der für das Deutsche typische Einfluss der Quantität auf die Qualität entfällt. Während im Deutschen ein langer E-Laut [eː] in seiner kurzen Artikulation zu einem [ɛ] würde, bleibt im Estnischen die Qualität, also die Gespanntheit, erhalten, sodass [e] zu artikulieren ist.
Der Laut [], ein ungerundeter halbgeschlossener Hinterzungenvokal, graphematisch durch das Zeichen <õ> dargestellt, ist der gleiche Laut wie das bulgarische <ъ>; im Russischen existiert mit <ы> lediglich ein dazu "ähnlicher" Laut, der jedoch im Gegensatz zum Laut [ɤ] keinen Hinterzungenvokal, sondern einen Zentralvokal ([ɨ]) darstellt.
Je nach Zählweise umfasst das Estnische zwischen 19 und 36 Diphthonge. Die Differenzen ergeben sich aus der Frage, ob es sich bei den Lautverbindungen um "verbundene" oder "verschmolzene" Einzellaute handelt.
/õi/; /õu/; /äe/; /äi/; /äu/; /öi/; /üi/
Diese Diphthonge werden um folgende, als losere Lautverbindungen zu betrachtende, Diphthonge ergänzt:
Als schwierig erweist sich jedoch die Filterung standardsprachlicher Diphthonge von jenen, die lediglich in dialektalen Varianten des Estnischen auftreten. Eine konsequente Betrachtung der letzteren Gruppe würde dazu führen, die zweite Liste der Diphthonge erweitern zu müssen.
Konsonanten.
Das Estnische hat 17 Konsonantenphoneme, die den Vokalen gleich in drei Quantitätsstufen (kurz vs. lang vs. überlang) auftreten können. Auch bei den Konsonanten gilt die "Quantität" als distinktiv und wird durch die Merkmale von "artikulierendem Organ und Artikulationsstelle" sowie der "Artikulationsart" ergänzt.
Die Laute ʒ und kommen jedoch lediglich in Fremdwörtern vor.
Auffälligkeiten ergeben sich auch im Hinblick auf die Plosive, die im Estnischen nicht aspiriert, also nicht behaucht, werden. Diese gelten im Estnischen weiterhin als Varianten der Phoneme /p,t,k/. Darüber hinaus wird das Graphem grundsätzlich stimmlos artikuliert.
Akzentuierung.
Im Estnischen liegt der Wortakzent grundsätzlich auf der ersten Silbe. Besonders fällt dies in Wörtern wie "teater" (deutsch: "Theater") auf. Eine Ausnahme ist das Wort "aitäh!" (deutsch: "danke!"). Des Weiteren ist für Lehn- und Fremdwörter charakteristisch, dass die Akzentuierung der Ausgangssprache zumeist beibehalten wurde. Bei estnischen Wörtern kann zudem ein Nebenakzent auf der dritten oder einer anderen ungeraden Silbe liegen, was vor allem im Falle der zahlreichen Komposita deutlich wird.
Grammatik.
Das Estnische kennt keine grammatischen Geschlechter. In der dritten Person Singular wird für Personen beiderlei Geschlechts das Pronomen "tema" (Kurzform: "ta") verwendet. Das heißt, dass zwischen Maskulinum und Femininum nicht unterschieden wird. Das gilt auch für Berufsbezeichnungen; so kann das estnische Wort "õpetaja" sowohl ‚Lehrerin‘ als auch ‚Lehrer‘ bedeuten.
Substantive.
Bezüglich der grammatischen Kategorie des Kasus unterscheidet man im Estnischen 14 Fälle. Bei der estnischen Sprache handelt es sich um eine Akkusativsprache, doch ist der Akkusativ als solcher nicht mehr zu erkennen. Wie auch im Finnischen ist der historische Akkusativ im Laufe der Sprachentwicklung lautgesetzlich mit dem Genitiv zusammengefallen. In der Tat spielen die estnischen Fälle, so viele es auch sind, für die Auszeichnung von Agens und Patiens keinerlei Rolle, dieselbe wird nur durch die Wortstellung und die Verbform bewerkstelligt.
Transitiv gebrauchte transitive Verben bereiten naturgemäß die kleinsten Probleme, die Reihenfolge lautet hier: Agens Verb Patiens. Intransitiv gebrauchte transitive Verben werden in der Grundform elliptisch, also sich auf einen obliquen Patiens beziehend, verstanden. Um das involvierte Substantiv selbst zum Patiens zu machen, es sozusagen in den Absolutiv zu setzen, wird der Verbstamm um „-u“ erweitert. Dies wird am folgenden Beispiel deutlich: "muutma" (ändern): "ta muudab" (er/sie/es ändert (irgendetwas)), "ta muutub" (er/sie/es ändert (sich)).
Ursprünglich intransitive Verben werden „absolutiv“ verstanden, das dem Verb vorangehende Substantiv ist also der Patiens. Diese können indes „transitiviert“ werden, mit der Bedeutung, dass irgendetwas dazu veranlasst wird, eine bestimmte Handlung zu vollführen und anschließend wieder elliptisch gebraucht werden. Diese „Transitivierung“ geschieht durch eine Erweiterung des Verbstammes um „-ta“, wodurch im Estnischen der Kausativ gebildet wird: "langema" ((im Krieg) fallen): "ta langeb" (er/sie/es fällt (im Krieg)), "ta langetab" (er/sie/es fällt oder senkt (irgendetwas, aber vermutlich einen Baum oder den Kopf)).
Schließlich besitzt das Estnische auch die Möglichkeit, mit Hilfe von "-ise" (selbst) reflexive Konstruktionen zu bilden: "Ma küsin endalt." (Ich frage mich.)
Bei dieser quasireflexiven Konstruktion liegt indes der Verdacht nahe, dass es sich dabei um einen Germanismus handelt, denn die zuvor beschriebene Sprachkonzeption zur Auszeichnung von Agens und Patiens kommt offensichtlich ohne reflexive Konstruktionen und Passivformen aus und ist in diesem Sinne als „ergativ gedacht“ zu bezeichnen.
Dasweiteren gibt es beispiele für Formen die traditionell nicht zu den 14 Fällen gezählt werden wie den Instruktiv (jalgsi, "zu Fuß"; käsitsi, "von Hand"), oder den auf gleiche Weise gebildeten Prolativ (meritsi, "auf dem Seeweg").
Ortsangaben
Gewöhnlich liest man davon, dass der Inessiv im Gegensatz zum Adessiv dann gebraucht werde, wenn etwas sich nicht an einer Seite von etwas, sondern in seinem Inneren befindet. Der Inessiv ähnelt jedoch sehr der Verwendung der Präposition „in“ im Deutschen, und von der gilt das vorige im Gegensatz zur Präposition „an“ auch keineswegs. Beispiel: „Ah, Günther ist wieder im Land.“ – was ja nicht heißt, dass Günther in der Erde steckte. Insbesondere fällt im Estnischen der Schnee "ins" und nicht "aufs" Land. Die Regel, soweit man davon sprechen kann, ist hier, dass Dinge, die nur in einem übertragenen Sinn ein Inneres haben, mit dem Adessiv gebraucht werden, z. B. an der Arbeit sein, und Dinge, die n-dimensional ausgedehnt gedacht werden, den Inessiv für ihr "n"-dimensional Inneres und den Adessiv für ihren ("n"−1)-dimensionalen Rand nach sich ziehen, wobei "n" aus {1,2,3}.
Allerdings befolgt das Estnische diese Regel flächiger als das Deutsche, wie z. B. den Handschuh in die Hand zu ziehen, das Hemd in den Rücken und die Mütze in den Kopf.
Verben.
Verben unterliegen im Estnischen den grammatischen Kategorien Modus, Tempus, Genus verbi, Person und Numerus.
Konjugation.
Die folgende Tabelle zeigt die Konjugation estnischer Verben am Beispiel von "kirjutama" (schreiben) im Präsens, Indikativ:
Präteritum:
Das Suffix, das das Präteritum markiert, wird zwischen den Stamm des ma-Infinitivs und die Personalendung eingefügt. In der Regel lautet das Suffix „-si“, es gibt jedoch die Ausnahmen „-s“ und „-is“*, die in der 3. Person Singular eingesetzt werden, da bei dieser Person im Präteritum die Personalendung entfällt. In der einfachen Vergangenheitsform entspricht die Personalendung der 3. Person Plural der, der 2. Person Singular, also „-d“.
Auch möglich ist die Bildung des Präteritums mit dem Suffix „-i“. Diese Form kommt vor allem bei Verben mit einsilbigem Stamm und langem Vokal am Ende vor, aber nicht ausschließlich.
Perfekt:
Das Perfekt setzt sich im Estnischen aus 2 Bestandteilen zusammen: der flektierten Präsensform des Hilfsverbs „olema“ und dem „-nud“-Partizip des betreffenden Verbs.
Plusquamperfekt:
Das Plusquamperfekt wird im Estnischen aus der flektierten Form des Hilfsverbs „olema“ im Präteritum und dem „-nud“-Partizip des betreffenden Verbes gebildet.
Futur:
Es gibt im Estnischen kein Suffix, das an Verben das Futur markiert. Um dennoch eine Handlung, die in der Zukunft stattfinden wird, zu beschreiben, wird das flektierte Verb im Präsens zusammen mit einem Temporaladverb oder einem Substantiv im Adessiv verwendet.1) Ta lähe-b esmaspäeval.
3SG gehen-3SG Montag-ADE
Er geht am_Montag (Hasselblatt, 1992, S. 48)
„Er wird Montag gehen.“ Das Substantiv „Montag“ steht im Adessiv, der in diesem Beispiel der Temporalbestimmung dient und somit den futurischen Tatbestand ausdrückt.
Tabellarisch könnte man also die Bildung des Futurs so zusammenfassen:
Alternativ gibt es auch die Konstruktion mit „saama“ (bekommen, werden) und dem ma-Infinitiv des jeweiligen Verbs.2) Elu saab seal raske olema.
„Das Leben dort wird schwer werden.“
3) See saa-b nii olema.
Dieser werden -3SG so sein.MINF (Hasselblatt,1992, S. 48)
„Das wird so sein.“ Modus
Im Estnischen gibt es vier Modi des Verbs:
1) Indikativ (Wirklichkeitsform/Grundmodus)
2) Imperativ (Befehlsform)
3) Konditional (bedingte Form)
4) Modus obliquus (Abhängigkeitsform)
Indikativ:
Da der Indikativ den Grundmodus der Verben darstellt, finden sich die flektierten Formen in den jeweiligen Tempustabellen.
Imperativ:
Die Befehlsform kommt vor allem im Präsens vor, kann aber auch im Perfekt auftreten (dort jedoch fast ausschließlich in der 3. Person). Das Suffix für den Imperativ ist „-g-/-k-“, welches zwischen den Stamm des „-da“-Infinitivs und eine Personalendung eingefügt wird. Die Personalendungen sind „-em“ für die 1. Person Plural, „-e“ für die 2. Person Plural und „-u“ für die 3. Person. Die 1. Person Singular ist nicht im Imperativ vorhanden. Die 2. Person Singular bildet sich aus der 1. Person Indikativ Präsens, bei der die Personalendung „-n“ entfällt (z. B.: kirjutama à kirjutan à kirjuta! (‚zu schreiben‘ → ‚ich schreibe‘ → ‚schreib!‘)). Endet der da-Infinitiv des jeweiligen Verbs auf „-da“, wird das Suffix „-g-“ angehängt, bei der Endung „-ta“ das Suffix „-k-“.
(Hasselblatt, 1992, S. 67)
Es gilt zu beachten, dass bei manchen Verben im „-da“-Infinitiv das „-d“ oder „-t“ zum Stamm gehört, zum Beispiel bei „saata“ (zu schicken) oder „püüda“ (zu versuchen). Bei diesen und ähnlichen Verben entfällt das „a“ am Ende und das Suffix wird angehängt („saatke“ (‚schickt!‘), „püüdke“ (‚versucht!‘)).
Im Perfekt wird der Imperativ für die 3. Person gebildet, indem man die Befehlsform des Hilfsverbs mit dem „nud“-Partizip verbindet.
Konditional:
Die Bedingungsform kann sowohl im Präsens, als auch im Perfekt auftreten. Der Konditional wird ohne Hilfsverb gebildet. Zunächst wird die 1. Person Singular Indikativ Präsens des jeweiligen Verbs gebildet und dann die Personalendung „-n“ durch das Konditional-Suffix „-ks(-)“ ersetzt. An das Suffix werden dann die Personalendungen angefügt.
Eine alternative Übersetzung im Deutschen, wäre die Konstruktion mit „würde“: „Ich würde lesen.“
Das Estnische kennt zudem eine Kurzform des Konditional, bei der die Personalendung entfällt (wie bei der 3. Person Singular, siehe Tabelle) und daher zwingend das Personalpronomen zur Differenzierung einfordert.
Im Perfekt setzt sich dieser Modus aus dem Konditional von „olema“ (sein) und dem „-nud“-Partizip des betreffenden Verbs zusammen.
Modus obliquus:
Die Abhängigkeitsform wird in der Regel verwendet, wenn man sich über eine Handlung oder einen Zustand nicht eindeutig sicher ist. Sie findet vor allem in der geschriebenen Sprache und indirekter Rede Anwendung. Der Modus obliquus kommt im Präsens und Perfekt vor. Die sonst mehr oder weniger optionalen Personalpronomina müssen in der Abhängigkeitsform unbedingt genannt werden, da die Personalendungen in diesem Modus wegfallen.
Ebenso möglich sind Übersetzungen ins Deutsche wie:
„Ich soll wohl schlafen.“ oder „Man sagt, ich schlafe/ dass ich schlafe.“
Im Perfekt bildet man den Modus obliquus mit dem „-nud“-Partizip des jeweiligen Verbs und der Präsensform des Modus obliquus des Hilfsverb „olema“, das dem Vollverb vorangeht.
Kongruenz
Im Estnischen stimmen Subjekt und Prädikat für gewöhnlich in Person und Numerus überein. Bei Subjekten, die aus mehreren Gliedern bestehen, wobei eines der Glieder ein Personalpronomen ist, stimmt das Prädikat hinsichtlich der Person überein.1) Epp ja mina läks-i-me koju.
Epp und 1SG gehen-PAST-1PL nach.Hause.ADV (Hasselblatt, 1992, S. 103)
„Epp und ich gingen nach Hause.“
2) sina ja Tõnu lähe-te ära.
2SG und Tõnu gehen-2PL weg (Hasselblatt, 1992, S. 103)
„Du und Tõnu gehen weg.“ Bei zwei handelnden Personen, die nicht in einem mehrgliedrigen Subjekt zusammengefasst sind, findet Numerus-Kongruenz statt. Es kann dabei entweder Singular oder Plural verwendet werden.
Beispiele:3a) mina läks-i-n ema-ga koju.
1Sg gehen-PAST-1Sg Mutter-COM nach.Hause.ADV (Hasselblatt, 1992, S. 103)
„Ich ging mit Mutter nach Hause.“
3b) meie läks-i-me emaga koju.
1PL gehen-PAST-1PL Mutter-COM nach.Hause.ADV (Hasselblatt, 1992, S. 103)
„Wir gingen mit Mutter nach Hause.“
Der Satz wird sinngemäß jedoch wie 3a) übersetzt. Es ist also eher: „Wir, Mutter und ich, gingen nach Hause.“ gemeint.
4a) sina tul-i-d isa-ga koos.
2SG kommen-PAST-2SG Vater-COM gemeinsam.ADV (Hasselblatt, 1992, S. 103)
„Du kamst gemeinsam mit Vater.“
4b) te tul-i-te isa-ga koos.
2PL kommen-PAST-2PL Vater-COM gemeinsam.ADV (Hasselblatt, 1992, S. 103)
„Ihr kamt gemeinsam mit Vater.“
Wie in 3b), die Bedeutung des Satzes entspricht der Konstruktion: „Ihr, du und Vater, kamt gemeinsam.“In Existentialsätzen, bei denen das Subjekt im Partitiv Plural steht, findet keine Numerus-Kongruenz zwischen Subjekt und Prädikat statt.5) siin-gi lei-d-u-s inimes-i
hier-MP finden-PAST-REFL-3SG Mensch-PL.PART. (Hasselblatt, 1992, S. 43, 103)
„auch hier fanden sich Menschen“
6) Aias oli / kasvas lilli.
garden:IN be:PAST.3SG / grow:PAST.3SG flower.PL.PART (Erelt, 2009, S.7)
lit. ‘There were / were growing some flowers in the garden.’ Aspekt
Im Estnischen gibt es keine spezifische morphologische Kennzeichnung für diese Kategorie. Aspekt wird stattdessen durch die Wahl des Objektkasus ausgedrückt oder durch das Heranfügen von Partikeln an Verben.6) näg-i-n sel-le ära
sehen-PAST-1SG dieser-GEN/ACC weg (Hasselblatt, 1992, S. 23)
ich sah diesen weg
„ich durchschaute das/ mir wurde klar“ – es findet Perfektivierung statt, bzw. Resultativierung
Verneinung.
Die Verneinung ist im Estnischen der des Finnischen ähnlich. Beide Sprachen haben sich jedoch aus gemeinsamen Wurzeln unterschiedlich entwickelt. Während die Verneinung im Finnischen mithilfe eines Verneinungsverbs gebildet wird, ist dieses zwar im Estnischen auch vorhanden, jedoch nicht konjugierbar, sodass in der einschlägigen Literatur häufig auch von einer Verneinungspartikel, die man als ein Äquivalent zum deutschen „nicht“ betrachten kann, gesprochen wird. Mit deren Hilfe erfolgt die Verneinung wie am Verb "mängima" (deutsch: „spielen“) dargestellt:
Präsens: ei + Präsensstamm
Präteritum: ei + "nud-"Partizip
Perfekt: ei + Präsensstamm von "olla" + "nud-"Partizip
Plusquamperfekt: das Hilfsverb steht ebenfalls im „-nud“-Partizip.
Bei der Negation des Imperativs (aus dem Befehl wird ein Verbot) wird ein spezielles Verneinungsverb genutzt. Die Endungen bei diesem Verneinungsverb sind dieselben, wie im Imperativ Präsens, es gibt auch hier wieder keine Form der 1. Person Singular. Wie auch die Negationspartikel „ei“, geht das Verneinungsverb dem jeweiligen Vollverb (Imperativform + Personalendung) voran. Es können sich jedoch andere Konstituenten zwischen den beiden Verben befinden.
Die Struktur "ei ole" wird im Präsens auch dazu genutzt, Aussagen bzw. deren Teile zu verneinen:
"Ei ole" wird im Estnischen auch oft in seiner Kurzform "pole" gebraucht:
Ein zweites Äquivalent zum deutschen „nicht“ ist das estnische Wort "mitte". Während es einerseits, wie im ersten der folgenden Beispielsätze, den Charakter einer Konjunktion annehmen kann, um eine Gegenüberstellung auszudrücken, liegt eine häufige Gebrauchsform auch in Imperativsätzen ohne Prädikat:
Wortstellung.
Grundwortstellung auf Satz- und Phrasenebene.
Es gibt in estnischen Hauptsätzen zwei verschiedene Grundwortstellungen, die beide gleich frequent auftreten. Es wird zwischen dem normalen und dem inversen Satz unterschieden.
Die Grundwortstellung im normalen Satz ist SVX (Subjekt – Verb – nicht-Subjekt). (1) Jaan söö-p suppi.
Jaan isst-3SG Suppe.PART
„Jaan isst Suppe.“ (Erelt, 2009, p. 6) Im inversen Satz ist die Grundwortstellung dagegen XVS (nicht-Subjekt – Verb – Subjekt).
Ein solcher Satz wird normalerweise mit einem Adverb oder in Ausnahmen mit einem Objekt eingeleitet. Existentielle Sätze werden durch ein Adverbial der Zeit oder des Ortes eingeführt. Diese Adverbiale erfüllen einen beschreibenden beziehungsweise präsentierenden Zweck. (2) Aia-s ol-i-d kasva-s-id lilled.
Garten-IN sein-PAST-3PL wachsen-PAST-3PL Blume.PL.NOM
„Blumen wuchsen im Garten.“ (Erelt, 2009, p. 7)
(3) Klaasi-s ol-i / lok-s-us vesi.
Glas-IN sein-PAST.3SG / fließen-PAST-3SG Wasser
„Etwas Wasser floss in das Glas.“ (Erelt, 2009, p. 7) Die meisten Modifizierer, wie beispielsweise auch Adjektive werden Substantiven, die sie beschreiben, in der Regel vorangestellt. Dem Substantiv nachgestellte Modifizierer nehmen zumeist die grammatische Funktion eines Adverbials ein. (4) huvitav raamat
interessant Buch
„ein/das interessante Buch“ (Norris, 2018, p. 23)
(5) sõit linna
Fahrt zur.Stadt:ADV
„die Fahrt in die Stadt“ (Erelt, 2009, p. 18) Auch Genitive gehen im Estnischen dem Substantiv voran. Ebenso treten Adjektive im Satz hinter Genitiven auf. (6) Peet-ri vana maja
Peeter-GEN alt Haus
„Peeters altes Haus“ (Norris, 2018, p. 4) Das Estnische verfügt über keine definiten und indefiniten Artikel. Daher wird Definitheit durch das Demonstrativpronomen "see" und Indefinitheit durch das Pronomen "üks" ausgedrückt. (7) See elu on vaid vaev ja viletsus.
das Leben sein.3SG nur Schwierigkeit und Leid
„Das Leben besteht nur aus Schwierigkeiten und Leid.“ (Erelt, 2009, p. 18)
(8) Siia pidi üks maja tulema.
hier.ILL müssen.PAST.3SG ein Haus kommen:mINF
„Es wird gesagt, dass hier ein Haus gebaut wird.“ (Erelt, 2009, p. 18)Sowohl Präpositionen als auch Postpositionen sind im Estnischen möglich und werden genutzt. Einige P-Positionen können sogar sowohl als Prä- als auch als Postposition verwendet werden. (9) a. vastu lauda
gegen Tisch
b. lauda vastu
Tisch gegen
„gegen den Tisch“ (Erelt, 2009, p. 20)In nicht-negierten deklarativen Hauptsätzen wird das Verb stets an zweiter Stelle platziert. Dies lässt schließen, dass estnische Hauptsätze der Verbzweitstellung folgen. Allerdings kann das Verb bei Negationen, die nicht mit dem Subjekt beginnen (10), bei Fragesätzen (11) sowie in einigen Nebensätzen (12) ans Ende des Satzes gestellt werden. (10) Täna ajalehed ei ilmunud.
heute Zeitung.PL NEG auftauchen:NEGV.PPTC
„Heute wurden keine Zeitungen veröffentlicht.“ (Erelt, 2009, p. 17)
(11) Kuidas te hommikul nii ruttu siia jõud-si-te?
wie 2SG morgen:AD so schnell hier.ILL kommen:PAST-2PL
„Wie bist du so schnell am Morgen hierher gekommen?“ (Erelt, 2009, p. 15)
(12) Ma tunne-n seda mees-t, kellega Jaan rää-k-is.
1SG kennen-1SG dieser:PART Mann-PART REL:COM Jaan sprechen-PAST-3SG
„Ich kenne den Mann mit dem Jaan gesprochen hat.“ (Erelt, 2009, p. 15)Wenn das Verb an den Satzanfang gestellt wird, wird damit eine bestimmte Bedeutung ausgedrückt, wie beispielsweise eine Frage (13), ein Imperativsatz (14) oder aber ein Ereignis, das in der Vergangenheit liegt (15). (13) On ema kodu-s?
sein.3SG Mutter zu.Hause-IN
„Ist Mutter zu Hause?“ (Erelt, 2009, p. 15)
(14) Käi sa vahepeal kodu-s ära!
gehen.IMP.2SG 2SG währenddessen nach.Hause-IN weg
„Geh währenddessen nach Hause!“ (Erelt, 2009, p. 15)
(15) Istu-n mina eile oma kabineti-s ja kirjuta-n aruanne-t.
sitzen-1SG 1SG gestern eigen Studium-IN und schreiben-1SG Bericht-PART
„Gestern saß ich in meinem eigenen Studium und schrieb den Bericht.“ (Erelt, 2009, p. 16)
Negation.
Im Estnischen wird eine Negation üblicherweise durch die Negationspartikel "ei" (vgl. (10)) ausgedrückt, welche dem Verb vorangestellt wird.
In imperativen oder jussiven Sätzen hingegen wird eine Negation durch das Negationsverb "ära" ausgedrückt (16). (16) Ära homme tu-l-e!
IMPNEG morgen kommen-IMP-2SG
„Komm morgen nicht!“ (Erelt, 2009, p. 17) Wenn nur eine Konstituente verneint wird, also nur ein bestimmter Teil eines Satzes, wird diese durch Emphasis ausgedrückt und manchmal auch durch die Negationspartikel "mitte", welche direkt vor der zu verneinenden Konstituente platziert wird (17).
Dieser wird ebenfalls verwendet, wenn eine Negation in einem infinitiven Satz auftritt (18). (17) Mind ei häiri (mitte) miski.
1SG:PART NEG stören.NEGV (NEG) etwas
„Nichts kann mich stören.“ (Erelt, 2009, p. 17)
(18) Palu-n teid mitte karjuda!
bitten-1SG 2SG:PART NEG schreien:dINF
„Ich bitte dich, nicht zu schreien.“ (Erelt, 2009, p. 17)
Bildung von Fragen.
Bei der Bildung von Fragesätzen muss in Entscheidungsfragen und Inhaltsfragen unterschieden werden. Eine Entscheidungsfrage zeichnet sich dadurch aus, dass sie sich mit ja oder nein beantworten lässt. Eine solche Frage wird im Estnischen durch die Voranstellung der sogenannten Fragepartikel "kas" gebildet.
(19) Kas sa tule-d täna koju?
QP 2SG kommen-2SG heute nach.Hause.ILL
„Kommst du heute nach Hause?“ (Erelt, 2009, p. 16) Bei negierten Fragen (20) wird die Fragepartikel "ega" verwendet. Steht das Verb an erster Stelle (21) oder gibt es eine steigende Intonation (22), so wird keine Fragepartikel verwendet. In gesprochener Sprache findet auch die Partikel "või" seine Verwendung (23). (20) Ega sa (ei) tule täna koju?
NEGQ 2SG (NEG) kommen.NEGV heute nach.Hause.ILL
„Kommst du heute nicht nach Hause?“ (Erelt, 2009, p. 16)
(21) On sul täna aega?
sein.3SG 2SG:AD heute Zeit.PART
„Hast du heute Zeit?“ (Erelt, 2009, p. 16)
(22) Sa armasta-d mind?
2SG lieben-2SG 1SG:PART
„Liebst du mich?“ (Erelt, 2009, p. 16)
(23) Ta lä-k-s ära või?
3SG gehen-PAST-3SG weg oder
„Sie/Er ist weggegangen, oder?“ (Erelt, 2009, p. 16)Inhaltsfragen zeichnen sich dadurch aus, dass sie nicht mit ja oder nein beantwortet werden können, sondern ihre Beantwortung eine ganze Aussage fordert. Inhaltsfragen werden im Estnischen mit vorangestellten Fragepronomina und -proadverbien gebildet. (24) Kes sa ole-d?
wer 2SG sein-2SG
„Wer bist du?“ (Erelt, 2009, p. 16)
(25) Kuhu te lähe-te?
wohin 2PL gehen-2PL
„Wohin geht ihr?“ (Erelt, 2009, p. 16)
Wortstellung im Nebensatz.
In Nebensätzen tritt das Verb im Estnischen meist in finaler Position auf. Allerdings finden sich auch Beispiele, in denen das Verb an der zweiten Stelle des Satzes platziert wird. (26) … kui lapse-d lõpuks supi ära söö-vad
... wenn Kind-PL endlich Suppe.GEN weg essen-3PL
„… wenn die Kinder endlich die Suppe essen werden.“ (Ehala, 2006, p. 64)
(27) … et lapse-d söö-vad täna suppi.
...dass Kind-PL essen-3PL heute Suppe.PART
„...dass die Kinder heute Suppe essen werden.“ (Ehala, 2006, p. 64)
Wortstellungsvariabilität.
Viitso (1998) zufolge liegen den verschiedenen Wortstellungen im Estnischen die aus der Informationsstruktur bekannten Begriffe Topik (was schon bekannt ist, das Thema) und Fokus (was neu ist, das Rhema) zugrunde. An den Beginn des Satzes wird das topikalisierte Element gestellt, das heißt das Element, welches das Thema des Satzes ausdrückt. Das fokussierte Element kann entweder in satzfinaler Position stehen, oder bekommt die Hauptbetonung des Satzes.
Dieser Prozess der Wortumstellung durch Fokussierung und Topikalisierung kann in den Beispielen (28 a-c) gut beobachtet werden. In (28a) liegt die Normalwortstellung SVX vor. In (28b) wird die Wortstellung dadurch verändert, dass "tulust" topikalisiert und damit an den Anfang das Satzes geschoben wird. In (28c) wiederum wird "kulud" topikalisiert und findet sich daher nun in satzinitialer Position, während der Fokus "tulust" am Satzende platziert wird. Trotzdem behalten alle Satzelemente ihre grammatische Funktion wie in der Grundwortstellung. (28) a. Ma lahuta-n tulu-st kulu-d.
ich löschen-1SG Einkommen-ELA Ausgabe-PL
„Ich lösche die Ausgaben vom Einkommen.“ (Viitso, 1998, p. 143)
b. Tulu-st ma lahuta-n kulu-d
Einkommen-ELA ich löschen-1SG Ausgabe-PL
„Vom Einkommen lösche ich die Ausgaben.“ (Viitso, 1998, p. 144)
c. Kulu-d ma lahuta-n tulu-st.
expense-PL ich löschen-1SG Einkommen-ELA
„Die Ausgaben lösche ich vom Einkommen.“ (Viitso, 1998, p. 144)
Wortschatz.
Deutlich mehr als andere finno-ugrische Sprachen hat das Estnische durch den Einfluss des Deutschen Ordens im Baltikum Lehnwörter aus dem Hochdeutschen und der Niederdeutschen Sprache übernommen, beispielsweise "riik – Staat" (vgl. finnisch "valtakunta"), "müts – Mütze" (vgl. finnisch "lakki"; aber "myssy" < schwed. "mössa" ~ dt. "Mütze"), "käärid – Schere" (vgl. finnisch "sakset"), "vürts – Gewürz" (vgl. finnisch "mauste"). Andere Entlehnungen aus dem Deutschen sind "reisibüroo" und "reklaamibüroo". Die Zahl der Lehnwörter aus dem Deutschen wird auf 2000 geschätzt. Neben direkten Entlehnungen gibt es eine Reihe an deutschen Lehnübersetzungen, insbesondere bei Partikelverben. Auch gibt es etwa 350 aus dem Russischen entlehnte Wörter wie "pirukad" (vgl. russisch "пирожки").
Ähnlich wie in einigen romanischen Sprachen (Spanisch, Portugiesisch) ist für das Estnische ein „st“ am Wortanfang untypisch, bei Entlehnungen werden (bzw. wurden) die betroffenen Wörter der estnischen Phonotaktik angepasst (z. B. "tool" (ndd. Stohl), "tikk" (eng. stick), "tudeng" (Student), "torm" (ndd. Storm)). Diese Erscheinung nimmt jedoch im Zulauf eines neueren fremdsprachlichen Wortschatzes ab: (z. B. "staadion", "staap" usw.).
Bei Fremd- und Lehnwörtern wurden die Laute „b“, „d“ und „g“ der Ausgangssprache am Wortanfang zu „p“, „t“ und „k“: "pruukima" (ndd. bruken), "püksid" (ndd. Büx), "piljard" (Billard), "kips" (Gips).
Außer diesen Veränderungen am Wortanfang wurde früher das „f“ in ein „hv“ (gesprochen: chw) umgewandelt, z. B. „krahv“ (Graf) und „kohv“ (ndd. "koffe"). Die hv-Kombination wird aber gegenwärtig oft [f] ausgesprochen.
Dialekte.
Trotz der geringen Fläche Estlands von 45.227 km² (etwa die Fläche Niedersachsens) weist die estnische Sprache acht Dialekte (estn. "murded") auf, die insgesamt etwa 117 Mundarten (estn. "murrak", im Estnischen gebräuchlich als Bezeichnung für eine Untergruppe eines Dialekts) vereinen. Durch Leibeigenschaft und Fronsystem waren die estnischen Bauern in ihren Kirchspielen isoliert. Ihnen war es unmöglich, sich frei im Land zu bewegen. Die Sprache entwickelte sich folglich regional isoliert und mit unterschiedlichsten Tendenzen. Die größte Konkurrenz bestand jedoch stets zwischen der nordestnischen Dialektgruppe, die sich bei der Entwicklung der heutigen Standardsprache durchsetzte, und der Gruppe der südestnischen Dialekte. Während erstere durch Tallinn als politisches Zentrum von Bedeutung war, erlangte letztere durch Tartu als erste Universitätsstadt des Landes ebenfalls schriftsprachliche Bedeutung. Die starke Ausprägung dieser Dialektgruppen lässt sich durch die einstige Teilung des heutigen Estlands in "Nordestland" und "Südestland" erklären, wobei letzteres territorial dem früheren Livland angehörte.
Die acht Hauptdialekte werden in zwei Dialektgruppen eingeteilt "(Nord-" und "Süd-Estnisch)", wobei der Dialekt der Nordostküste sowie auch der Dialekt der Inseln im Westen des Landes diesen Gruppen nicht zugeordnet werden können:
Nordestnisch
Südestnisch (südlich von Tartu und Põltsamaa)
Küstenestnisch (östlich von Tallinn entlang der Küste bis zur Grenzstadt Narva)
Inselestnisch
Sprachpolitik im 20. und 21. Jahrhundert.
Geprägt wurde die Sprachpolitik Estlands im 20. und 21. Jahrhundert durch die Geschichte, in der das Land von Dänen, Schweden, Deutschen und Russen besetzt war. Vor allem die von 1721 bis 1918 währende Zeit Estlands als Teil der Ostseeprovinz des Russischen Reiches hinterließ ihre Spuren. So kam es während dieser Zeit zu einer ausgeprägten Russifizierung, die Nationalbewusstsein und Bestrebungen nach kultureller Autonomie unterbinden sollte.
Als das Land 1918 seine Unabhängigkeit erlangt hatte, folgte in sprachpolitischer Hinsicht ein bedeutender Wandel. Nachdem der bis 1920 andauernde Unabhängigkeitskrieg durch den Frieden von Tartu beendet worden war, erlangte zunächst jeder Einwohner die Staatsbürgerschaft der Republik Estland. Während dieser Zeit erlaubten es neu verabschiedete Gesetze ethnischen Minderheiten, ihre Kultur zu bewahren und auszuleben.
Ein erneuter Wandel der Situation ging mit dem Zweiten Weltkrieg einher. Nachdem dieser beendet und Estland in die Sowjetunion eingegliedert war, sollte die Sprachpolitik erneut durch die sowjetische Besatzung bestimmt werden. So folgte eine Einführung eines nahezu selbstständigen und vom estnischen unabhängigen russischen Schulsystems und eine erneute Politik der Russifizierung. Letztere beinhaltete die Deportation mehrerer Zehntausend Esten und die Ansiedlung ethnischer Russen. So sank der Anteil der Esten an der Gesamtbevölkerung von 88 % vor Kriegsbeginn auf 61,5 % im Jahre 1989, während der Anteil der Bürger mit ostslawischen Muttersprachen im gleichen Zeitraum von 8,2 % auf 35,2 % stieg.
Nach der Wiedererlangung der Unabhängigkeit folgte 1991 eine neue Gesetzgebung, die – auch vor dem Hintergrund des Beitritts zur Europäischen Union und als Reaktion auf die Russifizierung der vergangenen Jahrzehnte – mehrfach überarbeitet wurde. Die Staatsbürgerschaft konnte nun nicht mehr automatisch erlangt werden. Vielmehr bestand für die Angehörigen vor allem der russischsprachigen Minderheit die Möglichkeit, entweder nach Russland zurückzukehren, die estnische Staatsbürgerschaft zu beantragen oder mit einer derzeit grundsätzlich ausgestellten unbeschränkten Aufenthaltsgenehmigung als Staatenlose im Land zu verweilen. Der Erwerb der Staatsbürgerschaft setzt Sprachkenntnisse auf dem Niveau B1 des Gemeinsamen Europäischen Referenzrahmens für Sprachen voraus sowie das erfolgreiche Bestehen eines Tests zum Grundgesetz des Landes. Vor allem die Bedingung der Sprachbeherrschung wird sowohl von Angehörigen der Minderheit, die um das Russische als zweite Amtssprache bemüht sind, als auch von "Amnesty International" als diskriminierend beschrieben.
Mit dem Programm „Integration in der estnischen Gesellschaft 2000–2007“ (estnisch: "Riiklik programm. Integratsioon Eesti ühiskonnas 2000–2007.") waren Ziele wie „sprachlich-kommunikative“, „rechtlich-politische“ und „sozialwirtschaftliche Integration“ angestrebt und verfolgt worden. Das Integrationshindernis Sprache sollte beseitigt werden. Mittlerweile muss an allen Schulen des Landes Estnisch unterrichtet werden, sodass bei Beendigung der Mittelstufe das Niveau B2 erreicht ist. Ferner gibt es für Erwachsene die Möglichkeit, kostenlose Sprachkurse zu belegen und ebenfalls kostenlos ihre Sprachkenntnisse zertifizieren zu lassen.
Ethnische Minderheiten genießen weiterhin weitreichende Rechte und russischsprachige Schulen, an denen Estnisch als erste Fremdsprache gelehrt wird, werden vom Staat gefördert.
Die Bestrebungen der Regierung, möglichst viele der 2007 noch 130.000 Staatenlosen einzubürgern und die Kenntnis der estnischen Sprache zu verbreiten, führen nur langsam zu Ergebnissen. Jedoch ist festzustellen, dass 1989 etwa 67 % der Bevölkerung Estnisch beherrschten, 2008 aber bereits 82 %. |
1314 | 921390 | https://de.wikipedia.org/wiki?curid=1314 | Ernst Jünger | Ernst Jünger (* 29. März 1895 in Heidelberg; † 17. Februar 1998 in Riedlingen) war ein deutscher Schriftsteller, dessen Persönlichkeit und Werk durch die Teilnahme am Ersten Weltkrieg geprägt wurden. Er ist vor allem durch Kriegserlebnisbücher wie "In Stahlgewittern," phantastische Romane und Erzählungen sowie verschiedene Essays bekannt. Daneben stellen ausführliche Tagebücher aus dem Ersten und Zweiten Weltkrieg sowie aus der späteren Bundesrepublik einen wesentlichen Teil seines Werkes dar. In seinem elitären, antibürgerlichen und nationalistischen Frühwerk, das der sogenannten Konservativen Revolution zugerechnet wird, bekämpfte Jünger die Weimarer Republik entschieden. Obwohl er der NSDAP nicht beitrat und deren rassistische Ideologie ablehnte, galt er nach 1945 als intellektueller Wegbereiter des Nationalsozialismus und gehört zu den umstrittensten Autoren Deutschlands. Er wurde 1918 mit dem Pour le Mérite, 1959 dem Großen Bundesverdienstkreuz mit Stern (1977) und Schulterband (1985) ausgezeichnet und erhielt verschiedene weitere Preise und Auszeichnungen, darunter 1982 den Goethepreis, dessen Verleihung für einen politischen Skandal sorgte.
Leben.
Frühzeit und Erster Weltkrieg.
Kindheit und Schulzeit.
1895 wurde Ernst Jünger in Heidelberg als erstes von sieben Kindern des Chemikers Ernst Georg Jünger (1868–1943) und dessen späterer Frau Karoline Lampl (* 1873 in München; † 1950 in Leisnig/Sachsen) geboren. Er wurde protestantisch getauft. Zwei seiner Geschwister starben im Säuglingsalter. Sein jüngerer Bruder Friedrich Georg Jünger wurde später ebenfalls Schriftsteller. Ernst Jünger verbrachte seine Kindheit in Hannover, in Schwarzenberg/Erzgeb. und schließlich ab 1907 in Rehburg. Durch die Apothekertätigkeit des Vaters und eine Beteiligung am Kalibergbau war Jüngers Familie wohlhabend.
Ostern 1901 wurde Ernst Jünger am Goethegymnasium in Hannover eingeschult. Mit der Einschulung begann für Jünger eine 13-jährige Leidenszeit, welche bis zu seinem Notabitur 1914 von über 10 Schulwechseln geprägt war. Laut Jüngers Biograph Helmuth Kiesel lag die „schulische Odysee“ weniger an den drei Umzügen der Familie als vielmehr an seinen schlechten Leistungen. 1905 bis 1907 verbrachte er auf Internaten in Hannover und Braunschweig. Ab 1907 lebte er wieder bei seiner Familie in Rehburg. Mit seinen Geschwistern besuchte er die Scharnhorst-Realschule in Wunstorf. In dieser Zeit entdeckte er neben seiner Vorliebe für Abenteuerromane auch die Liebe zur Insektenkunde.
1911 traten die Brüder Ernst und Friedrich Georg dem Wunstorfer Wandervogel-Club bei. Dort fand er den Stoff für seine ersten Gedichte, die in einer Wandervogel-Zeitschrift veröffentlicht wurden. Sie brachten ihm die Anerkennung seiner Lehrer und Mitschüler ein. Er genoss von diesem Zeitpunkt an den Ruf eines „Poeten und Dandys“.
Weil ihn im Unterricht – inzwischen besuchte er ein Gymnasium in Hameln – die damals populären „afrikanischen Reiseberichte“ faszinierten, ging er nach den Ferien nicht in die Schule zurück, sondern ließ sich im November 1913 in Verdun von der Fremdenlegion anwerben und verpflichtete sich zu einer fünfjährigen Dienstzeit, um somit zu dem Land seiner Sehnsüchte zu gelangen. Danach kam er in das Ausbildungslager Sidi bel Abbès in Algerien und gehörte zur 26. Instruktionskompanie. Von dort floh er mit einem Kameraden nach Marokko, wurde aber schnell aufgegriffen und zur Legion zurückgebracht. Sechs Wochen später wurde er nach einer von seinem Vater betriebenen Intervention des Auswärtigen Amtes auf Grund seines Alters wieder entlassen. Zur Strafe wurde er von seinem Vater auf ein Internat nach Hannover geschickt. Diese Episode seines Lebens wird in dem 1936 erschienenen Buch "Afrikanische Spiele" verarbeitet.
Kriegsdienst.
Am 1. August 1914, kurz nach dem Ausbruch des Ersten Weltkrieges, meldete sich Ernst Jünger beim Füsilier-Regiment „General-Feldmarschall Prinz Albrecht von Preußen“ (Hannoversches) Nr. 73 in Hannover als Kriegsfreiwilliger. Nach dem Notabitur absolvierte er die militärische Ausbildung und kam im Dezember mit einem Ersatztransport an die Champagne-Front in Frankreich. Im April 1915 wurde Jünger erstmals verwundet. Im Heimaturlaub schlug er auf Anraten seines Vaters die Offizierslaufbahn (Fahnenjunker) ein. Wieder zurück in Frankreich, wurde er am 27. November 1915 Leutnant und Zugführer und machte sich durch spektakuläre Aktionen bei Patrouillen und Stoßtrupps einen Namen. Aber im Dezember 1915 notierte er ins Tagebuch – das er ständig mit sich führte –, dass das Töten im Krieg ein „Morden“ sei, und auch, dass der Krieg in ihm „doch die Sehnsucht nach den Segnungen des Friedens geweckt“ habe.
Im Laufe des dritten Kriegsjahres 1916 wurde Jüngers Regiment an sämtlichen Brennpunkten der Westfront eingesetzt. Während der zweiten Somme-Schlacht wurde Jünger am Vorabend der britischen Offensive in der Ruhestellung in Combles verwundet und kam ins Lazarett. In der Folgezeit wurde sein gesamter Zug bei Guillemont aufgerieben. Im November 1916 wurde Jünger bei einem Spähtruppeinsatz zum dritten Mal verwundet und erhielt wenig später das Eiserne Kreuz erster Klasse. Im Frühjahr 1917 wurde er zum Chef der 7. Kompanie ernannt. Beim Anblick grüner Wiesen im Mai 1917 fragte sich Jünger als „einst so kriegslustiger“ Mann:
Er rettete durch einen Zufall am 29. Juli 1917 seinem Bruder Friedrich Georg Jünger auf dem Schlachtfeld von Langemark das Leben. Daraufhin folgten weitere Auszeichnungen, darunter am 4. Dezember 1917 das Ritterkreuz des Königlichen Hausordens von Hohenzollern. Im März 1918 überlebte Ernst Jünger einen Granateneinschlag, dem fast seine gesamte Kompanie zum Opfer fiel. Das Kriegsende erlebte er nach einer im August 1918 vor Cambrai erlittenen Verwundung im Lazarett in Hannover. Am 22. September 1918 erhielt er den Orden Pour le Mérite, die höchste militärische Auszeichnung der Krone Preußens.
Die Gefechtspausen seines Frontalltags gegen Ende des Krieges verbrachte er vor allem damit, Werke von Nietzsche, Schopenhauer, Ariost und Kubin zu lesen. Außerdem ließ er sich aus der Heimat entomologische Zeitschriften schicken. Seine 15 Kriegstagebücher wurden vor Jüngers Tod dem Deutschen Literaturarchiv Marbach übergeben. 2010 erschienen sie, herausgegeben und kommentiert von Helmuth Kiesel. Darin erscheine Ernst Jünger, so Benjamin Ziemann, weder als protofaschistische Kampfmaschine noch als Vordenker einer Amalgamierung von Mensch und Kriegstechnik, sondern als „sehr genauer Chronist“ der Gewaltpraxis im Ersten Weltkrieg. Die Notizen dienten Jünger als Rohmaterial für sein erstes Buch ("In Stahlgewittern", 1920). 2013 fasste sein Biograph Helmuth Kiesel erstmals alle Versionen dieses Buches in einer historisch-kritischen Edition zusammen.
Weimarer Zeit.
Erste Veröffentlichungen.
Nach dem Ersten Weltkrieg diente Jünger zunächst noch als Leutnant im Infanterieregiment 16 der Reichswehr in Hannover. Während seiner Dienstzeit war er unter anderem mit der Ausarbeitung von Dienstvorschriften für den Infanteriekampf (Heeresdienstvorschrift 130) beim Reichswehrministerium in Berlin befasst.
In Hannover kam er, laut Helmuth Kiesel, mit dem Kreis um den Verleger Paul Steegemann in Berührung, zu dem unter anderem Dadaisten wie Walter Serner und Kurt Schwitters gehörten. Von Serners Werk "Letzte Lockerung. manifest dada" (1920) war Jünger nachhaltig beeindruckt. Von Thomas Mann las er die "Betrachtungen eines Unpolitischen" (1918), später auch den "Zauberberg" (1924). Von Oswald Spengler las er "Der Untergang des Abendlandes" (1918/22). Er begeisterte sich besonders für den französischen Dichter Arthur Rimbaud. Mit Baudelaire und Rimbaud erschloss sich Jünger nicht nur die Poetik der Moderne, betont Helmuth Kiesel, sondern auch das Seinsgefühl der Obdachlosigkeit und der Selbstentfremdung.
Bald profilierte er sich als entschiedener Gegner der Republik, hielt sich aber aus den politischen Auseinandersetzungen weitgehend heraus und überarbeitete seine Kriegsaufzeichnungen, die in die Werke "In Stahlgewittern. Aus dem Tagebuch eines Stoßtruppführers" (1920), "Der Kampf als inneres Erlebnis" (1922), "Sturm" (1923), "Das Wäldchen 125" (1925) und "Feuer und Blut" (1925) einflossen. Dabei schrieb er einige kürzere Aufsätze im Militär-Wochenblatt, die Fragen der modernen Kriegsführung behandeln. "In Stahlgewittern" wurde zunächst nicht als literarisches Werk gelesen, sondern erschien laut Kiesel als „eine Art von Sachbuch“ in einem Militariaverlag.
Nach seinem Ausscheiden aus der Reichswehr am 31. August 1923 immatrikulierte er sich an der Universität Leipzig als stud. rer. nat. Er hörte Zoologie bei dem Philosophen und Biologen Hans Driesch, dem führenden Sprecher des Neovitalismus, und Philosophie bei Felix Krüger und dessen Assistenten Ernst Hugo Fischer.
1923 trat er für kurze Zeit in das Freikorps von Gerhard Roßbach ein und war vor allem als reisender Verbindungsmann zu anderen Teilen der nationalen Bewegung aktiv. Während eines längeren Aufenthalts in München, dem Heimatort seiner Mutter, sympathisierte Jünger mit jenem Kreis von ehemaligen Frontsoldaten um Erich Ludendorff und Adolf Hitler, der den November-Putsch organisierte. Eine Hitlerrede, die er dort hörte, beschrieb er rückblickend als „Elementarereignis“. Wenige Wochen vor dem gescheiterten Hitlerputsch publizierte er im "Völkischen Beobachter," dem Parteiblatt der NSDAP, seinen ersten dezidiert politischen Artikel, "Revolution und Idee," ein Plädoyer für eine „wirkliche Revolution“, deren Banner und Ausdrucksform das Hakenkreuz und die Diktatur sein sollten. In einem Münchner Vorort besuchte er Ludendorff, dem er im April 1924 eine Eloge im "Deutschen Tageblatt" widmete.
Am 3. August 1925 heiratete Jünger Gretha von Jeinsen. Am 1. Mai 1926 wurde in Leipzig der Sohn Ernst geboren (in Jüngers Aufzeichnungen meist „Ernstel“ genannt). Das Studium brach er am 26. Mai ohne Abschluss ab und wandte sich ganz der Schriftstellerei zu.
Die in den 1920er Jahren beginnenden und bis 1933 andauernden regen publizistischen Tätigkeiten für ausschließlich nationalistisch-völkische bis nationalrevolutionäre Organe machten Jünger zu einem weithin beachteten Wortführer und Theoretiker der politischen Rechten. Die erste Publikation, für die Jünger ab dem 6. Juni 1925 bis März 1926 regelmäßig arbeitete, war die von ihm mitherausgegebene Sonderbeilage der "Stahlhelm-"Zeitung "Die Standarte. Beiträge zur geistigen Vertiefung des Frontgedankens". Hier konnte er seine politischen Schlussfolgerungen aus dem Weltkriegserlebnis publizistisch ausbreiten. Als Sprecher der jungen Radikalen, so Heimo Schwilk, geriet er jedoch in Gegensatz zur Stahlhelmführung und zum Legalitätskurs von Franz Seldte. Zwischen September 1925 und März 1926 publizierte er 19 Aufsätze. Bei einer Auflage von ungefähr 170.000 Exemplaren erreichten seine Ideen ein relativ breites Publikum.
Nachdem sich die Bundesleitung des Stahlhelms von Jünger und den radikalen Nationalisten distanzierte, gab Jünger ab April 1926 zusammen mit Helmut Franke, Franz Schauwecker und Wilhelm Kleinau die "Standarte" in eigener Regie mit dem programmatischen Untertitel "Wochenschrift des neuen Nationalismus" heraus. Damit ging ihre Auflage schlagartig auf wenige tausend Exemplare zurück. Nach nur fünfmonatigem Erscheinen musste die neue "Standarte" im August 1926 auf Anordnung des Magdeburger Oberpräsidenten Otto Hörsing eingestellt werden, weil in dem Artikel "Nationalistische Märtyrer" die Morde an Walther Rathenau und Matthias Erzberger legitimiert worden waren. Darauf kündigte der Stahlhelm auch dem Schriftleiter Helmut Franke. Nach den Meinungsverschiedenheiten mit dem Bundesverband des Stahlhelms verließ Jünger den Verband und gab ab November 1926, finanziert durch Gelder von Hermann Ehrhardt, die Münchner Zeitschrift "Arminius", eine "Kampfschrift für deutsche Nationalisten" (so der Untertitel) heraus. Bis September 1927 veröffentlichte Jünger dort 27 Beiträge, in denen er unter anderem auch die NSDAP kritisierte, weil sie ihm nicht radikal genug war. Trotz dieser Kritik gab der "Völkische Beobachter" im Januar 1927 ausführlich eine Rede Jüngers wieder. Nachdrucke seiner Artikel erschienen im Frühjahr 1927 in der Berliner "Deutsche Zeitung" und den "Leipziger Neuesten Nachrichten", die ihn somit einem breiteren Publikum bekannt machten. Mit seinen Veröffentlichungen erwarb sich Jünger 1927 einen Namen als einer der herausragenden Vertreter der radikalen Rechten. Nach einem Zerwürfnis mit seinem Mitherausgeber Helmut Franke beendete Jünger im Mai 1927 seine Tätigkeit als Herausgeber des "Arminius" und übernahm ab Oktober 1927 die Herausgeberschaft der Zeitschrift "Vormarsch. Blätter der nationalistischen Jugend," die ebenfalls von Hermann Ehrhardt finanziert wurde. Er war bis März 1928 Herausgeber und veröffentlichte dort insgesamt zwölf Beiträge. Parallel zu seinen Veröffentlichungen in den Zeitschriften von Ehrhardt schrieb Jünger ab April 1927 für Ernst Niekischs Zeitschrift "Widerstand. Zeitschrift für nationalrevolutionäre Politik", wo bis 1933 insgesamt 18 seiner Artikel erschienen.
Im Juli 1927 übersiedelte Jünger mit seiner Familie von Leipzig nach Berlin, um das moderne Leben in seiner „Traumstärke“ zu erfassen. Zunächst wohnte er in der Nollendorfstraße 29/3 im Ortsteil Schöneberg, in der Nähe der Motzstraße, wo der Juniklub im sogenannten Schutzbundhaus seine Zusammenkünfte abhielt. Nach einem Jahr siedelte Jünger in die Stralauer Allee (36, 1. Stock) um, in eine Arbeitergegend unweit des Osthafens. In Berlin intensivierte sich der Austausch mit konservativen Revolutionären wie Ludwig Alwens, Franz Schauwecker, Friedrich Hielscher, Albrecht Erich Günther, Bruno und Ernst von Salomon sowie Ernst Niekisch. Er lernte auch Schriftsteller der Linken wie Bertolt Brecht, Ernst Toller und Erich Mühsam kennen. Er unterhielt Beziehungen zu Arnolt Bronnen, zu den Malern A. Paul Weber und Rudolf Schlichter sowie zu den Verlegern Ernst Rowohlt und Benno Ziegler, und traf sich mit NS-Parteiführern wie Otto Strasser und Joseph Goebbels. Er vertiefte seine Freundschaft zum Philosophen Ernst Hugo Fischer, den er bereits aus Leipzig kannte, und schloss neue Freundschaften mit Valeriu Marcu, Alfred Kubin und Carl Schmitt. In der Berliner Zeit machte er sich den Lebensstil der Bohème zu eigen. Das Geheimnis seines einsetzenden Erfolges rührte laut Jan Robert Weber daher, dass er zwei Felder zugleich bestellte: Publizistik und Essayistik, Politik und Literatur.
Antidemokratisches Engagement.
In seiner nationalrevolutionären Publizistik forderte Jünger aus der Verabsolutierung seiner Kriegserlebnisse heraus eine Militarisierung aller Lebensbereiche. Die Weimarer Republik bekämpfte er radikal. Er sprach sich für ihre gewaltsame Zerschlagung und die Errichtung einer nationalen Diktatur aus. Die Ideale des Humanismus, Pazifismus, generell aller bürgerlichen Ordnungs- und Zivilisiertheitsvorstellungen lehnte er ab: Stattdessen propagierte er ein Menschenbild, das keine Scheu vor Schmerz und Opfer kennt und Disziplin und Rangordnung höher achtet als das aus seiner Sicht ungerechtfertigte Postulat der Gleichheit. Nach Ansicht Kiesels steckte dahinter ein „früh anerzogener und durch die Lektüre Nietzsches befestigter Antidemokratismus und Antihumanismus“, aber auch der Verdacht, dass, wenn die Humanisten Recht hätten, die vier Jahre Krieg sinnlos gewesen sein könnten. In der Erstauflage 1925 von "Wäldchen 125" findet sich seine Aussage:
Gefolgt wird diese Aussage von Drohungen gegen das „geschäftsmäßige Literatenpack“, das sich für Aufklärung, Demokratie und Pazifismus einsetze. Gegen diese, so Jünger, müsse „sofort die Prügelstrafe wieder eingeführt“ werden. Obwohl er diese Sätze 1933 für die folgenden Ausgaben aus dem Buch entfernen ließ, handelt es sich nach Ansicht des Historikers Peter Longerich um eine „auch in der Diktion für ihn typische Aussage“. Die Weltanschauung, die Jünger seiner Generation der Frontsoldaten empfiehlt, betont auch Matthias Schloßberger, habe ihre Wurzeln in der Romantik und der Lebensphilosophie Nietzsches. Laut Steffen Martus formulierte Jünger für die Nachkriegszeit eine nationalistische Handlungsanweisung:
Das nationalistische Programm sollte auf vier Grundpfeilern basieren: Der kommende Staat müsse national, sozial, wehrhaft und autoritativ gegliedert sein. Dabei sei die Staatsform „nebensächlich, wenn nur ihre Verfassung eine scharf nationale ist“.
Zusammen mit seinem Bruder Friedrich Georg, mit Gerhard Roßbach und Arnolt Bronnen sowie weiteren Verbündeten fand sich Jünger am 17. Oktober 1930 im Beethovensaal ein, um die "Deutsche Ansprache" von Thomas Mann zu stören, in der dieser vor den Gefahren des aufkommenden Nationalsozialismus warnte. Joseph Goebbels unterstützte die Aktion, indem er zwanzig mit Smoking bekleidete SA-Männer schickte.
Verhältnis zur NSDAP.
Laut dem Historiker Daniel Morat war es sicher kein Zufall, dass Jünger 1923 seinen ersten politischen Artikel im "Völkischen Beobachter" veröffentlichte. Die nationalsozialistische Bewegung wurde von ihm als eine der radikalsten und unbürgerlichsten begrüßt. In dieser Bewegung, so Jünger, sei „mehr Feuer und Blut, als die sogenannte Revolution in den ganzen Jahren aufzubringen imstande war“. In Hitler sah er eine „Gestalt die unzweifelhaft schon wie die Mussolinis die Vorahnung eines ganz neuen Führertypus“ erwecke. Hier deutet sich Kai Köhler zufolge bereits eine Haltung der Überlegenheit an: „Hitler ist aus Sicht dessen, der in die Zukunft blickte, eben nicht der Führer, sondern nur die Vorahnung eines kommenden Typus, dessen Merkmale der Betrachter besser zu erkennen beansprucht“. Im "Stahlhelm-Jahrbuch" 1926 erklärte Jünger, im eigenen Denken gezwungen zu sein, außer dem im Deutschen veranlagten Nationalismus, Militarismus und Imperialismus noch „dem Sozialismus einen wichtigen Platz auf dem Felde unseres Denkens einzuräumen, und daß es sehr vielen so gegangen ist, das beweist die Gründung der Nationalsozialistischen Partei, die aus einem tiefen Bedürfnis heraus hervorgegangen ist“. Allerdings sind Jüngers Aussagen zum Sozialismus, so Bruno W. Reimann, meist nur plakativ, floskelhaft und substantiell dünn, so auch diese „flächige Formulierung“. In diesem Jahrbuch definierte sich Jünger, so Reimann, als Parteigänger der faschistischen und rassistischen Gewalt und bezeichnete sich als „begeisterter Anhänger“ des Hitler-Putsches.
Am 29. Januar 1926 sandte er Hitler sein Buch "Feuer und Blut" mit der Widmung „Dem nationalen Führer Adolf Hitler“, worauf dieser sich persönlich bei ihm bedankte. Hitler kündigte sogar einen Besuch in Leipzig an, sagte aber in letzter Minute ab.
Im März 1926 plädierte Jünger für die „aktive Eingliederung in das politische Kräftespiel“ und forderte die Zusammenfassung der „nationalen Frontsoldatenverbände“, der „Kräfte der radikalen, der völkischen und der nationalsozialen Gruppen“ sowie des „blutmäßige[n] Kern[s] des Frontsoldatentums der Arbeiterschaft“. Am 20. Mai 1926 kam er wieder auf den misslungenen Hitler-Putsch zu sprechen, den er als „noch unklaren Aufstand in München“ umschrieb, bei dem allerdings der Nationalismus noch mitten im Prozess einer innerlichen Überwindung der „Formen eines alten Staates“ gesteckt habe, und sprach sich trotz der ersten Risse im Verhältnis zum "Stahlhelm" dafür aus, „unseren Einfluß in den Kampfbünden zu stärken“ und ihre „Revolutionierung“ voranzutreiben. In seinem Aufruf „Schließt euch zusammen!“ vom 3. Juni 1926 forderte er schließlich ergebnislos den Zusammenschluss der „Einzelbewegungen“ zur „nationalistischen Endfront“, denn „die Form unserer Bewegung wird auch die Form des zukünftigen Staates sein“, und bezog die NSDAP, mit deren Hilfe die Arbeiterschaft gewonnen werden sollte, ausdrücklich mit ein:
Bei Jünger, so der Historiker Morat, gab es in der Propagierung eines „nationalen Sozialismus“ weitgehende inhaltliche Übereinstimmungen mit der NSDAP. Der entscheidende Unterschied zwischen „neuem Nationalismus“ und Nationalsozialismus lag nicht auf inhaltlicher Ebene, sondern bestand in der Organisationsform als esoterische Zirkel auf der einen und als Massenpartei auf der anderen Seite. In seinem 1927 im "Arminius" erschienenen Aufsatz „Nationalismus und Nationalsozialismus“ legte Jünger besonderen Wert auf die Bedeutung der „vorwiegend literarischen Tätigkeit“ der Vorkämpfer des "Neuen Nationalismus" in der „Zwischenzeit“. Damit meinte Jünger, so Bruno W. Reimann, die Zeit zwischen den Kämpfen, in der man sich auf die Werte des Kampfes besinnen sollte. Während der Nationalsozialismus „als politische Organisation auf die Gewinnung von tatsächlichen Machtmitteln angewiesen ist“, um „eine Idee zu verwirklichen“, sei es die Aufgabe des Nationalismus, „sie möglichst tief und rein zu erfassen“. Jemand, der dies tue, könne schwerer wiegen „als hundert Sitze im Parlament“. Diese Rollenverteilung zeige, so Heimo Schwilk, dass Jünger die neuen Nationalisten als eine geistige Elite versteht, welche dem gröberen Parteisoldatenvolk Hitlers die Richtung weist.
Hitler soll Jünger 1927 ein Reichstagsmandat angeboten haben. Karl Otto Paetel, der um 1930 zu den Bündischen und Nationalrevolutionären zählte, berichtete 1949, Jünger habe dies mit der Begründung abgelehnt, er halte „das Schreiben eines einzigen Verses für verdienstvoller als 60 000 Trottel zu vertreten.“ Helmuth Kiesel weist darauf hin, dass weder das Angebot noch seine Ablehnung dokumentiert seien.
Hitler ging auf Jünger ein letztes Mal im Juli 1929 zu, als er ihm in seinem Namen durch Rudolf Heß eine offizielle Einladung als Ehrengast zum Nürnberger Parteitag der NSDAP vom 1. zum 4. August 1929 übermitteln ließ. Jünger nahm die Einladung an, erschien jedoch nicht. Die Gründe sind bis heute unbekannt.
Als sich Hitler 1929 gegen die terroristische Landvolkbewegung wandte, in der Jünger den Vorreiter der von ihm erhofften nationalrevolutionären Bewegung gesehen hatte, kam es zum offenen Bruch. Hans Sarkowicz und Alf Mentzer meinen, Jünger habe Hitlers Entscheidung, nicht revolutionär, sondern im legalen Marsch durch die Institutionen an die Macht zu gelangen, als Konzession an den verhassten Parteienstaat abgelehnt. Zu Recht, meint auch Helmuth Kiesel, habe man gesagt, die NSDAP sei Jünger nicht radikal genug gewesen, sondern habe sich in seinen Augen als Teil des bürgerlichen Systems erwiesen. Harro Segeberg bezeichnet Jüngers kurzes Engagement als „frühen Flirt“ mit dem Nationalsozialismus jener Zeit.
Wojciech Kunicki zufolge war die einzige national-revolutionäre Richtung, die von Jünger Ende der Zwanzigerjahre unterstützt wurde, die „nationalbolschewistische in ihrer anarchistischen Ausprägung“ um Bruno von Salomon und seine „Landvolkbewegung“. Kunicki weiter: „Das Programm Jüngers für die Übergangsphase zur Diktatur war das einer offenen Anarchie und einer kompromisslosen Zuspitzung der Konflikte und der Gegensätze.“ So schrieb Jünger am 10. September 1929 an Salomon:
Durch seinen freundschaftlichen Umgang mit Ernst Niekisch und seine regelmäßigen Beiträge zu Niekischs Zeitschrift "Widerstand" wurde Jünger in die Nähe des Nationalbolschewismus gerückt. Die Ablehnung des Westens und die Forderung nach einem Bündnis mit der Sowjetunion, Antikapitalismus und preußischer Sozialismus, beeinflussten seine Konzeption des Groß-Essays "Der Arbeiter" zwischen 1930 und 1932. Niekisch sah deshalb in Jünger einen der wichtigsten Vertreter des Nationalbolschewismus, während Jünger sich vorsichtig gegen diese Vereinnahmung zur Wehr setzte. Für Jan Robert Weber waren es die nationalbolschewistischen Implikation des "Arbeiters", die Jünger 1933 ein Bekenntnis zu Hitler unmöglich machten. Da er als einer der Köpfe des politisch gescheiterten Nationalbolschewismus galt, habe er Weggefährten und auch sein eigenes Werk nicht zugunsten einer Karriere im NS-Staat verraten müssen. Dem politischen Widerstand der Nationalbolschewisten um Niekisch gegen den Nationalsozialismus schloss sich Jünger gleichwohl nicht an, sondern zog sich auf die Position des Solitärs zurück.
1929 antwortete der von Joseph Goebbels herausgegebene "Angriff" als Reaktion auf einen Artikel Jüngers im linksliberalen "Tagebuch," in dem Jünger erklärt hatte, dass der Antisemitismus für den „neuen Nationalismus“ „keine Fragestellung wesentlicher Art“ sei und dass sich der Nationalsozialismus durch seinen Legalitätskurs als Teil der bürgerlichen Ordnung erwiesen habe: „Wir debattieren nicht mit Renegaten, die uns in Schmutzblättern jüdischer Landesverräter anpöbeln. Herr Jünger aber ist damit für uns erledigt.“ Der expressionistische Dramatiker Arnolt Bronnen versuchte 1930 Jünger mit Goebbels zu versöhnen.
Steffen Maltus fasste vier Punkte zusammen, welche Jünger an der nationalsozialistischen Bewegung auszusetzen hatte: die Mitarbeit im parlamentarischen System, die herausgehobene Rolle der „Masse“, die fehlenden „geistigen“ Grundlagen sowie das biologistische Konzept von „Rasse“.
Politischer Publizist.
In den frühen 1930er Jahren bemühte Jünger sich in seinen Schriften um eine geschichtsphilosophische Erweiterung seines weltanschaulichen Programms. Er gab mehrere nationalrevolutionäre Sammelbände heraus. Um ihn herum bildete sich ein Zirkel nationalistischer Publizisten aus sehr unterschiedlichen Flügeln, angefangen von späteren Nationalsozialisten bis hin zum Nationalbolschewisten Ernst Niekisch. Es sei der mitreißende Schwung und der glühende Idealismus, so Heimo Schwilk, die seine Zeitschriftenbeiträge und Aufrufe gerade in den prosperierenden Jahren der Weimarer Republik für die Jugend so verführerisch machten, dass ihm auch der politische Gegner die Anerkennung nicht versagen konnte, so etwa wenn Klaus Mann von „einer gewissen mißleiteten Reinheit“ sprach, die zu befehden sich lohne.
In Kreisen, die nicht dem nationalistischen Spektrum zuzuordnen sind, wurde man 1929 durch Jüngers Essay "„Nationalismus“ und Nationalismus" im linksliberalen "Das Tage-Buch" auf ihn aufmerksam. Leopold Schwarzschild replizierte unter dem Titel "Heroismus aus Langeweile" und kritisierte, dass der junge Nationalismus nicht konstruktiv sei. Im Jahr 1930 erschien die Abhandlung "Die totale Mobilmachung," einer von Jüngers Versuchen, nach dem politischen Scheitern des neuen Nationalismus einen neuen Zugriff auf die Wirklichkeit zu erproben. Walter Benjamin nahm den Band "Krieg und Krieger", in welchem dieser Aufsatz erschienen war, zum Anlass, um Jünger und seinen Mitautoren vorzuwerfen, ihr Horizont sei vom Krieg bestimmt. Vom Frieden wüssten sie nichts. „[U]nter der Maske erst des Freiwilligen im Weltkrieg, dann des Söldners im Nachkrieg“ stecke der „zuverlässige faschistische Klassenkrieger“. Klaus Mann diskutierte Jünger als Typus im Kontext der paneuropäischen Idee. Ein geeintes Europa sei die einzige Möglichkeit, einen neuen Krieg zu vermeiden. Dem stehe „die Sympathie der Jugend mit dem Terror“ gegenüber und Jünger verlocke „mit seinem pathetisch blutrünstigen Todhaß gegen die Zivilisation“.
Jünger distanzierte sich vom Antimodernismus rechter Kreise genauso wie vom biologistischen Rassismus der völkischen Bewegung. In "Der Arbeiter" bediente er sich zwar biologistischer, sozialdarwinistischer Metaphorik und sprach von „einer neuen Rasse“, die durch „Züchtung“ und „Auslese“ zustande komme. Unter „einer sehr einheitlichen Rasse“ als zentralem Merkmal des zukünftigen nationalistischen Staates verstand Jünger jedoch die „Rasse der Gräben“, also die Frontsoldaten des Ersten Weltkriegs. Das „Blut“ stellte für Jünger eine Gegenmacht zum „Intellekt“ dar, sodass die „Blutmäßigkeit“ einer Haltung oder Bewegung für ihn keine Frage der Abstammung, sondern eine des Glaubens und des Opfers war.
„Blut“ war ein Zentralbegriff des rechtsintellektuellen Antiintellektualismus Jüngers und die „Blutgemeinschaft“ ein Gegenentwurf zur „Geistgemeinschaft“ des Intellekts.
Auch wenn Jünger keinen rassebiologischen Antisemitismus vertrat, finden sich in seinen nationalistischen Texten dennoch antisemitische Stereotype. Die Juden werden stets dem feindlichen Lager, dem Liberalismus, Pazifismus und Internationalismus zugeordnet. Am Deutschtum können sie bei Jünger keinen Anteil haben; erledigt würde die „jüdische Frage“, wenn das Deutschtum in Reinheit zum Ausdruck komme. In seinem Essay "Nationalismus und Judenfrage" (1930) schreibt er beispielsweise:
Diese Äußerungen seien im Zusammenhang mit seinem radikalen „Anti-Liberalismus und Anti-Demokratismus“ (Harro Segeberg) zu sehen und richteten sich daher in erster Linie gegen die Assimilation der deutschen Juden, die er als „Zivilisationsjuden“ abqualifiziert; Jünger bevorzugte wie damals auch sein Bruder Friedrich Georg und andere Nationalrevolutionäre eher das orthodoxe Judentum, dann auch zunehmend den modernen Zionismus.
Von Januar 1930 bis Oktober 1931 übernahm Jünger, zusammen mit Werner Lass, vorübergehend die Herausgeberschaft der Zeitschrift "Die Kommenden. Überbündische Wochenschrift der deutschen Jugend", wo weitere 10 Beiträge veröffentlicht wurden, allerdings nur Nachdrucke und ein Vorabdruck.
1931 zog Jünger in die Berliner Dortmunder Straße, Nähe Bellevue, 1932 nach Berlin-Steglitz. Im Frühjahr 1932 trat Jüngers Vater der NSDAP bei. Nach Helmuth Kiesels Vermutung folgte Georg Jünger „hier nicht – oder nicht nur – seiner politischen Überzeugung, sondern gab dem Druck nach, der in dieser Zeit auf seinesgleichen ausgeübt wurde und der enorm war“. Im November 1932, auf dem Höhepunkt der politischen und gesellschaftlichen Krise der Weimarer Republik, erschien Jüngers umfangreicher Essay "Der Arbeiter. Herrschaft und Gestalt", in dem er für einen hierarchischen, autoritären, diktatorischen, vielleicht totalitären Staat plädierte. Jünger glaubte, so Kiesel, die Nöte und Ungerechtigkeiten der Zeit mit technokratischen Mitteln, durch Organisation und Maschineneinsatz beheben zu können.
Haltung während der NS-Zeit.
Rückzug von der Politik.
Am 12. April 1933 wurde Jüngers Wohnung aufgrund seiner Kontakte zu Erich Mühsam von zwei Polizisten durchsucht. Sie hätten das Unternehmen abgebrochen, so erinnerte sich Jünger später, als sie auf Briefe von Heß und Hitler gestoßen seien. Danach vernichtete Jünger seine Tagebücher seit 1919, Gedichte, den größten Teil seines Briefwechsels und seine Aufzeichnungen über die politischen Ereignisse. Im November 1933 zog er mit seiner Familie nach Goslar, wo 1934 sein zweiter Sohn Alexander geboren wurde.
Ebenfalls im November 1933 lehnte Jünger die Aufnahme in die neu besetzte Deutsche Akademie der Dichtung in Berlin ab, für die ihn Hans Grimm vorgeschlagen hatte, sagte dem Reichssender Leipzig ab und verbat sich im Juni 1934 nicht autorisierte Abdrucke seiner Schriften im "Völkischen Beobachter". Gegenüber dem Präsidenten der Dichterakademie, Werner Beumelburg, erklärte Jünger seine Bereitschaft „zur positiven Mitarbeit am neuen Staate“. Für Daniel Morat hatte dieses Schreiben in erster Linie taktische Bedeutung. Ebenso hält er einen den NS-Staat bejahenden Text Jüngers im "Nachrichtenblatt für die Ritter des Ordens „Pour le Merite“" vom September 1933 für ein „Lippenbekenntnis“.
An der Distanz Jüngers zum NS-Regime könne, so Steffen Martus, bei aller Nähe zum Nationalsozialismus vor 1933 kein Zweifel bestehen. Jüngers Karriere tat dies keinen Abbruch. Während der 1930er-Jahre war er ein anerkannter, sich gut verkaufender Autor. Seine Werke wurden wohlwollend besprochen und Auswahlausgaben seiner Weltkriegsschriften verlegt. Seine neuen Werke erschienen in mehreren Auflagen, die "Marmorklippen" etwa von 1939 bis 1942 in sechs Auflagen. Ab 1942 wurde ihm nach einer Intervention Goebbels’ das Papier zum Druck verweigert. Michael Ansel argumentiert, dass es Jünger durch seine Akzeptanz möglich gewesen sei, sich wie mit der ausgeschlagenen Akademieberufung provokant zu distanzieren, zumal er nicht öffentlich gegenüber den neuen Machthabern Stellung bezogen hatte. Im Gegensatz etwa zu Gottfried Benn habe Jünger von seinem politischen Kapital als Visionär eines starken nationalistischen Deutschland und von der Interpretation des "Arbeiters" als faschistoide Programmschrift profitiert. Da sich Jünger aber nicht als kulturpolitischer Repräsentant des Nationalsozialismus vereinnahmen ließ, hätten die Jünger-Gegner innerhalb des NS-Regimes schließlich die Oberhand gewonnen, ihn jedoch nicht offiziell geächtet, sondern seine Publikationen mit dem Argument der Papierknappheit unterbunden.
Ernst Niekisch gab nach dem Krieg an, Jünger habe 1936 und zuletzt Anfang Februar 1937 seine Goslarer Wohnung für konspirative Treffen des Widerstandskreises um Niekisch zur Verfügung gestellt. Allerdings war Jünger am 18. Oktober 1936 auf eine Reise nach Südamerika gegangen, von der er nicht mehr nach Goslar zurückkehrte. Nach seiner Rückkehr am 15. Dezember 1936 zog er gleich nach Überlingen am Bodensee in das Haus, das seine Frau Gretha in der Zwischenzeit angemietet hatte. Nach Niekischs Verhaftung im März 1937 wurden die Gebrüder Jünger von der Gestapo verhört und verbrannten ihre Korrespondenz mit Niekisch. Ohne großen Erfolg bemühten sie sich, Niekisch und seiner Frau mögliche Unterstützung zukommen zu lassen.
Während der Zeit in Überlingen unternahm Jünger drei bis vier bemerkenswerte Reisen. Er besuchte Alfred Kubin in Zwickledt, hielt sich sechs Wochen auf Rhodos auf und traf in Paris Joseph Breitbach. Durch dessen Vermittlung lernte Jünger Julien Green, André Gide und Jean Schlumberger kennen. In dieser Zeit stießen auch Gerhard Nebel und Stefan Andres zu Jüngers Bekanntenkreis. Ab 1939 lebte Jünger in Kirchhorst nahe Hannover. Im selben Jahr erschien seine Erzählung "Auf den Marmorklippen," die oft als verdeckte Kritik an der Gewaltherrschaft Hitlers interpretiert wird. Jünger selbst wehrte sich jedoch zeitlebens gegen die Interpretation der "Marmorklippen" als Widerstandsbuch gegen den Nationalsozialismus. Kiesel liest die "Marmorklippen" als respektables Zeugnis der Distanzierung, das der Idee eines Attentats allerdings eine „klare Absage“ erteilte. Den Umzug nach Kirchhorst deutet er als kluge Strategie, „für den Fall der Mobilmachung im Einzugsbereich seiner alten Einheit“ zu sein.
Besatzungsoffizier in Paris.
Kurz vor Beginn des Zweiten Weltkriegs wurde Jünger zur Wehrmacht eingezogen und im August 1939 zum Hauptmann befördert. Vom November 1939 bis Ende April 1940 tat er als Kompaniechef am Westwall in der Nähe von Greffern und Iffezheim gegenüber der Maginot-Linie Dienst. In dieser Zeit erhielt er für die Bergung eines Verwundeten die Spange zum Eisernen Kreuz II. Klasse. 1941 wurde seine Einheit nach Paris verlegt. Im Sommer des Jahres kam Jünger gegen den Widerstand von Wilhelm Keitel in den Stab des Militärbefehlshabers von Frankreich (MBF) unter Otto von Stülpnagel, später Chef des Generalstabes der Heeresgruppe B, wo er unter anderem für die Briefzensur in der Ic-Abteilung für Feindaufklärung und Abwehr zuständig war. Der Stab befand sich zu der Zeit im Pariser Hôtel Majestic in der Avenue Kléber in Sichtweite des Arc de Triomphe. Dort hatte Jünger bis zum Sommer 1944 sein Büro und wohnte daneben im Luxushotel „Raphael“. Als Zeitdokument einer deutschen Sicht des Zweiten Weltkrieges entstanden die "Pariser Tagebücher," die 1949 in das Buch "Strahlungen" Eingang fanden, nachdem das Tagebuch vom Frankreichfeldzug schon 1942 unter dem Titel "Gärten und Straßen" erschienen war.
Einer beobachtungsreichen Studie von Rainer Gruenter zufolge, so Helmuth Kiesel, habe sich Jünger in seiner Pariser Zeit oft wie ein Dandy benommen. Eine Affinität Jüngers zu diesem Sozialtypus, so Kiesel weiter, könne man durchaus behaupten, aber ihn darauf zu reduzieren hieße zu übersehen, dass er „im Bauche des Leviathans“ die Erfahrungen im Bewusstsein, „von Leidenden umgeben“ zu sein, aufsog und sammelte. Die ausführlichen Schilderungen seiner Lektüre und seiner Streifzüge durch die Pariser Antiquariate, seiner Teestunden bei der Damenwelt und seiner Abende in den Salons der Kollaborationskultur sind nach dem Krieg vielfach kritisiert worden. Man lebte gut, mit Champagner und Austern. Er befand sich in unmittelbarer Nähe der Macht, wie Jörg Magenau betont, aber er tat so, als gehöre er selbst gar nicht dazu. Zu seiner Pariser Zeit zählt auch eine Affäre mit der „Halbjüdin“ Sophie Ravoux, eine Episode, deren Stellenwert laut Kiesel schwer zu rekonstruieren ist, weil immer noch Teile des Briefwechsels gesperrt sind.
Jünger war auch in die Differenzen zwischen Partei und Wehrmacht in der sogenannten Geiselfrage involviert. Es ging darum, ob es ratsam sei, nach Anschlägen der Résistance Geiseln zu erschießen. In dieser Frage ging es, so Magenau, fernab jeglicher Moral um ein Ringen um die Anzahl der Erschießungen, nicht jedoch um einen Streit ums Prinzip. Am 29. Mai 1941 wohnte Jünger der Hinrichtung eines deutschen Deserteurs bei. Daniel Morat verglich diese Passage der "Strahlungen" mit Jüngers Originaltagebüchern und urteilte, dass er seine eigene Funktion als leitender Offizier dieser Erschießung in der Veröffentlichung weitgehend ausblendete und sich zum rein von „höherer Neugier“ angetriebenen Beobachter stilisierte. Jüngers Biograph Kiesel verteidigte Jünger vor den Vorwürfen des Ästhetizismus und Amoralismus, denn Jünger habe insbesondere unter den Geiselerschießungen gelitten. In Jüngers Nachlass fanden sich übersetzte Abschiedsbriefe von Geiseln, die anlässlich des Attentats von Nantes im Oktober 1941 zum Tode verurteilt worden waren.
1994 bestätigte Jünger, dass die Figur „Merline“ in seinen "Strahlungen" identisch mit Louis-Ferdinand Céline sei. Er habe in seiner Pariser Zeit verschiedene französische Schriftsteller wie etwa Jean Cocteau, Henry de Montherlant, Jean Paulhan und eben Céline getroffen, auf den er neugierig gewesen sei. Am Nachmittag des 7. Dezember 1941 im Deutschen Institut traf er auf Céline, der ihn mit wüsten antisemitischen Reden in Erstaunen versetzte. Jünger tat in seinem Tagebuch seine Abscheu vor „solchen Menschen“ kund. Der französische Arzt Germain Sée berichtete, er sei, als er den Stern trug, im Juni 1942 in der Avenue Kléber von einem deutschen Offizier militärisch gegrüßt worden. Dies bestätigte Jünger nach dem Krieg und schrieb Sée, er habe „immer den Stern gegrüßt“.
1942 begannen die Arbeiten an dem Traktat "Der Friede," der als Appell an die Jugend Europas gedacht war und Forderungen nach Sühnung der Verbrechen und Überwindung des Nationalstaats enthielt. Damals gehörte Jünger zur Stabsabteilung des Militärbefehlshabers in Frankreich, des Generals der Infanterie und späteren Widerstandskämpfers Carl-Heinrich von Stülpnagel. Stülpnagel schickte Jünger am 21. November 1942 in den Kaukasus. Dort setzte Jünger sein Tagebuchwerk unter dem Titel "Kaukasische Aufzeichnungen" fort, die ebenfalls in die "Strahlungen" aufgenommen wurden. Im Kaukasus wurde er Zeuge von Mordaktionen, die dort von „Einsatzgruppen“ begangen wurden. Zwar schrieb Jünger: „Ein Ekel ergreift mich dann vor den Uniformen, den Schulterstücken, den Orden, dem Wein, den Waffen, deren Glanz ich so geliebt.“ Laut Morat wandte er aber eine geschichtsphilosophische Verallgemeinerung auf die Verbrechen an. Seine Deutungsmuster erlaubten es ihm, das angeekelte Wegsehen als höhere Schau der geschichtsphilosophischen Zusammenhänge auszugeben. Der Kaukasus wurde so zum Desaster des Wahrnehmungsprogramms, das er unter anderem im "Arbeiter" entwickelt hatte. Am 9. Januar 1943 kehrte er nach Paris zurück.
Kontakte zum Widerstand der Wehrmacht.
Gemäß Daniel Morat hatte Jünger in Paris unmittelbaren Kontakt zu Widerstandskreisen innerhalb der Wehrmacht und war zum Teil auch an deren taktischen Überlegungen beteiligt. Nach dem Scheitern des Unternehmens Walküre notierte Jünger in seinem "Zweiten Pariser Tagebuch" kommentarlos eine in einem Gespräch mit ihm geäußerte Aussage von Max Hattingen, Hauptmann im Pariser Generalstab, der das Geschehen mit den Worten zusammenfasste: „Die Riesenschlange im Sack gehabt und wieder herausgelassen“. Hattingen bezeichnete damit den Tatbestand, dass es Stülpnagel zunächst gelungen war, in Paris die wichtigsten Funktionäre und Führer der SS, des SD und der Gestapo festnehmen zu lassen, um sie dann wieder in Freiheit zu setzen, nachdem das Scheitern des Attentats feststand.
Heimkehr und Schicksal des Sohns.
Nach der Operation Overlord und der alliierten Befreiung von Paris verließ Jünger mit den abziehenden deutschen Truppen die französische Hauptstadt und kehrte nach Deutschland zurück, wo er im September 1944 im Alter von 49 Jahren als Hauptmann aufgrund seiner Kontakte zum Widerstand als „wehrunwürdig“ aus der Wehrmacht entlassen wurde. Er zog sich nach Kirchhorst in Niedersachsen zurück, wo er gegen Kriegsende als Volkssturmkommandant befahl, keinen Widerstand gegen die anrückenden alliierten Truppen zu leisten.
Jüngers Sohn Ernst, Ernstel genannt, wurde 1944 im Alter von 17 Jahren zusammen mit seinem besten Freund Wolf Jobst Siedler in dem Internat Hermann Lietz-Schule Spiekeroog verhaftet, in dem sie zur Schule gingen.
Die Schüler waren dort auch als Marinehelfer tätig. Ein Mitschüler hatte sie bei einer vorgesetzten Dienststelle mit der Meldung denunziert, sie hätten während des Dienstes für die Marine „fortwährend regimekritische und defätistische“ Bemerkungen gemacht. Ernstel habe sogar u. a. gesagt, „Hitler müsse ‚gehängt‘ werden“. Das waren schwere Vergehen in der Zeit des Nationalsozialismus und es bestand die Gefahr, dass es ein Strafverfahren vor dem Volksgerichtshof geben würde, bei dem solche Äußerungen in der Regel mit der Verhängung der Todesstrafe geahndet wurden. Dank Jüngers Fürsprache bei militärischen Vorgesetzten der beiden Jungen fand ein Kriegsgerichtsverfahren statt, in dem beide nur zu Gefängnisstrafen verurteilt und ein halbes Jahr später auf Bewährung entlassen wurden. Ernst meldete sich freiwillig bei den Panzergrenadieren einer SS-Einheit, um einer Verhaftung durch die Gestapo zu entgehen. Am 29. November 1944 fiel er in Italien in der Nähe von Carrara. Ernst Jünger und seine Frau hatten noch lange immer wieder Zweifel, ob ihr Sohn nicht in Wirklichkeit „liquidiert“ worden sei.
Nachkriegszeit.
Publikationsverbot.
Nach dem Krieg weigerte sich Jünger, den Fragebogen der Alliierten für die sogenannte Entnazifizierung auszufüllen, und erhielt daraufhin in der britischen Besatzungszone bis 1949 Publikationsverbot. Sein Bruder Friedrich Georg Jünger hierzu: „Dass er als ‚belastet‘ galt und als Wegbereiter des Nationalsozialismus mit einem Publikationsverbot belegt wurde, nahm Ernst hin und wollte sich einreden, auch darin eine Auszeichnung zu sehen.“ Laut seinem Bruder wartete er sehnlichst darauf, dass die „Friedensschrift“ in Deutschland erscheinen könne, von der ab 1946 eine in Amsterdam gedruckte Ausgabe zirkulierte. Im Anschluss an eine Geburtstagsfeier seines Bruders in Überlingen reiste er zusammen mit Vittorio Klostermann nach Freiburg, wo er erstmals mit Martin Heidegger zusammentraf. Diese Begegnung scheint laut Daniel Morat so nachhaltig gewesen zu sein, dass Jünger im Dezember 1948 nach Ravensburg in die französische Besatzungszone übersiedelte. Im Sommer 1950 erfolgte auf persönliche Einladung von Friedrich von Stauffenberg der Umzug nach Wilflingen. Dort wohnte Jünger zunächst im Schloss, ab Frühjahr 1951 bis zu seinem Tode in dem 1727 vom Fürstbischof von Konstanz und Augsburg Johann Franz Schenk Freiherr von Stauffenberg erbauten Forsthaus der ehemaligen Oberförsterei der Schenken von Stauffenberg.
Auf den Journalisten Armin Mohler wurde Jünger aufmerksam, als dieser 1946 einen ihn lobenden Artikel in der "Weltwoche" veröffentlichte. Daraus entwickelte sich ein persönlicher Kontakt, der dazu führte, dass Jünger ihm anbot, sein Sekretär zu werden. Von 1949 bis 1953 war Mohler Privatsekretär von Jünger. 1949 lernte Jünger den LSD-Entdecker Albert Hofmann kennen. Gemeinsam experimentierten beide mit der Droge. Jünger schrieb anschließend ein Buch über seine Erfahrungen mit LSD "(Besuch auf Godenholm)".
Spätwerk.
Nach der Aufhebung des Publikationsverbots 1949 erschienen die "Strahlungen," die in Deutschland Bestseller des Jahres wurden. In wenigen Wochen waren 20.000 Exemplare des Tagebuchs verkauft. Als zweites Werk erschien im Herbst 1949 der Roman "Heliopolis," an dem Jünger von Januar 1947 bis März 1949 gearbeitet hatte. Kiesel würdigte "Heliopolis" als „unzeitgemäßigen“ und „großartigen Roman“. Laut Reinhard Mehrling wertete Kiesel das Spätwerk Jüngers nicht, wie etwa Peter Koslowski, als große Geschichtsphilosophie gegenüber dem Frühwerk.
1951 entstand Jüngers Essay "Der Waldgang," eine Art Widerstandsfibel gegen Totalitarismus und Anpassung. Laut einem russischen Lesebuch für Deutschstudierende sei Fortsetzung und Abschluss dieser Thematik in dem 1977 erschienenen Roman "Eumeswil" zu sehen. Gemäß Bernd A. Laska entwickelte er darin die Gestalt des Waldgängers zu der des Anarchen weiter, wobei Jünger sich hauptsächlich auf Max Stirner und dessen 1844 erschienenes Buch "Der Einzige und sein Eigentum" bezogen habe.
Von 1959 bis 1971 war Jünger gemeinsam mit Mircea Eliade Herausgeber der im Ernst Klett Verlag erschienenen Kulturzeitschrift "Antaios".
Nach dem Tod seiner ersten Frau Gretha (1960) heiratete Jünger 1962 die promovierte Germanistin Liselotte Lohrer (1917–2010), die unter anderem das Cotta-Archiv im Deutschen Literaturarchiv aufbaute und betreute. In seinen Schriften bezeichnet Jünger sie gewöhnlich mit ihrem Kosenamen als „das Stierlein“. Sie war auch an der Edition der Werke ihres Mannes bei Klett-Cotta beteiligt. Am 20. Juli 1977 starb Jüngers Bruder Friedrich Georg.
Goethepreis-Verleihung.
Am 17. Mai 1982 entschied das Kuratorium des Frankfurter Goethepreises, Ernst Jünger auszuzeichnen. Vorgeschlagen wurde er vom Kuratoriumsmitglied Rudolf Hirsch, einem jüdischen Schriftsteller, der 1933 aus Deutschland emigriert war.
Gegen diese Entscheidung erhob als einer der Ersten der CDU-Landtagsabgeordnete Horst Geipel in der FAZ Vorwürfe. Für eine solche Ehrung komme Jünger nicht in Frage, da er mit seinem Drogenbuch den „Fixern“ und „Haschern“ das Wort geredet habe. Auch die Opposition im Frankfurter Stadtparlament, bestehend aus SPD und Grünen, protestierte dagegen. Die Grünen: „Uns ist es relativ gleichgültig, ob Ernst Jünger ein guter oder schlechter Schriftsteller ist. Er war unbestritten ein ideologischer Wegbereiter des Faschismus und ein Träger des Nationalsozialismus von Kopf bis Fuß. Ein Kriegsverherrlicher und erklärter Feind der Demokratie. Er war und ist ein durch und durch unmoralischer Mensch.“ Die SPD stellte sich ebenfalls gegen die Verleihung. Jünger sei „geradezu präfaschistisch“ und passe nicht zur „humanistischen Tradition“ des Goethepreises.
Zur Verleihung am 28. August 1982 in der Frankfurter Paulskirche, dem Symbolort deutscher Demokratie, zeigte die Polizei starke Präsenz. In der Paulskirche selbst fehlte fast die gesamte politische Prominenz. Jünger musste durch ein Spalier protestierender Gegner schreiten. Auf Spruchbändern und Flugblättern wurden Jünger Sätze aus Frühwerken entgegengehalten, wie etwa: „Ich hasse die Demokratie wie die Pest.“ In seiner Rede anlässlich der Preisverleihung zeigte er sich verständnislos gegenüber der Kritik.
Spätere Jahre und Tod.
Ernst Jünger reiste und schrieb bis kurz vor seinem Tod. Einige Reisen zwischen 1929 und 1964 wurden in Jüngers elf Reisetagebüchern literarisch festgehalten. Die Kriminalgeschichte "Eine gefährliche Begegnung" erschien 1985. 1986 reiste er nach Kuala Lumpur, um zum zweiten Mal in seinem Leben den Halleyschen Kometen zu sehen. Darüber berichtet er im Tagebuch "Zwei Mal Halley," das zugleich einen Teil seines diaristischen Hauptwerks "Siebzig verweht" bildet. Jünger begann dieses Alterstagebuch nach seinem 70. Geburtstag (1965) und führte es bis zum Frühjahr 1996 fort.
Am 20. Juli 1993 besuchten der damalige französische Staatspräsident François Mitterrand und der damalige deutsche Bundeskanzler Helmut Kohl Jünger im Stauffenbergschen Forsthaus in Wilflingen. Am 26. September 1996 konvertierte Jünger zum römisch-katholischen Glauben. Erst nachdem er 1998 im Alter von 102 Jahren im Krankenhaus von Riedlingen gestorben war, wurde seine Konversion bekannt. An der Beerdigung Jüngers nahmen 2.000 Menschen teil, darunter Erwin Teufel, Ministerpräsident von Baden-Württemberg, ein Vertreter der Bundesregierung in Bonn und fünf Generäle der Bundeswehr.
In Gedenken an Ernst Jünger fertigte der Aachener Bildhauer Wolf Ritz eine Büste an, die anfangs in Wilflingen aufgestellt wurde, aber mittlerweile vom Deutschen Literaturarchiv Marbach übernommen wurde.
Orden und Ehrungen.
Aus Anlass des 90. Geburtstages Ernst Jüngers stiftete das Land Baden-Württemberg mit dem Einverständnis des Schriftstellers 1985 den "Ernst-Jünger-Preis für Entomologie." Damit werden seit 1986 in dreijährigem Turnus Wissenschaftler ausgezeichnet, die mit herausragenden Arbeiten auf dem Gebiet der Insektenkunde hervorgetreten sind. Ernst Jünger war der letzte lebende Träger des Pour le Mérite in der militärischen Klasse und damit auch der letzte Bezieher eines Ehrensolds gem. § 11 des Gesetzes über Titel, Orden und Ehrenzeichen aus dem Jahr 1957.
Rezeption.
Verschiedene Autoren, wie der Jünger-Biograph Helmuth Kiesel oder der Politikwissenschaftler Sven-Olaf Berggötz, beschreiben Ernst Jünger als den „umstrittensten deutschen Schriftsteller des 20. Jahrhunderts“. Zeitgenossen warfen ihm bereits während der Zeit des Nationalsozialismus vor, als intellektueller Wegbereiter des Nationalsozialismus gewirkt zu haben. Das setzte sich in der Nachkriegszeit fort, bis ab Ende der 1970er Jahre, bedingt durch die Arbeiten von Karl Heinz Bohrer, seine Schriften auch aufgrund ihrer ästhetischen Qualität betrachtet wurden.
Verhältnis zum Nationalsozialismus.
Gemäß Armin Kerker galt Ernst Jünger vielen seiner Zeitgenossen der 1920er und 1930er Jahre als „radikalisierter“, ansonsten als nationalsozialistischer oder „dem Nationalsozialismus gleichgestimmter“ Schriftsteller. So rechnete ihn Ernst Günther Gründel 1932 zum „orthodoxen Flügel der NSDAP“ und hielt ihn gemeinsam mit Niekisch, Schauwecker, Albrecht Erich Günther und Gregor Strasser für einen „Nationalkommunisten“. Ernst Niekisch warf ihm nach dem Krieg 1958 vor, in die „Innerlichkeit“ ausgewichen zu sein, als es um die Frage der Zugehörigkeit zur „bolschewistischen oder faschistischen Front“ gegangen sei. Arnolt Bronnen, so Kerker, der in dieser Frage auf der faschistischen Seite stand und gegen die Opposition des Jünger-Kreises gegen das Regime war, gab zu bedenken, der „Katechismus“ dieses Kreises habe „in einer an Nietzsche und George geschulten Form bereits die ganze Ideologie des Nationalsozialismus von Hitler bis Goebbels und Rosenberg“ enthalten. Bronnen gab nach dem Krieg zu, seine Verehrung für Jünger sei der Grund für seine Hinwendung zur kommenden nationalsozialistischen Bewegung gewesen.
In einer germanistischen Nachkriegsdebatte über Jüngers "Der Arbeiter" wurde dem Buch „eine starke Affinität zum Faschismus und Nationalsozialismus“ attestiert. Die Etikettierungen lauteten etwa „faschistisches Modernitätskonzept“ (Uwe-K. Ketelsen) oder „Verfassung des Nationalsozialismus“ (Fritz J. Raddatz). Jüngers Biograf Helmuth Kiesel bestritt nicht das totalitäre Konzept von "Der Arbeiter", aus dem sich die Nationalsozialisten bedienen konnten. Jünger selbst räumte in seinen rückblickenden Ausführungen über Hitler ein, dass dieser „‚vermutlich über Dritte einige Formulierungen‘ aus dem "Arbeiter" und der "Totalen Mobilmachung" in ‚den Schatz seiner Schlagworte‘ übernommen habe“. Gleichzeitig wies Jünger auch darauf hin, dass im "Völkischen Beobachter" eine unfreundliche Besprechung erschienen sei. Für Kiesel stellte diese Buchbesprechung von Thilo von Trotha im "Völkischen Beobachter" vom 22. Oktober 1932 eine „schroffe Ablehnung“ aufgrund „ideologischen Differenzen“ dar. Er übernahm nicht die Jahre zuvor geäußerte Auffassung von Rolf-R. Henrich, dass "Der Arbeiter" für die Nationalsozialisten allein deshalb ein skandalöses Buch gewesen sei, weil Jünger darin „die Grundfrage alles Daseins […], das Problem von Blut und Boden“ negiert habe. Ernst Jünger, so drohte von Trotha in dieser Rezension, nähere sich mit seinem literarischen Schaffen damit der „Zone der Kopfschüsse“. Zu dieser Episode gab Kiesel als weitere ideologische Differenz zu von Trotha an, dass Jünger keinen biologischen Rassebegriff habe.
Bereits während der nationalsozialistischen Diktatur sahen 1934 Golo Mann, 1938 Siegfried Marck und Hermann Rauschning und 1941 Karl Löwith in Jünger einen Wegbereiter der deutschen Katastrophe. Im "Volksbrockhaus" 1941 ist zu lesen: „Jünger, Ernst, pol. Schriftsteller und Dichter, geb. 1895, stellte in seinen Werken, bes. seinen Kriegsbüchern (‚In Stahlgewittern‘), den nationalistischen und heldischen Gedanken dem bürgerlichen Geist entgegen“.
Die Rezeption Jüngers nach dem Zweiten Weltkrieg ist durch die Tatsache geprägt, dass er für viele als geistiger Wegbereiter des NS-Faschismus und so als desavouiert galt. Nach dem Krieg wurden zahlreiche Bücher Jüngers indiziert, so dass seine schriftstellerische Existenz auf dem Spiel stand. Da er selbst nicht schreiben durfte, bestand seine Strategie zur Umgehung alliierter Indizierung darin, zu indirekten Formen der Selbstverteidigung überzugehen, auch als Verteidigung gegen die in der literarischen Öffentlichkeit mehrheitlich vertretene Auffassung, ein „Wegbereiter des Faschismus“ gewesen zu sein. Dafür nutzte er zunächst das Mittel der Korrespondenz, um in einer „nicht-öffentlichen Form der Netzwerkbildung“ eine „klandestine Gegenöffentlichkeit“ in eigener Sache zu organisieren. Hinzu kamen gezielte Reisen und eine „publikationstechnische Umgehungsstrategie“ über das Ausland, die er mit Hilfe seiner Reiseberichte realisierte. Diese Reisen und die Reiseberichteditionen der Nachkriegszeit, so Jan Robert Weber, wurden zu einem wichtigen Teil von Jüngers Krisenbewältigungsstrategie der Jahre 1945 bis 1949.
Die Debatten um den Stellenwert Jüngers wurden öffentlich geführt. So beispielsweise in einer Radiosendung „Am Runden Tisch“ des Nordwestdeutschen Rundfunks im September 1946, wo die Diskussionsteilnehmer Axel Eggebrecht, Walther von Hollander, Herbert Blank und Peter von Zahn in zwei Punkten Konsens zeigten: dass Jünger grundsätzlich kein Kriegsgegner gewesen sei, da er den Krieg vielmehr bejaht und gefördert habe, und dass man den Schriftsteller nicht verbieten sollte. Ansonsten gingen die Beurteilungen weit auseinander. Eggebrecht erklärte Jünger zu einem Wegbereiter des Nationalsozialismus; bis zu einem gewissen Zeitpunkt sei er dies möglicherweise sogar bewusst gewesen, aus einer „ästhetische[n] Freude an den gewaltsamen Kräften der Zerstörung“. Er sah in dem Schriftsteller einen „unbewußten Vor-Nazi“, von „einer inneren Wandlung könne nicht die Rede sein“. Hollander, Blank und Zahn hielten Jünger hingegen nicht für einen Anhänger der nationalsozialistischen Politik, wobei Hollander und Blank ihn sogar als einen „Gegner des Nationalsozialismus“ bezeichneten. Diese Sendung war nicht die einzige. So strahlte das WDR-Nachtprogramm 1948 eine Sendung über Jüngers Friedensschrift aus, mit Beiträgen von Frank Thiess, Manfred Michler und Gottfried Stein. Für Stein stellte Jünger sich „jederzeit in Wort und Haltung gegen den Hitlerismus“. Jünger habe als einziger Kriegsbuchautor den Sinn des Krieges „ergründen und dienen“ wollen. Auch für Michler war er ein Gegner Hitlers. Nach dem fehlgeschlagenen Hitler-Attentat entging Jünger, behauptete Michler, „wie durch ein Wunder der Verhaftung, er wird jedoch aus dem Wehrdienst entlassen“. Jünger habe aber dem Krieg, so Thiess, „einen bestimmten Sinn innegelegt“. In einer anderen Debatte nahm Heinz-Joachim Heydorn eine „vermittelnde Stellung“ ein: Auch er sah in Jünger einen – wenn auch im Wesentlichen unbewussten – Vorläufer des Nationalsozialismus, auch er glaubte nicht an seine innere Wendung, lehnte die Friedensschrift ab, erwartete „aber doch noch wichtige Arbeiten für die Zukunft von Jünger“.
In einer Untersuchung zur Autobiographik in den ehemaligen Westzonen stellte Helmut Peitsch fest, dass 1946 in nahezu allen kulturpolitischen Zeitschriften Beiträge zum Fall Jünger veröffentlicht wurden. Peitsch unterschied grob zwei Tendenzen: zum einen Zeitschriften wie das „liberale Exil und kommunistische Widerstandskämpfer“, die Jünger als Wegbereiter des Faschismus kritisierten, zum anderen alle anderen Zeitschriften, die eine auf Jünger gerichtete, von Peitsch nicht näher erläuterte „Hoffnung“ artikulierten. Auf Vorwürfe, die ihm eine Mitschuld an den Verbrechen des „Dritten Reiches“ gaben, reagierte Jünger 1949 in seiner Publikation "Strahlungen" mit der Feststellung: „Nach dem Erdbeben schlägt man auf die Seismographen ein. Man kann jedoch die Barometer nicht für die Taifune büßen lassen, wenn man nicht zu den Primitiven zählen will.“
In der Sowjetischen Besatzungszone wurde ebenfalls eine Debatte um den Stellenwert Jüngers geführt. Wohlwollende Stimmen waren in der Minderheit. Im Mai 1946 etwa engagierte sich Karl Korn nach polemischen Vorwürfen von Wolfgang Harich während einer öffentlichen (und von Niekisch moderierten) Diskussion vehement „mit einer lebhaften Apologie“ für Jünger. In Jünger könne man eine exemplarische „Gestalt des Übergangs“ erblicken, dessen „authentischen Rufen“ nach dem „verlorenen Heil“ eine sittliche Selbsterneuerung Deutschlands jenseits der Vorgaben von Ost und West abzugewinnen sei. Für Marcus M. Payk war Korns Apologetik „eminenter intellektueller Resonanzboden“, welche den Selbststilisierungen rechtsintellektueller Zirkel in den Nachkriegsjahren folgte, die kaum eine Beteiligung an der Diskreditierung der Weimarer Demokratie zugeben konnten. Korn sekundierte Jüngers Rechtfertigungslehren bereitwillig, weil er sich damit identifizieren konnte.
Die moralische – nicht ästhetische – Problematik von Jüngers Kriegstagebüchern sei, so Martin Konitzer in seiner Jünger-Biografie, von Hannah Arendt am treffendsten beschrieben worden:
Karl Prümm ging 1974 der Frage nach, welche Bedeutung Jünger in der ersten Nachkriegszeit für ein Lesepublikum gehabt haben könnte, das sich nicht in der Presse artikulierte, und zitierte hierfür Hans-Peter Schwarz, der dies in folgenden Stichworten zusammenfasste: „Der politisch-metaphysische Ordnungswille des Konservativen und das Ruhebedürfnis des kultivierten Gebildeten“. Ein weiteres Stichwort, so Prümm, formulierte Wilhelm Grenzmann mit „Überwindung des Nihilismus“. Wichtiger noch sei, so Grenzmann, dass Jünger als „ein Verkünder auch unserer Irrtümer, ja, unserer Verhängnisse“ gelten konnte. Hierzu kommentierte Prümm:
Damit, so urteilte Helmut Peitsch, verkörpere Jünger das, was als Literaturfunktion programmiert wäre: „den von der Katastrophe zur Katharsis bewegten Deutschen“. Diesen in den Literaturverhältnissen liegenden Wirkungsbedingungen habe seine „Selbstinszenierung“ „optimal“ entsprochen.
Für Hans-Peter Schwarz hat Jünger von Beginn seiner publizistischen Wirksamkeit 1925 bis in die dreißiger Jahre hinein „die kriegerische, nationale und sozialistische Diktatur nicht allein prophezeit, sondern auch postuliert“.
Bezogen auf eine Arbeit des Jünger-Kritikers Helmut Kaiser von 1962 bekräftigte Wolfgang Brekle, dass Jünger ein Schrittmacher des Nationalsozialismus insofern gewesen sei, als durch seine Schriften "Die totale Mobilmachung" (1931), "Der Arbeiter" (1932) und andere die Entwicklung zur Diktatur „von ihm als metaphysische Richtung seiner Zeit gerechtfertigt“ worden sei. Er habe mit seinen Veröffentlichungen „Wirklichkeit und Ideen der bürgerlichen Demokratie und des Sozialismus attackiert“ und durch die Kriegsbücher „Ideen des Militarismus und Revanchismus verbreitet“. Thomas Manns Urteile, Jünger sei ein „geistiger Wegbereiter und eiskalter Wollüstling der Barbarei“ bzw. „ein Wegbereiter und eiskalter Genüssling des Barbarismus“, fielen in einer privaten Korrespondenz von 1945, von der ein Teil mit der Publikation seiner Briefe 1963 bekannt wurde. Das Verdikt Manns wurde als „autoritativ beglaubigtes Wort ein Topos in der Streitgeschichte der 1960er, 1970er und 1980er Jahre“. Nach Ansicht von Lothar Bluhm war in quellenkritischer Hinsicht die Validität dieses Urteils – und damit auch die Bezugnahme darauf – problematisch, da Manns apodiktische Einschätzung sich nicht auf eigene Jünger-Lektüre, sondern auf Hörensagen und Second-hand-Wissen aus dem Familien- und Freundeskreis gestützt habe.
In den 1970er Jahren kam eine primär ästhetische Jünger-Interpretation auf, welche das 1928 veröffentlichte Buch "Das abenteuerliche Herz" in den Kontext der europäischen Avantgarde, und hier insbesondere des Surrealismus rückte. Hierbei wurde die „Literarisierung“ des Autors als Abwendung von der Politik interpretiert. In den anderthalb Jahren, in denen Jünger dieses Buch schrieb, fand der Nationalsozialismus keinerlei Erwähnung in seiner Publizistik.
Die Verleihung des Goethepreises 1982 bot dann den unmittelbaren Anlass sowohl für heftige Kontroversen als auch für einen Aufschwung in der Jünger-Forschung. In Robert Wistrichs Perspektive ließ der „halb romantische, halb technokratische Nationalismus“ Jünger als „einen Protagonisten und intellektuellen Wegbereiter des Nationalsozialismus“ erscheinen. Rolf Hochhuth verteidigte Jünger apologetisch, dass die Handlungsweise eines Menschen nicht ablösbar sei „von der Epoche, die seine Sicht, sein Denken und Tun bestimmte“. Kritik am Parlamentarismus habe Jünger zu Zeiten geübt, als die Weimarer Republik obenauf war, was „moralisch gerechtfertigt, ja notwendig“ gewesen sei.<ref name="Reimann/Hassel">Bruno W. Reimann, Renate Hassel: "Ein Ernst Jünger-Brevier. Jüngers politische Publizistik 1920 bis 1933." BdWi-Verlag, 1995, S. 49.</ref> Das Autorenpaar Reimann/Hassel kommentierte diese Aussage folgendermaßen: „Entweder schreibt Hochhuth völlig uninformiert bzw. ignorant, indem er solche Texte nicht zur Kenntnis nehmen möchte, oder er stellt sich selbst, wenn er solche rechtsradikalen Agitationen für ‚moralisch gerechtfertigt‘ und ‚notwendig‘ hält, in den Dunstkreis dessen, was er da verteidigt.“ Peter Longerich bezeichnet die Schriften "Die totale Mobilmachung" und "Der Arbeiter" als „wichtige Zeugnisse des Präfaschismus“.
Karlheinz Hasselbach beschrieb 1995 die vorangegangenen Debatten um Jünger. So sei nicht nur der frühe Jünger als Protofaschist abgestempelt und sein Œuvre als „fascist modernism“ (Russell Berman) abgetan worden, sondern auch Thomas Mann im Jubiläumsjahr 1975 wegen seiner „Großbürgerlichkeit“ zum Kryptofaschisten erklärt worden. Dazu gehörte auch die negativen Bewertung Jüngers durch die "New German Critique" 1993. Im Unterschied hierzu meinte im gleichen Jahr Martin Konitzer, dass Jünger „die deutschen Widersprüchlichkeiten dieses Jahrhunderts exemplarisch zu integrieren vermochte“, und führte Belegstellen aus dem "Arbeiter" auf, die nach seiner Auffassung zeigten, „wie anfällig der Text in der Tat für eine faschistische Leseart ist“. Rudolf Augstein räumte 1993 zwar ein, Jünger sei ebenso wie Carl Schmitt „zweifellos“ ein „Wegbereiter der Diktatur“ gewesen. „Aber wir glauben zu wissen, daß alle geistig hochstehenden Wegbereiter zusammen nicht ausgereicht hätten, Hitler den Weg zu ebnen oder zu versperren.“
In ihrem vielbeachteten "Jünger-Brevier" schrieb das Autorenpaar Bruno W. Reimann und Renate Hassel zum Thema „Wegbereiter“, auch wenn „kein einzelner Akteur und Autor in einem strikt linearen Sinne verantwortlich“ sei, so hätten „doch alle, welche die nationalen und rechtsradikalen Gebetsmühlen“ gedreht hätten, hierzu beigetragen – wenn auch in unterschiedlichem Ausmaß. Die Art seines Schreibens, wie etwa seine Fähigkeit zu dichten und atmosphärischen Schilderungen, hätten Jünger weit aus der Masse der „bramarbasierenden Schriftsteller des Nationalen heraus[gehoben]“. Seine vehement vorgetragene Ideologie eines „neuen Nationalismus“ sei weder kompliziert noch variationsreich, aber gerade deswegen so wirkungsvoll gewesen.
1995 entflammte in den Feuilletons deutscher Zeitungen die Debatte erneut. Anlass war Jüngers 100. Geburtstag, der von Jüngerianern mit Festschriften zelebriert wurde. Claudia Gerhards fasste hierzu verschiedene Stimmen zusammen, so etwa die von Elke Schmitter, die in dem „Tyrannosaurus Jünger“ das Abbild eines „faschistischen“ „Chamäleons“ zu erkennen meinte. Seine frühen Werke befänden sich „im besten Einklang mit den Schlechtesten ihrer Zeit: beladen und wirr, raunend und düster“. Christian Graf von Krockow schrieb: „er hat es nicht verdient, daß wir beschwichtigend daherreden“, denn schließlich „gehörte er zu den Schreibtischtätern des Unheils“. Ralph Giordano hätte gerne Jüngers „Wort zu Auschwitz“ gehört; Jürgen Busche schrieb, aus dem Frühwerk Jüngers dringe nur „raunendes Schleichen ums Geheimnis, schlichter Unsinn oder Metaphysik im Oberton“.
Jörg Sader kritisierte Textinterpretationen als unzulänglich, die Jüngers Biografie erklärend in den Mittelpunkt rückten oder sich von der Wirkung oder Rezeption seines Werkes bestimmen ließen. Als Beispiel nannte er die Position, den Vorwurf „ideologischer Vorläufer“ unter Verweis auf die widersprüchliche bzw. ablehnende Bewertung durch die NS-Kritik abzutun.
Der US-amerikanische Historiker Elliot Neaman befand, dass die Bezeichnung „Wegbereiter des Nationalsozialismus“ angesichts der „komplizierten Rezeptionsgeschichte“ Jüngers als „ungenau und oberflächlich“ anzusehen sei. Die "Enzyklopädie des Nationalsozialismus" führt ihn als „Wegbereiter des Nationalsozialismus“ auf. Auch in der angelsächsischen "World Fascism. A Historical Encyclopedia" wird Jünger als Schriftsteller beschrieben, der durch seine elitäre, antidemokratische und nationalistische Rhetorik dazu beigetragen habe, ein günstiges Umfeld für den Aufstieg des Nationalsozialismus zu schaffen. Daniel Morat fokussierte auf das zentrale Thema der Kontroversen um Jünger die Frage nach seiner Wandlung. Während selbst die Verteidiger Jüngers in der Regel nicht bestritten, dass Jünger ein militanter Nationalist und Wegbereiter des Nationalsozialismus gewesen sei, jedoch seine oppositionelle Haltung während des Dritten Reiches betonten, hielten die Kritiker diese Wandlung für unglaubwürdig und vordergründig.
Der Historiker Hans-Ulrich Wehler hob hervor, dass Jüngers elitärer Dünkel wie auch seine Skepsis gegenüber der Persönlichkeit Hitlers ihn von einem „öffentlichen Anschluss“ abhielten, trotz seiner Sympathie für den Nationalsozialismus: „Eine Figur wie Jünger brauchte auch gar nicht der NSDAP anzugehören, um als einer der intellektuellen Totengräber der Republik, gefeiert von einer riesigen Lesergemeinde, zu wirken“. Für den niederländischen Germanisten Jan Ipema bezog sich Jüngers Anerkennung für Hitler und dessen Bewegung auf Hitlers erfolgreiches Agieren gegen die Bestimmungen des Vertrages von Versailles und nicht so sehr auf den Nationalsozialismus als „Lehre“.
Helmuth Kiesel referierte, dass Jünger selbst expressis verbis zugegeben habe, zum Faschismus zu tendieren („der allerdings vom Nationalsozialismus zu unterscheiden sei“). Angesichts seiner nationalistischen und antirepublikanischen Publizistik könne man nicht widersprechen, wenn man Jünger zu den „Totengräbern“ der Weimarer Republik und den „Pionieren“ des Dritten Reiches zähle. Andererseits sollte man seine Bedeutung für den Untergang der Weimarer Republik und den Aufstieg des Nationalsozialismus nicht überschätzen. Die gleichen Punkte führte Lutz Unterseher auf, der feststellte: „In der Tat darf Jünger in einem allerdings sehr weiten Sinne als einer der intellektuellen Wegbereiter des Nationalsozialismus gelten.“
Literaturkritik.
Jünger faszinierte seine Leser und Schriftstellerkollegen bereits zu Lebzeiten, polarisierte dabei aber auch. Einer der Leser der "Stahlgewitter", André Gide, schrieb am 1. Dezember 1942 in sein Tagebuch: „unbestreitbar das schönste Kriegsbuch, das ich gelesen habe“. Bertolt Brecht dagegen sprach Jünger kurz nach dem Zweiten Weltkrieg jeden literarischen Rang ab: „Da er selbst nicht mehr jung ist, würde ich ihn einen Jugendschriftsteller nennen, aber vielleicht sollte man ihn überhaupt nicht einen Schriftsteller nennen, sondern sagen: Er wurde beim Schreiben gesehen.“ Laut Kiesel zählte Alfred Döblin neben sich und Brecht auch Jünger zu der antibürgerlichen und antiliberalen geistesrevolutionären Strömung innerhalb der deutschen Literatur. Auch wenn Thomas Mann den schriftstellerischen Rang Jüngers nicht angriff, urteilte er 1945 in privaten Briefen über ihn, er sei „ein Wegbereiter und eiskalter Genüssling des Barbarismus“ gewesen, der leider „ein viel zu gutes Deutsch schrieb für Hitler-Deutschland“. Alfred Andersch, Bewunderer von Jünger, nannte ihn ohne Umschweife „den letzten aus der großen Reihe Thomas Mann, Franz Kafka, Gottfried Benn und Bertolt Brecht“. Autoren wie Heiner Müller, Rolf Hochhuth oder Bruce Chatwin suchten die Verbindung mit dem alten Jünger.
International sind Jüngers Schriften weit verbreitet; ihre Rezeption ist, im Gegensatz zur Situation in Deutschland, weniger auf die politische Publizistik Jüngers fixiert. Bereits seine frühen Schriften wurden in zahlreiche Sprachen übersetzt. Kritisiert wurde an Jüngers Schriften schon früh die Verherrlichung von Gewalt und seine Idealisierung von Männlichkeit in Form des „Kriegers“. Später wurde das Werk Jüngers meist aus einer ästhetischen Perspektive rezipiert, wobei die brisanten politischen Implikationen ausgeblendet wurden. Während im nationalsozialistischen Deutschland "Auf den Marmorklippen" auch als leicht entschlüsselbare Kritik am NS-Regime gelesen wurde, sah man Jüngers Texte aus der Nachkriegszeit als politisch weniger relevant an.
Einen Markstein der wissenschaftlichen Rezeption bildete diesbezüglich Karl Heinz Bohrers Studie von 1978 "Ästhetik des Schreckens", die die Verflechtung von Jüngers Texten mit der europäischen und US-amerikanischen Avantgarde zeigt. Im Gefolge dieser Forschungsöffnung fand Jünger – neben Walter Benjamin, Siegfried Kracauer und anderen – als Klassiker der modernen Medientheorie Beachtung. Hieran schlossen im Zuge der poststrukturalistischen Theoriebildung in Frankreich beispielsweise Virilio und Baudrillard an. Im deutschsprachigen Raum tritt hingegen seine ästhetische Beurteilung als Stilist meist hinter die politische zurück.
Laut Claudia Gerhards ist die Jünger-Forschung – nicht zuletzt angeregt durch die formalästhetische Analyse Bohrers – erst nach 1978 aus literaturwissenschaftlicher Sicht ergiebiger geworden, weil diese die literarischen Dimensionen von Jüngers Werk stärker thematisieren. Zuvor sei diese überwiegend von politischer Sekundärliteratur beherrscht worden mit einer Prädominanz ideologiekritischer, aber auch altkonservativ-apologetischer Fragestellungen. Als Bewertungsschema diente stets die Vorstellung Jüngers als „präfaschistischer“ Autor. Daraus schließt Gerhards, dass die frühe Jünger-Forschung das Risiko vermeiden wollte, einen als „Wegbereiter des Faschismus“ verfemten Autor indirekt dadurch zu rehabilitieren, dass sie ihm literarische Qualitäten zusprach.
In Frankreich erschienen 2008 Jüngers Kriegstagebücher in der Prestigereihe „Bibliothèque de la Pléiade“ bei Gallimard. Der Schriftsteller Georges-Arthur Goldschmidt sah darin eine Ästhetisierung des politisch umstrittenen Autors und reagierte, so Julia Encke in der Frankfurter Allgemeinen Zeitung, mit „wütender Polemik“: „Dass, so behauptete Goldschmidt in der "Frankfurter Rundschau"‚ dieser doch ein wenig faschistoide, großtuerische Mystagoge‘ nun unter den schönen Geistern des französischen Literaturhimmels platziert werde, sei das Allerletzte, die Publikation ein klares Zeichen dafür, dass in der ‚Pléiade‘ die deutsche Emigration und der Widerstand in den Hintergrund verschoben würden. Es gehe, wenn auch unbewusst, um ‚eine regelrechte Rehabilitierung der deutschen Okkupation Frankreichs‘, um eine ‚Eloge der Kollaboration‘“. Die deutschsprachige Literaturkritik ist ebenfalls in ihrer Bewertung ambivalent. Jünger hatte Bewunderer wie seinen Freund Friedrich Sieburg und zahlreiche Kritiker wie etwa Gottfried Benn oder Thomas Mann. Marcel Reich-Ranicki äußerte 2011 in der "Welt": „Einen bedeutenden Roman von Jünger sehe ich nicht. Ich glaube, dass er seine Wirkung vor allem seiner Persönlichkeit zu verdanken hatte, nicht seiner Prosa. Thomas Mann hat ihn 1945 unübertrefflich charakterisiert […] Jüngers Werk ist mir fremd.“ Andererseits beurteilten andere Kritiker wie Denis Scheck Jünger positiver.
Wenig diskutiert wird seine oft unkonventionelle Themenwahl (in "Heliopolis" kommen Weltraumfahrt und eine Art von Mobiltelefon vor (der Phonophor), "Gläserne Bienen" beschreibt nanotechnisch betriebene Roboter). Hinzu kommen seine wissenschaftlichen Beiträge zur Insektenkunde. Zeit seines Lebens beschäftigte sich Jünger auch mit dem Thema Drogen, auch durch eigene Drogenerfahrungen u. a. mit Opium, Mescalin, Kokain und LSD, die er intensiv in seinem 1970 erschienenen Buch "Annäherungen. Drogen und Rausch" beschreibt und auch in seinen Notiz- und Tagebüchern immer wieder erwähnt. In literarischer Form verarbeitet Jünger Drogenerfahrungen z. B. in "Strahlungen" (1949), "Heliopolis" (1949) und "Besuch auf Godenholm" (1952). Zumeist nahm Jünger Drogen in gesellschaftlichen Runden ein und verwendete Dosierungen, die zu starke Räusche verhinderten. Im Jahr 2013 widmete das Literaturmuseum der Moderne dem langjährigen Briefwechsel Jüngers mit Albert Hofmann, dem Entdecker des LSD, eine umfassende Ausstellung.
Die "Ernst und Friedrich Georg Jünger Gesellschaft" bündelt die Forschung und veranstaltet jedes Jahr am Wochenende vor Ostern ein Symposium zum Werk der Brüder Jünger.
Nachlass.
Ein Teil des Nachlasses von Ernst Jünger befindet sich im Deutschen Literaturarchiv in Marbach am Neckar. Zahlreiche Blätter weisen mittlerweile Schädigungen auf, die durch Selbstklebebänder entstanden sind.
Die Katalogisierung der umfangreichen Privatbibliothek Ernst Jüngers wurde im Juli 2018 abgeschlossen. Dabei handelt es sich um über 10.000 Bände, die im Jünger-Haus Wilflingen stehen, und 4.600 Bände, die im Deutschen Literaturarchiv Marbach verwahrt werden. Zudem wurden mehr als 60 Kästen mit Pressematerialien nebst Bild- und Tonträgern aus Jüngers Besitz erschlossen.
Das Archiv zeigte im Jahre 2010 die Ausstellung "Ernst Jünger. Am Abgrund" mit zahlreichen Exponaten aus seinen Lebensabschnitten. Einzelne Exponate aus Jüngers Nachlass sind Teil der Dauerausstellung im Literaturmuseum der Moderne in Marbach, beispielsweise sein Kriegstagebuch, aus dem später "In Stahlgewittern" entstand, und sein Kalender.
Sonstiges.
Die Deutsche Post widmete Ernst Jünger 1998 aus Anlass seines Todes eine Sonderbriefmarke mit seinem Porträt.
Eine neu entdeckte südeuropäische Habichtskraut-Art erhielt 2016 zu Ehren Ernst Jüngers den botanischen Namen "Hieracium juengeri".
Werke.
Erstveröffentlichungen.
Romane
Erzählungen
Tagebücher
Essays
Werkausgabe.
Eine erste Werkausgabe in 10 Bänden erschien 1960 bis 1965 bei Klett-Cotta. Ab 1978 erschien dann die Ausgabe der "Sämtlichen Werke" in 18 Bänden mit 4 Supplementbänden ebenfalls bei Klett-Cotta. Diese Ausgabe wurde 2015 als Taschenbuch und E-Book neu aufgelegt. Inhalt der Edition:
Supplement-Bände
Literatur.
Bibliografische Hilfsmittel und Register
Primärliteratur
Sekundärliteratur
Weblinks.
Biographisches
Über Jünger |
1316 | 3729235 | https://de.wikipedia.org/wiki?curid=1316 | Erdbeben | Als Erdbeben werden messbare Erschütterungen des Erdkörpers bezeichnet. Sie entstehen durch Masseverschiebungen, zumeist als tektonische Beben infolge von Verschiebungen der tektonischen Platten an Bruchfugen der Lithosphäre, in weniger bedeutendem Maße auch durch vulkanische Aktivität, Einsturz oder Absenkung unterirdischer Hohlräume, große Erdrutsche und Bergstürze sowie durch Sprengungen. Erdbeben, deren Herd unter dem Meeresboden liegt, werden auch Seebeben oder unterseeische Erdbeben genannt. Diese unterscheiden sich von anderen Beben zum Teil in den Auswirkungen wie zum Beispiel der Entstehung eines Tsunamis, jedoch nicht in ihrer Entstehung.
Erdbeben bestehen in aller Regel nicht aus einer einzelnen Erschütterung, sondern ziehen meist weitere nach sich. Man spricht in diesem Zusammenhang von Vorbeben und Nachbeben mit Bezug auf ein stärkeres Hauptbeben. Treten Erdbeben über einen längeren, begrenzten Zeitraum gehäuft auf, so spricht man von einem "Erdbebenschwarm" oder "Schwarmbeben". Solche treten vor allem in vulkanisch aktiven Regionen auf. In Deutschland gibt es gelegentlich Erdbebenschwärme im Vogtland und am Hochstaufen.
Der deutlich größte Anteil aufgezeichneter Erdbeben ist zu schwach, um von Menschen wahrgenommen zu werden. Starke Erdbeben können Bauten vernichten, Tsunamis, Lawinen, Steinschläge, Bergstürze und Erdrutsche auslösen und dabei Menschen töten. Sie können die Gestalt der Erdoberfläche verändern und zählen zu den Naturkatastrophen. Die Wissenschaft, die sich mit Erdbeben befasst, heißt Seismologie.
Die zehn stärksten seit 1900 gemessenen Erdbeben fanden mit einer Ausnahme alle an der Subduktionszone rund um den Pazifik, dem sogenannten Pazifischen Feuerring, statt (s. Liste unten).
Laut einer Analyse von mehr als 35.000 Naturkatastrophen-Ereignissen durch das Karlsruher Institut für Technologie (KIT) kamen von 1900 bis 2015 weltweit insgesamt 2,23 Millionen Menschen durch Erdbeben ums Leben.
Historisches.
Schon in der Antike fragten sich Menschen, wie Erdbeben und Vulkanausbrüche entstehen.
Man schrieb diese Ereignisse häufig Göttern zu (in der griechischen Mythologie dem Poseidon). Manche Wissenschaftler im alten Griechenland glaubten, die Kontinente schwämmen auf dem Wasser und schaukelten wie ein Schiff hin und her. Andere Leute glaubten, Erdbeben brächen aus Höhlen aus. In Japan gab es den Mythos des Drachen, der den Erdboden erzittern ließ und Feuer spie, wenn er wütend war. Im europäischen Mittelalter schrieb man Naturkatastrophen dem Wirken Gottes zu. Mit der Entdeckung und Erforschung des Magnetismus entstand die Theorie, man könne Erdbeben wie Blitze ableiten. Man empfahl daher Erdbebenableiter nach Art der ersten Blitzableiter.
Erst Anfang des 20. Jahrhunderts kam die heute allgemein anerkannte Theorie von der Plattentektonik und der Kontinentaldrift durch Alfred Wegener auf. Ab der Mitte des 20. Jahrhunderts wurden die Erklärungsmuster der tektonischen Beben verbreitet diskutiert. Bis zum Beginn des 21. Jahrhunderts konnte man daraus allerdings keine Technik zur sicheren Vorhersage von Erdbeben entwickeln.
Messung, Erforschung, Ursachen und Folgen von Erdbeben.
Dynamische Prozesse im Erdinneren.
Erdbeben entstehen vor allem durch dynamische Prozesse im Erdinneren. Eine Folge dieser Prozesse ist die Plattentektonik, also die Bewegung der Lithosphärenplatten, die von der oberflächlichen Erdkruste bis in den lithosphärischen Mantel reichen.
Besonders an den Plattengrenzen, an denen sich verschiedene Platten auseinander („Spreizungszone“), aufeinander zu („Subduktions-“ bzw. „Kollisionszone“) oder aneinander vorbei („Transformverwerfung“) bewegen, bauen sich mechanische Spannungen innerhalb des Gesteins auf, wenn sich die Platten in ihrer Bewegung verhaken und verkanten. Wird die Scherfestigkeit der Gesteine dann überschritten, entladen sich diese Spannungen durch ruckartige Bewegungen der Erdkruste und es kommt zum tektonischen Beben. Dabei kann mehr als das Hundertfache der Energie einer Wasserstoffbombe freigesetzt werden. Da die aufgebaute Spannung nicht auf die unmittelbare Nähe der Plattengrenze beschränkt ist, kann der Entlastungsbruch in selteneren Fällen auch im Inneren der Platte auftreten, wenn dort das Krustengestein eine Schwächezone aufweist.
Die Temperatur nimmt zum Erdinneren hin stetig zu, weshalb das Gestein mit zunehmender Tiefe immer leichter deformierbar wird und schon in der unteren Erdkruste nicht mehr spröde genug ist, um brechen zu können. Erdbeben haben ihren Ursprung daher meist in der oberen Erdkruste, in wenigen Kilometern Tiefe. Vereinzelt werden jedoch Beben mit Herden bis in 700 km Tiefe nachgewiesen. Solche „Tiefherdbeben“ treten vor allem an Subduktionszonen auf. Dort bewegen sich zwei Platten aufeinander zu, wobei die dichtere der beiden unter jene mit der geringeren Dichte geschoben wird und in den Erdmantel abtaucht. Der abtauchende Teil der Platte (engl. "") erwärmt sich im Mantel jedoch relativ langsam, sodass dessen Krustenmaterial auch noch in größeren Tiefen bruchfähig ist. Die Hypozentren von Erdbeben, die innerhalb eines auftreten, ermöglichen somit Schlüsse auf die Position desselben in der Tiefe („Wadati-Benioff-Zone“). Als Auslöser dieser Tiefherdbeben gilt unter anderem die Volumenänderung des Slab-Gesteins infolge von Mineralumwandlungen unter den im Mantel herrschenden Temperatur- und Druckbedingungen.
Ferner kann aufsteigendes Magma in vulkanischen Zonen – meist eher schwache – Erdbeben verursachen.
Bei unterseeischen Erdbeben, beim Ausbruch ozeanischer Vulkane oder beim Auftreten unterseeischer Erdrutsche können sogenannte Tsunamis entstehen. Bei plötzlicher vertikaler Verlagerung großer Teile des Ozeanbodens entstehen Wellen, die sich mit Geschwindigkeiten von bis zu 800 Kilometern pro Stunde fortbewegen. Auf dem offenen Meer sind Tsunamis kaum wahrnehmbar; läuft die Welle jedoch in flacherem Wasser aus, steilt sich der Wellenberg auf und kann am Ufer in extremen Fällen bis zu 100 Meter Höhe erreichen. Am häufigsten entstehen Tsunamis im Pazifik. Deshalb besitzen die an den Pazifik angrenzenden Staaten ein Frühwarnsystem, das Pacific Tsunami Warning Center. Nachdem am 26. Dezember 2004 etwa 230.000 Menschen nach einem verheerenden Erdbeben im Indischen Ozean starben, wurde auch dort ein Frühwarnsystem errichtet.
Frostbeben.
Sehr flachgründige und nur lokal spürbare Erdbeben können durch Frost ausgelöst werden, wenn größere Mengen Wasser im Boden oder im Gesteinsuntergrund gefrieren und sich dabei ausdehnen. Dadurch entstehen Spannungen, die sich in kleineren Erschütterungen entladen, die dann an der Oberfläche als „Erdbeben“ und grollendes Geräusch wahrgenommen werden. Das Phänomen tritt meist zu Beginn einer strengen Frostperiode auf, wenn die Temperaturen rapide von Werten über dem Gefrierpunkt auf Werte weit unter den Gefrierpunkt gefallen sind.
Erdbeben aufgrund menschlicher Aktivitäten.
Neben natürlich ausgelösten Erdbeben gibt es auch anthropogene, also menschengemachte. Diese "induzierte Seismizität" ist nicht zwangsläufig absichtlich oder wissentlich herbeigeführt, wie z. B. im Fall von aktiver Seismik oder infolge von Atomwaffentests, sondern es sind oft Ereignisse, die als unbeabsichtigte „Nebenwirkungen“ menschlicher Aktivitäten auftreten. Zu diesen Aktivitäten gehören unter anderem die Förderung fossiler Kohlenwasserstoffe (Erdöl und Erdgas), die durch Veränderung des Porendrucks die Spannungsverhältnisse im Gestein der Lagerstätte verändert, oder auch die (versuchte) Nutzung von Erdwärme (→ Geothermie).
Anthropogene Erdbeben finden auch beim Einsturz von bergbaulich verursachten unterirdischen Hohlräumen (Gebirgsschlag) statt. Die Magnitude dieser Erdbeben liegt in den allermeisten Fällen im Bereich von Mikrobeben oder Ultramikrobeben. Nur selten erreicht sie den Wert spürbarer Beben.
Einige der stärksten anthropogenen Erdbeben ereigneten sich infolge des Aufstauens großer Wassermengen in Stauseen durch die Auflasterhöhung im Untergrund in der Nähe großer Verwerfungen. Das Wenchuan-Erdbeben in China im Jahr 2008 (Magnitude 7,9), das rund 90.000 Todesopfer forderte, gilt als Kandidat für das bislang stärkste durch Stauseen ausgelöste Erdbeben weltweit.
Erdbebenwellen.
Erdbeben erzeugen Erdbebenwellen verschiedenen Typs, die sich über und durch die ganze Erde ausbreiten und von Seismographen (bzw. Seismometern) überall auf der Erde in Seismogrammen aufgezeichnet werden können. Die mit starken Erdbeben einhergehenden Zerstörungen an der Erdoberfläche (Spaltbildung, Schäden an Gebäuden und Verkehrsinfrastruktur usw.) sind auf die „Oberflächenwellen“ zurückzuführen, die sich an der Erdoberfläche ausbreiten und eine elliptische Bodenbewegung auslösen.
Die Fortpflanzungsgeschwindigkeit eines Bebens beträgt im Normalfall ca. 3,5 km/s (nicht zu verwechseln mit der oben angegebene Wellengeschwindigkeit bei Seebeben). In sehr seltenen Fällen kommt es aber zur überschallschnellen Ausbreitung des Bebens, wobei bereits Fortpflanzungsgeschwindigkeiten von ca. 8 km/s gemessen wurden. Bei einem überschallschnellen Beben breitet sich der Riss schneller aus als die seismische Welle, was normalerweise umgekehrt abläuft. Bisher konnten erst 6 überschallschnelle Beben aufgezeichnet werden.
Erdbebenherd.
Durch Aufzeichnung und Auswertung der Stärke und Laufzeiten von Erdbebenwellen in weltweit verteilten Observatorien kann man die Position des Erdbebenherds bestimmen, das „Hypozentrum“. Dabei fallen auch Daten über das Erdinnere an. Die Positionsbestimmung unterliegt als Messung an Wellen der gleichen Unschärfe, die bei Wellen in anderen Bereichen der Physik bekannt sind. Im Allgemeinen nimmt die Unschärfe der Ortsbestimmung mit zunehmender Wellenlänge zu. Eine Quelle von langperiodischen Wellen kann also nicht so genau lokalisiert werden wie die von kurzperiodischen Wellen. Da schwere Erdbeben den größten Teil ihrer Energie im langperiodischen Bereich entwickeln, kann besonders die Tiefe der Quelle nicht genau bestimmt werden. Die Quelle der seismischen Wellen kann sich im Laufe eines Bebens bewegen, so etwa bei schweren Beben, die eine Bruchlänge von mehreren hundert Kilometern aufweisen können. Nach internationaler Übereinkunft wird dabei die zuerst gemessene Position als Hypozentrum des Erdbebens bezeichnet, also der Ort, wo das Beben begonnen hat. Der Ort auf der Erdoberfläche direkt über dem Hypozentrum heißt Epizentrum. Der Zeitpunkt des Bruchbeginns wird als „Herdzeit“ bezeichnet.
Die Bruchfläche, die das Erdbeben auslöst, wird in ihrer Gesamtheit als „Herdfläche“ bezeichnet. In den meisten Fällen erreicht diese Bruchfläche die Erdoberfläche nicht, sodass der Erdbebenherd in der Regel nicht sichtbar wird. Im Fall eines größeren Erdbebens, dessen Hypozentrum in nur geringer Tiefe liegt, kann die Herdfläche bis an die Erdoberfläche reichen und dort zu einem deutlichen Versatz führen. Der genaue Ablauf des Bruchprozesses legt die „Abstrahlcharakteristik“ des Bebens fest, bestimmt also, wie viel Energie in Form von seismischen Wellen in jede Richtung des Raumes abgestrahlt wird. Dieser Bruchmechanismus wird als Herdvorgang bezeichnet. Der Ablauf des Herdvorganges kann aus der Analyse von Ersteinsätzen an Messstationen rekonstruiert werden. Das Ergebnis einer solchen Berechnung ist die Herdflächenlösung.
Erdbebentypen.
Es gibt drei grundlegende Typen von Erdbebenereignissen, welche die drei Arten der Plattengrenzen widerspiegeln: In Spreizungszonen, wo die tektonischen Platten auseinanderdriften, wirkt eine Zugspannung auf das Gestein ("Extension"). Die Blöcke zu beiden Seiten der Herdfläche werden also auseinandergezogen und es kommt zu einer Abschiebung (engl.: "normal fault"), bei welcher der Block oberhalb der Bruchfläche nach unten versetzt wird. In Kollisionszonen, wo sich Platten aufeinander zubewegen, wirkt dagegen eine Kompressionsspannung. Das Gestein wird zusammengestaucht und es kommt, abhängig vom Neigungswinkel der Bruchfläche, zu einer Auf- oder Überschiebung (engl. "reverse fault" bzw. "thrust fault"), bei welcher der Block oberhalb der Bruchfläche nach oben versetzt wird. In Subduktionszonen kann sich die abtauchende Platte mitunter großflächig verhaken, was in der Folge zu einem massiven Spannungsaufbau und letztlich zu besonders schweren Erdbeben führen kann. Diese werden gelegentlich auch als "Megathrust-Erdbeben" bezeichnet. Der dritte Herdtyp wird als „Blattverschiebung“ (engl. "strike-slip fault") bezeichnet, der an „Transformverwerfungen“ vorkommt, wo sich die beteiligten Platten seitlich aneinander vorbeischieben.
In der Realität wirken die Kräfte und Spannungen jedoch zumeist schräg auf die Gesteinsblöcke, da sich die Lithosphärenplatten verkanten und dabei auch drehen können. Die Platten bewegen sich daher im Normalfall nicht gerade aufeinander zu oder aneinander vorbei, so dass die Herdmechanismen zumeist eine Mischform aus einer Auf- oder Abschiebung und einer seitwärts gerichteten Blattverschiebung darstellen. Man spricht hier von einer „Schrägauf-“' bzw. „Schrägabschiebung“ (engl. "oblique fault").
Die räumliche Lage der Herdfläche kann durch die drei Winkel Φ, δ und λ beschrieben werden:
Erdbebenstärke.
Um Erdbeben miteinander vergleichen zu können, ist es notwendig, deren Stärke zu ermitteln. Da eine direkte Messung der freigesetzten Energie eines Erdbebens schon allein auf Grund der Tiefenlage des Herdprozesses nicht möglich ist, wurden in der Seismologie verschiedene Erdbebenskalen entwickelt.
Intensität.
Die ersten Erdbebenskalen, die Ende des 18. bis Ende des 19. Jahrhunderts entwickelt wurden, konnten nur die Intensität eines Erdbebens beschreiben, also die Auswirkungen auf Menschen, Tiere, Gebäude und natürliche Objekte wie Gewässer oder Berge.
Im Jahre 1883 entwickelten die Geologen M. S. De Rossi und F. A. Forel eine zehnstufige Skala zur Bestimmung der Intensität von Erdbeben.
Wichtiger wurde jedoch die im Jahre 1902 eingeführte zwölfteilige Mercalliskala. Sie beruht allein auf der subjektiven Einschätzung der hör- und fühlbaren Beobachtungen sowie der Schadensauswirkung auf Landschaft, Straßen oder Gebäude (Makroseismik).
1964 wurde sie zur MSK-Skala und später zur EMS-Skala weiterentwickelt.
Intensitätsskalen werden auch heute noch verwendet, wobei verschiedene Skalen existieren, die an die Bauweise und Bodenverhältnisse des jeweiligen Landes angepasst sind. Die räumliche Verteilung der Intensitäten wird häufig durch Fragebogenaktionen zuständiger Forschungseinrichtungen (in Deutschland beispielsweise bundesweit durch die BGR per Online-Formular) ermittelt und in Form von Isoseistenkarten dargestellt. Isoseisten sind Isarithmen gleicher Intensitäten. Die Möglichkeit zur Erfassung von Intensitäten beschränkt sich auf relativ dicht besiedeltes Gebiet.
Magnitude.
Durch die Entwicklung und stetige Verbesserung von Seismometern ab der zweiten Hälfte des 19. Jahrhunderts eröffnete sich die Möglichkeit, objektive, auf physikalischen Größen basierende Messungen vorzunehmen, was zur Entwicklung der Magnitudenskalen führte. Diese ermöglichen über empirisch gefundene Beziehungen und physikalische Gesetzmäßigkeiten, von den an seismologischen Messstationen aufgezeichneten ortsabhängigen Amplitudenwerten auf die Stärke eines Bebens zurückzuschließen.
Es gibt verschiedene Methoden, die Magnitude zu berechnen. Die unter Wissenschaftlern gebräuchlichste Magnitudenskala ist heute die Momenten-Magnituden-Skala (Mw). Diese ist logarithmisch und endet bei der Mw 10,6. Man nimmt an, dass bei diesem Wert die feste Erdkruste komplett zerbricht. Die Erhöhung um eine Magnitude entspricht einer 32-fach höheren Energiefreisetzung. Von den Medien wird die in den 1930er Jahren von Charles Francis Richter und Beno Gutenberg eingeführte Richterskala am häufigsten zitiert, die auch als "Lokalbebenmagnitude" bezeichnet wird. Zur exakten Messung der Erdbebenstärke benutzt man Seismographen, die in 100 km Entfernung zum Epizentrum des Erdbebens liegen sollten. Mit der Richter-Skala werden die seismischen Wellen in logarithmischer Einteilung gemessen. Sie diente ursprünglich der Quantifizierung von Erdbeben im Raum Kalifornien. Liegt eine Erdbebenmessstation zu weit vom Erdbebenherd entfernt (> 1000 km) und ist die Stärke des Erdbebens zu groß (ab etwa Magnitude 6), kann diese Magnitudenskala jedoch nicht oder nur eingeschränkt verwendet werden. Sie ist aufgrund der einfachen Berechnung und der Vergleichbarkeit mit älteren Erdbebeneinstufungen vielfach auch in der Seismologie noch in Gebrauch.
Elastogravitationssignale.
Nach einer Publikation aus dem Jahr 2017 lassen sich bei starken Erdbeben in den Seismometeraufzeichnungen geringfügige Schwankungen des Gravitationsfelds der Erde nachweisen, die durch die Massenverschiebung ausgelöst werden. Diese Signale breiten sich mit Lichtgeschwindigkeit durch den Erdkörper aus, das heißt deutlich schneller als die primären Erdbebenwellen (P-Wellen), die für gewöhnlich als erstes von den Seismometern registriert werden und eine Geschwindigkeit von höchstens 10 km/s erreichen können. Außerdem sollen sie eine genauere Bestimmung der Magnitude eines Bebens ermöglichen, insbesondere an Messstationen, die relativ nahe am Erdbebenherd liegen. Beides bedeutete eine deutliche Verbesserung bei der Erdbebenfrühwarnung.
Vorhersage.
Die zeitlich und räumlich exakte Vorhersage von Erdbeben ist nach dem heutigen Stand der Wissenschaft nicht möglich. Die verschiedenen bestimmenden Faktoren sind qualitativ weitestgehend verstanden. Auf Grund des komplexen Zusammenspiels aber ist eine genaue Quantifizierung der Herdprozesse bislang nicht möglich, sondern nur die Angabe einer Wahrscheinlichkeit für das Auftreten eines Erdbebens in einer bestimmten Region.
Allerdings kennt man "Vorläuferphänomene" (engl. "precursors"). Einige davon äußern sich in der Veränderung geophysikalisch messbarer Größen, wie z. B. der seismischen Geschwindigkeit, der Neigung des Erdbodens oder der elektromagnetischen Eigenschaften des Gesteins. Andere Phänomene basieren auf statistischen Beobachtungen, wie etwa das Konzept der "seismischen Ruhe", die bisweilen auf ein bevorstehendes größeres Ereignis hindeutet.
Wiederholt wurde auch von ungewöhnlichem Verhalten bei Tieren kurz vor größeren Erdbeben berichtet. Dadurch gelang im Fall des Haicheng-Erdbebens vom Februar 1975 die rechtzeitige Warnung der Bevölkerung. In anderen Fällen wurde jedoch kein auffälliges Verhalten bei Tieren im Vorfeld eines Erdbebens beobachtet. Eine Meta-Analyse, in der 180 Publikationen berücksichtigt wurden, in denen mehr als 700 Beobachtungen auffälligen Verhaltens bei mehr als 130 verschiedenen Arten im Zusammenhang mit 160 verschiedenen Erdbeben dokumentiert sind, ergab im Abgleich mit Daten des globalen Erdbebenkatalogs des International Seismological Centre (ISC-GEM), dass das räumlich-zeitliche Muster der Verhaltensanomalien auffallend mit dem Auftreten von Vorbeben übereinstimmt. Demnach wäre zumindest ein Teil der Verhaltensanomalien schlicht durch die Vorbeben erklärbar, die von den oft mit sensibleren Sinnesorganen ausgestatteten Tieren über größere Entfernungen zum Epizentrum wahrgenommen werden können. Zwar beschäftigten sich viele Studien mit ungewöhnlichem Verhalten, aber es war unklar, was überhaupt ungewöhnliches Verhalten ist und welche Verhaltensanomalien als Vorläuferphänomen gelten. Beobachtungen sind meist anekdotisch, und es fehlen systematische Auswertungen und längere Messreihen. Es gibt deshalb bisher keine Hinweise darauf, dass Tiere verlässlich vor Erdbeben warnen können.
Alle bekannten Vorläuferphänomene variieren jeweils sehr stark in Zeitverlauf und Größenordnung. Zudem wäre der instrumentelle Aufwand, der für eine lückenlose Erfassung dieser Phänomene erforderlich wäre, aus heutiger Sicht finanziell und logistisch nicht realisierbar.
„Unkonventionelle“ Erdbeben.
Neben den „konventionellen“, spürbaren und bisweilen sehr zerstörerischen Erdbeben gibt es auch sogenannte „unkonventionelle“ oder „langsame“ Beben, deren Quellen nicht unterhalb, sondern an der Erdoberfläche liegen und sehr langperiodische (Periodendauer ca. 20 bis 150 s) Oberflächenwellen aussenden. Diese Wellen müssen mittels spezieller Algorithmen aus global oder kontinentweit aufgezeichneten seismischen Daten herausgefiltert werden und können anhand ihrer Charakteristik und mitunter weiteren Kriterien bestimmten Quellen zugeordnet werden. Zu solchen unkonventionellen Erdbeben gehören die Gletscherbeben, die durch Kalbungsvorgänge an großen polaren Gletschern ausgelöst werden, sowie die Sturmbeben, die bei starken Stürmen (Hurrikane u. ä.) unter bestimmten Umständen durch die Interaktion sturminduzierter langperiodischer Meereswellen mit größeren Untiefen im Bereich der Schelfkante erzeugt werden.
Historische Erdbeben.
Die wichtigsten bekannten Erdbebengebiete sind in der Liste der Erdbebengebiete der Erde aufgeführt. Eine umfassende Aufstellung historisch überlieferter Erdbebenereignisse befindet sich in der Liste von Erdbeben.
Stärkste gemessene Erdbeben.
Die folgende Liste wurde nach Angaben des USGS zusammengestellt. Die Werte beziehen sich, wenn nicht anders angegeben, auf die Momenten-Magnitude MW, wobei zu berücksichtigen ist, dass unterschiedliche Magnitudenskalen nicht direkt miteinander vergleichbar sind. Es werden die Werte angegeben, die das International Seismological Centre veröffentlicht.
Schäden.
Das Ausmaß der durch ein Erdbeben hervorgerufenen Schäden hängt zunächst von der Stärke und Dauer des Bebens ab sowie von der Besiedlungsdichte und der Anzahl und Größe der Bauwerke in dem betroffenen Bereich. Wesentlich ist aber auch die Erdbebensicherheit der Bauwerke. In der europäischen Norm EC 8 (in Deutschland DIN EN 1998-1) sind die Grundlagen für die Auslegung von Erdbebeneinwirkungen für die verschiedenen Bauarten Holz, Stahl, Stahlbeton, Verbundbauweise, Mauerwerk Bemessungskriterien definiert. |
1317 | 32783 | https://de.wikipedia.org/wiki?curid=1317 | Esther Friesner | Esther Mona Friesner-Stutzman, geb. Friesner (* 16. Juli 1951 in den USA) ist eine US-amerikanische Schriftstellerin.
Leben.
Friesner studierte Drama und Spanisch am Vassar College und promovierte dann in Spanisch an der Yale University. Dort unterrichtete sie auch einige Jahre Spanisch und schrieb in ihrer Freizeit Kurzgeschichten und Romane. Schließlich begann sie hauptberuflich zu schreiben.
1982 erschien ihre erste Kurzgeschichte "The Stuff of Heroes". Bis jetzt hat sie 37 Romane veröffentlicht und mehrere Anthologien herausgegeben. Am bekanntesten ist wohl die Anthologie 'Chicks in Chainmail'.
Friesner lebt zusammen mit ihrem Mann und ihren zwei Kindern in Connecticut. |
1319 | 234464244 | https://de.wikipedia.org/wiki?curid=1319 | Europa (Mond) | Europa (auch "Jupiter II") ist der zweitinnerste Mond des Planeten Jupiter. Sie ist mit einem Durchmesser von 3121 km der kleinste der vier großen Jupitermonde und der sechstgrößte Mond im Sonnensystem.
Europa ist ein Eismond. Obwohl die Temperatur auf der Oberfläche von Europa maximal −130 °C erreicht, lassen Messungen des äußeren Gravitationsfeldes und der Nachweis eines induzierten Magnetfeldes in der Umgebung Europas mit Hilfe der Galileo-Sonde darauf schließen, dass sich unter der mehrere Kilometer mächtigen Wassereishülle ein etwa 100 km tiefer Ozean aus flüssigem Wasser befindet.
Entdeckung und Benennung.
Europa wurde im Jahre 1610 von dem italienischen Gelehrten Galileo Galilei mit Hilfe eines relativ einfachen Fernrohrs entdeckt. Weil er alle vier großen Monde (Io, Europa, Ganymed und Kallisto) entdeckt hat, werden diese daher auch als die Galileischen Monde bezeichnet.
Benannt wurde der Mond nach Europa, einer Geliebten des Zeus aus der griechischen Mythologie. Obwohl der Name Europa bereits kurz nach seiner Entdeckung von Simon Marius vorgeschlagen wurde, konnte er sich über lange Zeit nicht durchsetzen. Erst in der Mitte des 20. Jahrhunderts kam er wieder in Gebrauch. Vorher wurden die Galileischen Monde üblicherweise mit römischen Ziffern bezeichnet und Europa war "Jupiter II".
Umlaufbahn und Rotation.
Europa umkreist Jupiter rechtläufig in einem mittleren Abstand von 671.100 Kilometern in 3 Tagen, 13 Stunden und 14 Minuten. Ihre Umlaufbahn ist mit einer numerischen Exzentrizität von 0,009 fast kreisförmig. Ihr jupiternächster und -fernster Bahnpunkt – Perijovum und Apojovum – weichen jeweils nur um 0,9 % von der großen Halbachse ab. Die Bahnebene ist nur 0,470° gegenüber Jupiters Äquatorebene geneigt.
Die Umlaufzeit von Europa steht zu ihrem inneren und äußeren Nachbarmond in einer Bahnresonanz von 2:1 bzw. 1:2; das heißt, während zwei Umläufen von Europa läuft Io genau viermal und Ganymed genau einmal um Jupiter.
Europa weist, wie die übrigen inneren Jupitermonde, eine gebundene Rotation auf, d. h. sie wendet dem Planeten stets dieselbe Seite zu.
Aufbau und physikalische Daten.
Europa besitzt einen mittleren Durchmesser von 3121,6 Kilometern (etwas kleiner als der Erdmond) und eine mittlere Dichte von 3,01 g/cm³. Obwohl sie deutlich der kleinste der vier Galileischen Monde ist, ist ihre Masse größer als die aller kleineren Monde des Sonnensystems zusammengenommen.
Die Temperatur auf Europas Oberfläche beträgt maximal 140 K (etwa −130 °C) am Äquator und 50 K (etwa −220 °C) an den Polen.
Oberfläche.
Die Oberfläche von Europa umfasst 30,6 Millionen Quadratkilometer, was ungefähr der Größe von Afrika entspricht. Mit einer Albedo von 0,68 ist sie eine der hellsten Oberflächen aller bekannten Monde im Sonnensystem: 68 % des eingestrahlten Sonnenlichts werden reflektiert. Die Oberfläche setzt sich aus Eis zusammen. Die rötlichen Färbungen sind Folge von abgelagerten Mineralien. Die Oberfläche ist außergewöhnlich eben. Sie ist von Furchen überzogen, die allerdings eine geringe Tiefe aufweisen. Nur wenige Strukturen, die sich mehr als einige hundert Meter über die Umgebung erheben, wurden festgestellt.
Krater.
Europas Oberfläche weist nur sehr wenige Einschlagkrater auf, die zudem nur von geringerer Größe sind. Von den 41 benannten Kratern ist "Taliesin" mit einem Durchmesser von 50 Kilometern der größte. Der zweitgrößte Krater, "Pwyll", hat einen Durchmesser von 45 Kilometern. Pwyll ist eine der geologisch jüngsten Strukturen auf Europa. Bei dem Einschlag wurde helles Material aus dem Untergrund über hunderte von Kilometern hinweg ausgeworfen.
Die geringe Kraterdichte ist ein Hinweis darauf, dass Europas Oberfläche geologisch sehr jung ist bzw. sich regelmäßig erneuert, sodass nur Einschläge von Kometen und Asteroiden der jüngeren geologischen Vergangenheit darauf dokumentiert sind. Berechnungen des Oberflächenalters anhand der Kraterdichte ergaben ein Höchstalter von ca. 90 Millionen Jahren. Damit besitzt Europa mit die jüngste Oberfläche unter den soliden Himmelskörpern im Sonnensystem.
Ferner konnten anhand von Nahinfrarotaufnahmen der Galileo-Sonde Schichtsilikate auf Europa nachgewiesen werden. Es wird vermutet, dass sie von einem Objekt stammen, das in einem flachen Winkel eingeschlagen ist, wodurch die Einschlagsenergie des Impaktors relativ gering war, sodass dieser weder vollständig verdampfen noch sich tief in die Kruste bohren konnte. Von besonderer Bedeutung ist diese Entdeckung deshalb, weil solche Objekte oft auch organische Verbindungen, sogenannte "Bausteine des Lebens", mit sich führen.
Furchen und Gräben.
Europas auffälligstes Merkmal ist ein Netzwerk von kreuz und quer verlaufenden Gräben und Furchen, Lineae genannt (Einzahl: Linea), die die gesamte Oberfläche überziehen. Die Lineae haben eine starke Ähnlichkeit mit Rissen und Verwerfungen auf irdischen Eisfeldern. Die größeren sind etwa 20 Kilometer breit und besitzen undeutliche äußere Ränder sowie einen inneren Bereich aus hellem Material. Die Lineae könnten durch Kryovulkanismus (Eisvulkanismus) oder den Ausbruch von Geysiren aus warmem Wasser entstanden sein, wodurch die Eiskruste auseinander gedrückt wurde.
Wenn Europa auf ihrer Umlaufbahn die größte Jupiterentfernung durchlief, konnten wiederholt Wasserstoff- und Sauerstoffatome über dem Südpol nachgewiesen werden. Es wird vermutet, dass sie aus der Spaltung von Wassermolekülen stammten, die freigesetzt werden, wenn sich Spalten öffnen und Wasser in den Weltraum schießt, das nach dem Aufstieg bis in eine Höhe von 200 Kilometern auf die Oberfläche zurückfällt.
Weitere Strukturen.
Ein weiterer Typ von Oberflächenstrukturen sind kreis- und ellipsenförmige Gebilde, Lenticulae (lat. Linsen) genannt. Viele sind Erhebungen (engl. Domes), andere Vertiefungen oder ebene dunkle Flecken. Die Lenticulae entstanden offensichtlich durch aufsteigendes wärmeres Eis, vergleichbar mit Magmakammern in der Erdkruste. Die Domes wurden dabei empor gedrückt, die ebenen dunklen Flecken könnten gefrorenes Schmelzwasser sein. Chaotische Zonen, wie Conamara Chaos, sind wie ein Puzzle aus Bruchstücken geformt, die von glattem Eis umgeben sind. Sie haben das Aussehen von Eisbergen in einem gefrorenen See.
Innerer Aufbau.
Eiskruste und Ozean.
Die äußere Hülle Europas besteht aus Wasser. Basierend auf Messungen des Gravitationsfeldes wurde ihre Mächtigkeit zwischen 80 und 170 Kilometern berechnet. Diese äußere Hülle, die man in Analogie zum Aufbau des Erdkörpers als "Kruste" auffassen kann, ist differenziert in eine äußere Schicht aus Wassereis und eine innere Schicht aus flüssigem Wasser. Die innere flüssige Wasserschicht wird allgemein auch als "Ozean" bezeichnet.
Das genaue Verhältnis von Eis zu Wasser in der äußeren Hülle ist zurzeit noch unbekannt. Jedoch gibt es verschiedene Hypothesen, die auf verschiedenen Ansätzen beruhen. So kommen Berechnungen, denen die Auswertungen von Oberflächenstrukturen zugrunde liegen, auf eine Mächtigkeit der Eishülle von 2 bis 18 Kilometern. Die magnetometrischen Messungen der Galileo-Sonde legen nahe, dass der Ozean zumindest einige Kilometer mächtig sein muss, um die Messwerte erklären zu können. Andere Autoren schließen aufgrund gleicher Daten auf eine Höchsttiefe des Ozeans von 100 Kilometern bzw. eine Höchstmächtigkeit der Eishülle von 15 Kilometern. Obwohl Europa deutlich kleiner als die Erde ist, wäre die dort vorkommende Menge an flüssigem Wasser damit mehr als doppelt so groß wie die der irdischen Ozeane. Ab etwa drei Kilometern unter der Oberfläche könnte es außerdem im Eis eingeschlossene Wasserblasen geben.
Die relativ glatte Oberfläche Europas und die darauf erkennbaren Strukturen erinnern sehr stark an Eisfelder in Polarregionen auf der Erde. Bei den sehr niedrigen Oberflächentemperaturen ist Wassereis hart wie Gestein. Die größten sichtbaren Krater wurden offensichtlich mit frischem Eis ausgefüllt und eingeebnet. Detaillierte Aufnahmen zeigen, dass sich Teile der Eiskruste gegeneinander verschoben haben und zerbrochen sind, wobei ein Muster von Eisfeldern entstand. Die Eisfelder müssten aufgrund der gebundenen Rotation ein bestimmtes, vorhersagbares Muster aufweisen. Weitere Aufnahmen zeigen stattdessen, dass nur die geologisch jüngsten Gebiete ein solches Muster aufweisen. Andere Gebiete weichen mit zunehmendem Alter von diesem Muster ab. Das kann damit erklärt werden, dass sich Europas Oberfläche geringfügig schneller bewegt als ihr innerer Mantel und der Kern. Die Eiskruste ist vom Mondinnern durch den dazwischen liegenden Ozean mechanisch entkoppelt und wird von Jupiters Gravitationskräften beeinflusst. Vergleiche von Aufnahmen der Raumsonden Galileo und Voyager 2 zeigen, dass sich Europas Eiskruste in etwa 12.000 Jahren einmal komplett um den Mond bewegen müsste.
Hinweise auf Plattentektonik.
Die von der Voyager- und Galileosonde aufgenommenen Bilder lassen auch darauf schließen, dass die Oberfläche von Europa Subduktion unterliegt. Ähnlich wie bei der Plattentektonik auf der Erde schieben sich mächtige Eisplatten langsam übereinander, wobei die in die Tiefe gedrängten Platten aufschmelzen; an anderen Stellen entsteht dafür neues Oberflächenmaterial. Dem vorgeschlagenen zugrunde liegenden Modell zufolge besteht Europas Eismantel aus zwei Schichten. Die äußere Schicht aus festem Eis „schwimmt“ auf einer Schicht aus weicherem, konvektionierenden Eis. Dies ist der erste entdeckte Fall von Plattentektonik auf einem Himmelskörper außer der Erde.
Mantel und Kern.
Europa gilt zwar als Paradebeispiel für einen Eismond, aber der Anteil des Eises am Gesamtvolumen dieses Jupitermondes ist relativ gering und sein Aufbau entspricht eher dem der terrestrischen (erdähnlichen) Planeten: Im Zentrum befindet sich ein wahrscheinlich flüssiger Eisen- oder Eisen-Eisensulfid-Kern. Dieser ist von einem Mantel aus Silikatgesteinen umgeben, der den überwiegenden Teil des Volumens des Satelliten ausmacht.
Atmosphäre.
Aufnahmen des Hubble-Weltraumteleskops ergaben Hinweise auf das Vorhandensein einer extrem dünnen Atmosphäre aus Sauerstoff, mit einem Druck von etwa 10−11 bar. Es wird angenommen, dass der Sauerstoff durch die Einwirkung der Sonnenstrahlung auf die Eiskruste entsteht, wobei das Wassereis in Sauerstoff und Wasserstoff gespalten wird. Der flüchtige Wasserstoff entweicht in den Weltraum, der massereichere Sauerstoff wird durch Europas Gravitation festgehalten.
Magnetfeld.
Bei Vorbeiflügen der Galileosonde wurde ein schwaches Magnetfeld gemessen. Das Magnetfeld variiert, während sich Europa durch die äußerst ausgeprägte Magnetosphäre des Jupiter bewegt. Die Daten von Galileo weisen darauf hin, dass sich unter Europas Oberfläche eine elektrisch leitende Flüssigkeit befindet, etwa ein Ozean aus Salzwasser. Darüber hinaus zeigen spektroskopische Untersuchungen, dass die rötlichen Linien und Strukturen an der Oberfläche reich an Salzen wie Magnesiumoxid sind. Die Salzablagerungen könnten zurückgeblieben sein, als ausgetretenes Salzwasser verdampft war. Da die festgestellten Salze in der Regel farblos sind, dürften andere Elemente wie Eisen oder Schwefel für die rötliche Färbung verantwortlich sein.
Spekulationen über Leben auf Europa.
Das mögliche Vorhandensein von flüssigem Wasser ließ Spekulationen darüber aufkommen, ob in Europas Ozeanen Formen von Leben existieren können. Auf der Erde wurden Lebensformen entdeckt, die unter extremen Bedingungen auch ohne das Vorhandensein von Sonnenlicht bestehen können, wie zum Beispiel Biotope an hydrothermalen Quellen (Schwarze Raucher) oder in der Tiefsee.
Nach einem Bericht des Wissenschaftsmagazins "New Scientist" kamen NASA-Wissenschaftler, die die gestrichene Nasa-Mission "Jupiter Icy Moons Orbiter" planten, nach Auswertungen früherer Missionen im Frühjahr 2004 zu dem Schluss, dass der Mond Europa weitaus lebensfeindlicher sein könnte als zuvor angenommen.
So wurden auf der Oberfläche Wasserstoffperoxid und von konzentrierter Schwefelsäure bedeckte Flächen nachgewiesen. Hier geht man davon aus, dass die Säure aus dem unter der Eisschicht angenommenen Ozean stammt. Die Konzentration wird mit unterseeischem Vulkanismus erklärt, der für den Schwefel verantwortlich sein kann.
Es ist durchaus möglich, dass der Schwefel vom Jupitermond Io stammt. Mittlerweile gibt es auch Indizien dafür, dass der vermutete Ozean unter der Oberfläche Europas eine nennenswerte Salzkonzentration hat. So wurde Epsomit auf der Oberfläche nachgewiesen (eine Magnesiumsulfat-Verbindung). Epsomit könnte durch Reaktion des Schwefels vom Jupitermond Io mit Magnesiumchlorid unter Strahleneinwirkung entstanden sein. Das Magnesiumchlorid stammt mit hoher Wahrscheinlichkeit aus dem Innern Europas. Epsomit ist im Infrarotbereich wesentlich einfacher nachzuweisen als Natrium- oder Kaliumchlorid, das man eher auf Europa vermuten würde.
Spektroskopische Untersuchungen zeigten, dass auf der Oberfläche Europas größere Mengen Natriumchlorid zu finden sind. Ob es aus dem Inneren des Mondes stammt, ist nicht bekannt.
Um eine Kontaminierung Europas mit irdischen Mikroorganismen zu vermeiden, ließ man die Raumsonde Galileo, die zuletzt Europa beobachtete, in der Jupiteratmosphäre verglühen.
Bislang gibt es keine Hinweise für Leben, doch sollen spätere Missionen dies klären. Gedacht wird an eine unbemannte Kryobot-Raumsonde, die auf der Oberfläche landen, sich durch die Eiskruste durchschmelzen und eine Art „Mini-U-Boot“ in Europas Ozean ablassen soll. Bevor diese Mission überhaupt Wirklichkeit werden kann, könnte in den 2020er Jahren eine "Europa-Orbiter"-Raumsonde gestartet werden, die in eine Umlaufbahn um Europa eintreten und den Mond umfassend studieren soll. Davon erhofft man sich weitere Erkenntnisse über Europa zu sammeln und geeignete Landestellen für spätere Missionen zu finden.
Erkundung durch Sondenmissionen.
Nach dem Vorbeifliegen der Sonden Pioneer 10 und Pioneer 11 in den Jahren 1973 und 1974 gab es von den größten Monden Jupiters zumindest unscharfe Fotografien. Voyager 1 und Voyager 2 lieferten beim Vorbeifliegen 1979 wesentlich genauere Bilder und Daten. 1995 begann die Sonde Galileo, acht Jahre lang den Jupiter zu umrunden. Sie führte dabei auch genaue Untersuchungen und Messungen an den Galileischen Monden durch, auf denen der größte Teil unseres heutigen Wissens über diese Himmelskörper beruht.
Geplante Missionen.
Durch die Raumfahrtagentur ESA erfolgte im April 2023 der Start der JUICE-Sonde, welche die Jupitermonde Ganymed, Kallisto und Europa untersuchen soll, wobei der Fokus auf der Untersuchung der vermuteten Ozeane unter der Oberfläche liegt. An Europa sollen im Rahmen der Mission etwa im Jahre 2030 mehrere Flybys stattfinden. Die NASA plant die Mission Europa Clipper mit einem Starttermin im Oktober 2024 und Ankunft in einem Jupiterorbit im April 2030 Jahre. Geplant sind über 40 Vorüberflüge an Europa, durch die detaillierte Bilder der Mondoberfläche gesammelt werden sollen. Auch diese Mission soll neben Europa die Monde Ganymed und Kallisto durch Flybys untersuchen. In der weiteren Zukunft könnte eine Schmelzsonde, die sich durch den Eismantel bohren soll, zum Mond Europa geschickt werden. Mehrere wissenschaftliche Einrichtungen wie das Deutsche Zentrum für Luft- und Raumfahrt (DLR) arbeiten derzeit an entsprechenden Prototypen.
Europa in der Populärkultur.
Die allgemein von Wissenschaftlern angestellten Spekulationen über Leben auf Europa werden hin und wieder in popkulturellen Werken aufgegriffen. So hört man in dem Science-Fiction-Film "" aus dem Jahr 1984 (nach dem Roman von Arthur C. Clarke) eine Stimme aus dem Off, die eine nicht näher umrissene, hochentwickelte außerirdische Intelligenz repräsentiert, folgenden Satz sagen:
Der Science-Fiction-Film "Europa Report" aus dem Jahr 2013 handelt von einer bemannten Raumfahrtmission zum Jupitermond Europa, bei der die Crew der Landefähre auf große, komplexe und für Menschen offenbar gefährliche Lebewesen trifft. Diese bewohnen den Ozean unterhalb der Eiskruste Europas, die in dem Film stellenweise kaum dicker als die Eisdecke auf einem zugefrorenen See im Winter ist.
Der Science-Fiction-Roman "Europa – Tragödie eines Mondes" von Uwe Roth beginnt dort, wo die anderen Publikationen aufhören: Am Grund des Ozeans. Dieser ist von den Maboriern bewohnt, die sich einen lebenswerten Ort erschaffen haben, der aber nach einer unheimlichen Befallskatastrophe einzufrieren droht. Nur die Intelligenzen, die in dem unbekannten Oben existieren müssen, könnten das Eis zurückdrängen. Eine Expedition macht sich auf, um sie zu suchen. Am Dach ihrer Welt angelangt, müssen die Maborier feststellen, dass ihr Wissen über ihre Welt völlig falsch war. In diesem Roman erhält der amerikanische Astrophysiker und Exobiologe Carl Sagan eine besondere Ehrung.
Im Videospiel "Barotrauma" des deutschen Spieleentwicklers und Publishers Daedalic erforscht man den Ozean des Mondes mit U-Booten.
In der Hörspielreihe von Hanno Herzler "Dr. Brockers Weltraumabenteuer" wird die Oberfläche Europas mit Hilfe einer aus Plasma bestehenden Kuppel besiedelt, was den Kolonisten gar erlaubt, ohne Kälteschutz- und Raumanzüge auf dem Mond zu leben.
Im Videospiel "Destiny 2" ist Europa eine der erkundbaren Umgebungen.
Das Videospiel "The Turing Test" spielt komplett auf Europa. |
1320 | 3521169 | https://de.wikipedia.org/wiki?curid=1320 | Erde | Die Erde ist der dichteste, fünftgrößte und der Sonne drittnächste Planet des Sonnensystems. Sie ist Ursprungsort und Heimat aller bekannten Lebewesen. Ihr Durchmesser beträgt mehr als Kilometer und ihr Alter etwa 4,6 Milliarden Jahre. Nach ihrer vorherrschenden geochemischen Beschaffenheit wurde der Begriff der „erdähnlichen Planeten“ geprägt. Das astronomische Symbol der Erde ist oder .
Da die Erdoberfläche zu etwa zwei Dritteln aus Wasser besteht und daher die Erde vom All betrachtet vorwiegend blau erscheint, wird sie auch Blauer Planet genannt. Sie wird metaphorisch auch als „Raumschiff Erde“ bezeichnet.
Die Erde spielt als Lebensgrundlage des Menschen in allen Religionen eine herausragende Rolle als heilige Ganzheit; in etlichen ethnischen, Volks- und historischen Religionen entweder als Vergöttlichung einer „Mutter Erde“ oder personifiziert als Erdgöttin.
Etymologie.
Das gemeingermanische Substantiv "erde" in Mittelhochdeutsch, in Althochdeutsch "erda" beruht mit verwandten Wörtern anderer indogermanischer Sprachen auf "er-".
Umlaufbahn.
Die Erde bewegt sich gemäß dem ersten Keplerschen Gesetz auf einer elliptischen Bahn um die Sonne. Die Sonne befindet sich in einem der Brennpunkte der Ellipse. Die Ellipsenhauptachse verbindet den sonnenfernsten und sonnennächsten Punkt der Umlaufbahn. Die beiden Punkte heißen Aphel und Perihel. Das Mittel aus Aphel- und Perihelabstand ist die Länge der großen Halbachse der Ellipse und beträgt etwa 149,6 Mio. km. Diese Länge definierte ursprünglich die Astronomische Einheit (AE), die als astronomische Längeneinheit hauptsächlich für Entfernungen innerhalb des Sonnensystems verwendet wird.
Das Aphel liegt bei 1,017 AE (152,1 Mio. km) und das Perihel bei 0,983 AE (147,1 Mio. km). Damit hat die Ellipse eine Exzentrizität von 0,0167. Der Aphel-Durchgang erfolgt um den 5. Juli und der Perihel-Durchgang um den 3. Januar. Die Erde umkreist die Sonne in 365 Tagen, 6 Stunden, 9 Minuten und 9,54 Sekunden; diese Zeitspanne heißt auch siderisches Jahr. Das siderische Jahr ist 20 Minuten und 24 Sekunden länger als das tropische Jahr, auf dem das bürgerliche Jahr der Kalenderrechnung basiert. Die Bahngeschwindigkeit der Erde beträgt im Mittel 29,78 km/s, im Perihel 30,29 km/s und im Aphel 29,29 km/s; somit legt die Erde eine Strecke der Länge ihres Durchmessers in gut sieben Minuten zurück.
Die Erdbahn ist zur inneren Nachbarbahn der Venus im Mittel 0,28 AE (41,44 Mio. km) und zur äußeren Nachbarbahn des Mars im Mittel 0,52 AE (78,32 Mio. km) entfernt. Im Mittel ist jedoch Merkur der Erde am nächsten (1,039 AE). Auf der Erdbahn befinden sich mehrere koorbitale Objekte, weitere Details siehe: Erdbahn.
Die Erde umkreist die Sonne prograd, das heißt in der Rotationsrichtung der Sonne, was vom Nordpol der Erdbahnebene aus gesehen entgegen dem Uhrzeigersinn ist.
Die Erdbahnebene wird Ekliptik genannt. Die Ekliptik ist um etwa 7° gegen die Äquatorebene der Sonne geneigt. Der Sonnennordpol ist der Erde am stärksten gegen Anfang September zugewandt, der Sonnensüdpol gegen Anfang März. In der Sonnenäquatorebene befindet sich die Erde nur kurz um den 6. Juni und den 8. Dezember.
Rotation.
Die Erde rotiert prograd in Richtung Osten einmal um ihre Achse relativ zu den Fixsternen in 23 Stunden, 56 Minuten und 4,09 Sekunden. Diese Zeitspanne wird analog zum siderischen Jahr als siderischer Tag bezeichnet. Weil die Erde die Sonne auch prograd umkreist und daher am nächsten Tag etwas anders zur Sonne steht (siehe Abb. rechts), ist ein siderischer Tag etwas kürzer als ein Sonnentag, der als die Zeitspanne zwischen zwei Sonnenhöchstständen (Mittag) definiert und in 24 Stunden eingeteilt ist.
Auf dem Erdäquator hat ein Punkt wegen der Eigenrotation eine Geschwindigkeit von 464 m/s bzw. 1670 km/h. Dies verursacht eine Fliehkraft, welche die Figur der Erde an den Polen geringfügig abplattet und am Äquator zu einem Äquatorwulst verformt. Daher ist gegenüber einer volumengleichen Kugel der Äquatorradius 7 Kilometer größer und der Polradius 14 Kilometer kleiner. Der Äquator-Durchmesser ist etwa 43 km größer als der von Pol zu Pol. Deshalb ist der Chimborazo-Gipfel wegen seiner Äquatornähe der Punkt der Erdoberfläche, der am weitesten vom Erdmittelpunkt entfernt ist.
Die Erdrotationsachse ist 23°26′ gegen die senkrechte Achse der Ekliptik geneigt, dadurch werden die Nord- und die Südhalbkugel an verschiedenen Punkten der Erdbahn von der Sonne unterschiedlich beschienen, was zu den das Klima der Erde prägenden Jahreszeiten führt. Die Achsneigungsrichtung fällt für die Nordhalbkugel derzeit in die ekliptikale Länge des Sternbilds Stier. Dort steht, von der Erde aus gesehen, am 21. Juni die Sonne zur Sommersonnenwende. Da die Erde zwei Wochen später ihr Aphel durchläuft, fällt der Sommer auf der Nordhalbkugel in die Zeit ihres sonnenfernen Bahnbereichs.
Präzession und Nutation.
Am Erdäquatorwulst erzeugen die Gezeitenkräfte des Mondes und der Sonne ein Drehmoment, das die Erdachse aufzurichten versucht und sie kreiseln lässt. Dies wird lunisolare Präzession genannt. Dadurch vollführt die Erdachse einen Kegelumlauf in 25 700 bis 25 800 Jahren. Mit diesem Zyklus der Präzession verschieben sich die Jahreszeiten. Zusätzlich verursacht der Mond durch die Präzessionsbewegung seiner eigenen Umlaufbahn mit einer Periode von 18,6 Jahren eine „nickende“ Bewegung der Erdachse, die als Nutation bezeichnet wird. Der Mond stabilisiert zugleich die Erdachsenneigung, die ohne ihn durch die Anziehungskraft der Planeten bis zu einer Schräglage von 85° taumeln würde. Für Einzelheiten siehe den Abschnitt Mond.
Rotationsdauer und Gezeitenkräfte.
Auf der Erde verursacht die Gravitation von Mond und Sonne die Gezeiten von Ebbe und Flut der Meere. Dabei ist der Anteil der Sonne etwa halb so groß wie der des Mondes. Die Gezeiten heben und senken auch die Landmassen um etwa einen halben Meter. Die Gezeiten verursachen die Gezeitenreibung, welche die Erdrotation bremst und dadurch die Tage um etwa 20 Mikrosekunden pro Jahr verlängert. Dabei wird die Rotationsenergie der Erde in Wärme umgewandelt und der Drehimpuls wird auf den Mond übertragen, der sich dadurch um etwa vier Zentimeter pro Jahr von der Erde entfernt. Dieser schon lange vermutete Effekt ist seit 1995 durch Laserdistanzmessungen abgesichert. Extrapoliert man diese Abbremsung in die Zukunft, wird auch die Erde einmal dem Mond immer dieselbe Seite zuwenden, wobei ein Tag auf der Erde dann etwa 47-mal so lang wäre wie heute. Damit unterliegt die Erde demselben Effekt, der schon zur gebundenen Rotation "(Korotation)" des Mondes führte.
Aufbau.
Die Erde definiert mit ihrem geochemischen Aufbau die Klasse der erdähnlichen Planeten (auch "erdartige", "terrestrische" Planeten, oder "Gesteinsplaneten" genannt). Die Erde ist unter den vier erdähnlichen Planeten des Sonnensystems der größte.
Innerer Aufbau.
Die Erde setzt sich massenanteilig zusammen aus Eisen (32,1 %), Sauerstoff (30,1 %), Silizium (15,1 %), Magnesium (13,9 %), Schwefel (2,9 %), Nickel (1,8 %), Calcium (1,5 %) und Aluminium (1,4 %). Die restlichen 1,2 % teilen sich Spuren von anderen Elementen.
Die Erde besteht nach seismischen Messungen aus drei Schalen: Dem Erdkern, dem Erdmantel und der Erdkruste. Diese Schalen sind durch seismische Diskontinuitätsflächen (Unstetigkeitsflächen) voneinander getrennt. Die Erdkruste und der oberste Teil des oberen Mantels bilden zusammen die Lithosphäre. Sie ist zwischen 50 und 100 km dick und besteht aus großen und kleineren tektonischen Platten.
Ein dreidimensionales Modell der Erde heißt, wie alle verkleinerten Nachbildungen von Weltkörpern, Globus.
Oberfläche.
Der Äquatorumfang ist durch die Zentrifugalkraft der Rotation mit 40 075,017 km um 67,154 km (0,17 %) größer als der Polumfang (Meridianumfang) mit 40 007,863 km (bezogen auf das geodätische Referenzellipsoid von 1980). Der Poldurchmesser ist mit 12 713,504 km dementsprechend um 42,816 km bzw. um 0,34 % kleiner als der Äquatordurchmesser mit 12 756,320 km (bezogen auf das Referenzellipsoid; die tatsächlichen Zahlen weichen davon ab). Die Unterschiede im Umfang tragen mit dazu bei, dass es keinen eindeutig höchsten Berg auf der Erde gibt. Nach der Höhe über dem Meeresspiegel ist es der Mount Everest im Himalaya und nach dem Abstand des Gipfels vom Erdmittelpunkt der auf dem Äquatorwulst stehende Vulkanberg Chimborazo in den Anden. Von der jeweils eigenen Basis an gemessen ist der Mauna Kea auf der vom pazifischen Meeresboden aufragenden großen vulkanischen Hawaii-Insel am höchsten.
Die Erdoberfläche ist etwa 510 Mio. km² groß. Sie lässt sich in zwei unterschiedliche Halbkugeln teilen: In eine Landhemisphäre und eine Wasserhemisphäre. Die Landhemisphäre umfasst den größeren Anteil der Landfläche und besteht knapp zur Hälfte mit 47 % aus Land. Die Fläche der Wasserhemisphäre enthält nur 11 % Land und wird durch Ozeane dominiert.
37,4 % der Landoberfläche der Erde liegen zwischen 1000 und 2000 m über Meereshöhe. Dabei handelt es sich um hohe Mittelgebirge, Hochgebirge und Hochebenen. Betrachtet man die Unebenheiten der Erdoberfläche im globalen Maßstab, erscheinen sie eher gering. Der Höhe des Mount Everest entspräche eine Erhebung von nur rund 0,15 mm auf einem Globus von der Größe eines Fußballs.
Die Erde ist der einzige Planet im Sonnensystem, auf dessen Oberfläche flüssiges Wasser existiert. 96,5 % des gesamten Wassers der Erde enthalten die Meere. Das Meerwasser enthält im Durchschnitt 3,5 % Salz.
Die Wasserfläche hat in der gegenwärtigen geologischen Epoche einen Gesamtanteil von 70,7 % an der Erdoberfläche. Die restlichen 29,3 %, die Landfläche, entfallen hauptsächlich auf sieben Kontinente; in der Reihenfolge ihrer Größe: Asien, Afrika, Nordamerika, Südamerika, Antarktika, Europa und Australien (Europa ist im Rahmen der Plattentektonik als große westliche Halbinsel des Kontinentes Eurasien allerdings wahrscheinlich nie eine selbstständige Einheit gewesen). Die Fläche des Weltmeeres wird allgemein in drei Ozeane einschließlich der Nebenmeere unterteilt: den Pazifik, den Atlantik und den Indik. Die tiefste Meeresstelle, das Witjastief 1, liegt im Marianengraben, 11 034 m unter dem Meeresspiegel. Die durchschnittliche Meerestiefe beträgt 3 800 m. Das ist etwa das Fünffache der bei 800 m liegenden mittleren Höhe der Kontinente (siehe hypsografische Kurve).
Plattentektonik.
Die größten Platten entsprechen in ihrer Anzahl und Ordnung etwa jener der von ihnen getragenen Kontinente, mit Ausnahme der pazifischen Platte. Alle diese Platten bewegen sich gemäß der Plattentektonik relativ zueinander auf den teils aufgeschmolzenen, zähflüssigen Gesteinen des oberen Mantels, der 100 bis 150 km mächtigen Asthenosphäre.
Magnetfeld.
Das die Erde umgebende Magnetfeld wird von einem "Geodynamo" erzeugt. Das Feld ähnelt nahe der Erdoberfläche einem magnetischen Dipol. Die magnetischen Feldlinien treten auf der Südhalbkugel aus und durch die Nordhalbkugel wieder in die Erde ein. Im Erdmantel wird das Magnetfeld verformt. Das Magnetfeld wird außerhalb der Erdatmosphäre durch den Sonnenwind gestaucht.
Die magnetischen Pole der Erde fallen nicht genau mit den geografischen Polen zusammen. Die Magnetfeldachse war im Jahr 2007 um etwa 11,5° gegenüber der Erdachse geneigt.
Atmosphäre.
Die Erdatmosphäre geht kontinuierlich in den Weltraum über, so dass sie nach oben nicht scharf begrenzt ist. Ihre Masse beträgt etwa 5,13 × 1018 kg und macht somit knapp ein Millionstel der Erdmasse aus. In der Atmosphäre auf Meeresspiegel-Niveau beträgt der mittlere Luftdruck unter Standardbedingungen 1013,25 hPa. Die Atmosphäre besteht am Boden vor allem aus 78 Vol.-% Stickstoff, 21 Vol.-% Sauerstoff und 1 Vol.-% Edelgasen, überwiegend Argon. Dazu kommt 0,4 Vol.-% Wasserdampf in der gesamten Erdatmosphäre. Der für den Treibhauseffekt wichtige Anteil an Kohlendioxid ist durch menschlichen Einfluss gestiegen und liegt momentan bei etwa 0,04 Vol.-%.
Die auf der Erde meteorologisch gemessenen Temperaturextreme betragen −89,2 °C (gemessen am 21. Juli 1983 auf 3420 Metern Höhe in der Wostok-Station in der Antarktis) und 56,7 °C (gemessen am 10. Juli 1913 im Death Valley auf ). Die mittlere Temperatur in Bodennähe beträgt 15 °C. Bei dieser Temperatur liegt die Schallgeschwindigkeit in der Luft auf Meeresniveau bei 340 m/s.
Die Erdatmosphäre streut den kurzwelligen, blauen Spektralanteil des Sonnenlichts etwa fünfmal stärker als den langwelligen, roten und färbt dadurch bei hohem Sonnenstand den Himmel blau. Ebenfalls blau erscheint die Oberfläche der Meere und Ozeane vom Weltall aus, weswegen die Erde seit dem Beginn der Raumfahrt auch der „Blaue Planet“ genannt wird. Dieser Effekt ist jedoch auf die stärkere Absorption roten Lichtes im Wasser selbst zurückzuführen. Dabei ist die Spiegelung des blauen Himmels an der Wasseroberfläche nur nebensächlich.
Klima.
Klima- und Vegetationszonen.
Die Erde wird anhand unterschiedlich intensiver Sonneneinstrahlung in Klimazonen eingeteilt, die sich vom Nordpol zum Äquator erstrecken – und auf der Südhalbkugel spiegelbildlich verlaufen. Die Klimate prägen die Vegetation, die ähnlich in verschiedene zonale biogeographische Modelle gegliedert werden.
Je weiter eine Klimazone vom Äquator und vom nächsten Ozean entfernt ist, desto stärker schwanken die Temperaturen zwischen den Jahreszeiten.
Polarzone.
Die Polargebiete liegen an den Polen. Das Nördliche liegt innerhalb des nördlichen Polarkreises und umfasst die Arktis, in deren Zentrum das Nordpolarmeer liegt. Das Südliche liegt entsprechend innerhalb des südlichen Polarkreises und umfasst die Antarktis, zu welcher der Großteil des Kontinents Antarktika gehört.
Die Polargebiete werden geprägt durch kaltes Klima mit viel Schnee und Eis, Polarlichtern, sowie dem Polartag mit der Mitternachtssonne und der Polarnacht, die beide bis zu einem halben Jahr dauern können.
Die Vegetation der polaren- und subpolaren Ökozone reicht von den Kältewüsten (die nur kleine, inselartige Pflanzenvorkommen mit sehr wenigen flach wachsenden Arten aufweisen) zu den baumlosen, gras-, strauch- und moosbewachsenen Tundren.
Gemäßigte Zone.
Die gemäßigte Klimazone reicht von den Polarkreisen bis zum vierzigsten Breitengrad und wird in eine kalt- und kühlgemäßigte Zone eingeteilt. In dieser Zone unterscheiden sich die Jahreszeiten groß, was jedoch zum Äquator etwas abnimmt. Ein weiteres Merkmal sind die Unterschiede der Längen von Tag und Nacht, die je nach Jahreszeit stark variieren. Diese Unterschiede nehmen zum Pol hin immer mehr zu.
Die Vegetation wird durch Wälder (im Norden der Nordhalbkugel boreale Nadelwälder, bei den äquatornäheren Gebieten nemorale beziehungsweise australe Misch- und Laubwälder der feuchten Mittelbreiten) sowie Grassteppen und winterkalte Halbwüsten und Wüsten (Prärien und Großes Becken in Nordamerika; Eurasische Steppe und Wüsten Zentralasiens, Pampa und patagonische Trockensteppe) geprägt.
Subtropen.
Die Subtropen (zum Teil auch "warmgemäßigte Klimazone") liegen in der geografischen Breite zwischen den Tropen in Äquatorrichtung und den gemäßigten Zonen in Richtung der Pole, ungefähr zwischen 25° und 40° nördlicher beziehungsweise südlicher Breite. In den Subtropen herrschen tropische Sommer und nicht-tropische Winter vor. Die Subtropen lassen sich weiter in trockene, winterfeuchte, sommerfeuchte und immerfeuchte Subtropen unterteilen.
Weitverbreitet wird "subtropisches Klima" mit einer Mitteltemperatur im Jahr über 20 Grad Celsius, und einer Mitteltemperatur des kältesten Monats von unterhalb 20 Grad definiert.
Die Unterschiede zwischen den Längen von Tag und Nacht sind relativ gering.
Die Vegetation umfasst vor allem trockene Offenlandschaften (Heiße Halbwüsten und -Wüsten wie die Sahara und die australischen Wüsten), aber auch Waldgebiete (lichte Hartlaubwälder der winterfeuchten „Mittelmeerklimate“ und dichte Lorbeerwälder der immerfeuchten Subtropen).
Tropen.
Die Tropen befinden sich zwischen dem nördlichen und südlichen Wendekreis. In den Tropen sind Tag und Nacht immer ungefähr gleich lang (zwischen 10,5 und 13,5 Stunden).
Die Tropen können in die immerfeuchten und wechselfeuchten Tropen unterteilt werden. Nur die wechselfeuchten Tropen haben zwei klimatisch unterscheidbare Jahreszeiten: Trocken- und Regenzeit.
Die Tropen werden vegetationsgeographisch in die sommerfeuchten- Trocken- und Feuchtsavannen sowie die Regenwälder der immerfeuchten Tropen (Amazonasbecken, Kongobecken, Malaiischer Archipel und Neuguinea) untergliedert. In den Tropen konzentriert sich die größte Artenvielfalt und Biodiversität der Erde.
Jahreszeiten.
Die Jahreszeiten werden in erster Linie von der Einstrahlung der Sonne verursacht und können infolgedessen durch Temperatur- und/oder Niederschlagsmengenschwankungen geprägt sein. Darunter wird in der gemäßigten Zone gewöhnlich der Wechsel der Tageshöchst- bzw. Tagestiefsttemperaturen verstanden. In den Subtropen und stärker in den Tropen werden diese Temperaturunterschiede mit Schwankungen der Monatsmittel des Niederschlags überlagert, und in seiner Wahrnehmbarkeit verringert.
Die Unterschiede entstehen durch die Neigung des Äquators gegen die Ekliptik. Dies hat zur Folge, dass der Zenitstand der Sonne zwischen dem nördlichen und südlichen Wendekreis hin- und herwandert (daher auch der Name Wendekreis). Dadurch entstehen neben den unterschiedlichen Einstrahlungen auch die Unterschiede der Längen von Tag und Nacht, die je nach Jahreszeit stark variieren. Diese Unterschiede nehmen zum Pol hin immer mehr zu.
Die Wanderung erfolgt im Jahresrhythmus wie folgt:
Abweichend davon wird in der Meteorologie der Beginn der Jahreszeiten jeweils auf den Monatsanfang vorverlegt (1. Dezember, 1. März usw.).
Globaler Energiehaushalt.
Der Energiehaushalt der Erde wird wesentlich durch die Einstrahlung der Sonne und die Ausstrahlung der Erdoberfläche bzw. Atmosphäre bestimmt, also durch den Strahlungshaushalt der Erde. Die restlichen Beiträge von zusammen etwa 0,02 % liegen deutlich unterhalb der Messungsgenauigkeit der Solarkonstanten sowie ihrer Schwankung im Lauf eines Sonnenfleckenzyklus.
Etwa 0,013 % macht der durch radioaktive Zerfälle erzeugte geothermische Energiebeitrag aus, etwa 0,007 % stammen aus der menschlichen Nutzung fossiler und nuklearer Energieträger und etwa 0,002 % verursacht die Gezeitenreibung.
Die Erde hat eine geometrische Albedo im Mittel von 0,367, wobei ein wesentlicher Anteil auf die Wolken der Erdatmosphäre zurückzuführen ist. Dies führt zu einer globalen effektiven Temperatur von 246 K (−27 °C). Die Durchschnittstemperatur am Boden liegt jedoch durch einen starken atmosphärischen Treibhauseffekt bzw. Gegenstrahlung bei etwa 288 K (15 °C), wobei die Treibhausgase Wasser und Kohlendioxid den Hauptbeitrag liefern.
Einfluss des Menschen.
Die Wechselwirkungen zwischen Lebewesen und Klima haben heute eine neue Quantität durch den zunehmenden Einfluss des Menschen erreicht. Während etwa 1,8 Milliarden Menschen im Jahr 1920 die Erde bevölkerten, wuchs die Erdbevölkerung bis zum Jahr 2008 auf knapp 6,7 Milliarden und bis zum Jahr 2022 auf rund 8,0 Milliarden Menschen. Die UNO rechnete für den Zeitraum 2015 bis 2020 mit einem Bevölkerungswachstum von rund 78 Millionen Menschen pro Jahr. Im Jahr 2022 wurde die Acht-Milliarden-Menschen-Marke überschritten. Die UNO erwartet für 2050 etwa 9,7 Milliarden Menschen und für 2100 10,9 Milliarden Menschen. Ein starkes Bevölkerungswachstum ist für die absehbare Zukunft in den Entwicklungsländern weiterhin zu erwarten, während in vielen hoch entwickelten Ländern die Bevölkerung stagniert oder nur sehr langsam wächst, aber deren industrieller Einfluss auf die Natur weiterhin wächst.
Da viele Menschen nach steigendem Lebensstandard streben, konsumieren sie mehr, was aber mehr Energie verbraucht. Die meiste Energie stammt aus der Verbrennung fossiler Energieträger, der Kohlenstoffdioxidgehalt in der Atmosphäre erhöht sich daher. Da Kohlendioxid eines der wichtigsten Treibhausgase ist, führte das zum anthropogenen Klimawandel, der nach den meisten Experten die globale Durchschnittstemperatur deutlich steigern wird. Die Folgen dieses Prozesses werden Klima, Meere, Vegetation, Tierwelt und Menschen erheblich beeinflussen. Die primären Folgen sind häufigere und verstärkte Wetterereignisse, ein steigender Meeresspiegel infolge abschmelzenden Inlandeises und der Wärmeausdehnung des Wassers, sowie eine Verlagerung der Klima- und Vegetationszonen nach Norden. Sofern die internationalen Klimaschutzbemühungen zu wenig Erfolg haben, kann es zu einem Szenario unkalkulierbarer Risiken für die Erde kommen, das von den Medien auch als „Klimakatastrophe“ bezeichnet wird.
Mond.
Der Mond umkreist die Erde als natürlicher Satellit. Das Verhältnis des Durchmessers des Mondes zu seinem Planeten von 0,273 (mittlerer Monddurchmesser 3 476 km zu mittlerem Erddurchmesser 12 742 km) ist deutlich größer als bei den natürlichen Satelliten der anderen Planeten.
Wissenschaftliche Überlegungen legen die Annahme nahe, dass der Mond durch einen Zusammenstoß der Proto-Erde mit dem marsgroßen Protoplaneten Theia entstand.
Der Mond stabilisiert die Erdachse, deren Neigung mit ± 1,3° um den Mittelwert 23,3° schwankt. Diese Schwankung wäre viel größer, wenn die Präzessionsperiode von etwa 26 000 Jahren in Resonanz mit einer der vielen periodischen Störungen stünde, die von der Gravitation der anderen Planeten stammen und die Erdbahn beeinflusst. Gegenwärtig beeinflusst nur eine geringe Störung von Jupiter und Saturn mit einer Periode von 25 760 Jahren die Erde, ist aber zu schwach, um viel zu verändern. Die Neigung der Erdachse wäre, wie Simulationen zeigen, im gegenwärtigen Zustand des Sonnensystems instabil, wenn die Neigung im Bereich von etwa 60° bis 90° läge; die tatsächliche Neigung von gut 23° hingegen ist weit genug von starken Resonanzen entfernt und bleibt stabil.
Hätte die Erde jedoch keinen Mond, so wäre die Präzessionsperiode etwa dreimal so groß, weil der Mond etwa zwei Drittel der Präzessionsgeschwindigkeit verursacht und ohne ihn nur das Drittel der Sonne übrigbliebe. Diese deutlich längere Präzessionsperiode läge nahe vielen Störungen, von denen die stärksten mit Perioden von 68 750, 73 000 und 70 800 Jahren erhebliche Resonanzeffekte verursachen würden. Unter diesen Umständen zeigen Rechnungen, dass alle Achsneigungen zwischen 0° und etwa 85° instabil wären. Dabei würde eine typische Schwankung von 0° bis 60° weniger als 2 Millionen Jahre erfordern.
Der Mond verhindert diese Resonanzen und stabilisiert so mit seiner relativ großen Masse die Neigung der Erdachse gegen die Ekliptik. Dies stabilisiert auch die Jahreszeiten und schafft so günstige Bedingungen für die Entwicklung des Lebens auf der Erde.
Weitere Begleiter.
Außer dem Mond existieren kleinere erdnahe Objekte: Koorbitale Asteroiden, die zwar nicht die Erde umkreisen, aber in einer 1:1-Bahnresonanz auf einer Hufeisenumlaufbahn um die Sonne kreisen. Beispiele dafür sind der etwa 50 bis 110 Meter große Asteroid 2002 AA29 und der etwa zehn bis 30 Meter große Asteroid 2003 YN107.
Auch in bzw. bei den Lagrange-Punkten L4 und L5 der Erde können sich Begleiter aufhalten, die dann Trojaner heißen. Bislang wurde ein einziger natürlicher Trojaner der Erde entdeckt, der etwa 300 Meter große Asteroid 2010 TK7.
Entstehung der Erde.
Entstehung des Erdkörpers.
Die Erde entstand wie die Sonne und ihre anderen Planeten vor etwa 4,6 Milliarden Jahren, als sich der Sonnennebel verdichtete. Die Erde wurde, wie heute allgemein angenommen, während der ersten 100 Millionen Jahre intensiv von Asteroiden bombardiert. Heute fallen nur noch wenige Objekte vom Himmel. Dort erscheinen die meisten Objekte als Meteore und sind kleiner als 1 cm. Auf der Erde sind im Gegensatz zum Mond fast alle Einschlagkrater durch geologische Prozesse verschwunden. Die junge Erde erhitzte sich durch die kinetische Energie der Einschläge während des schweren Bombardements und durch die Wärmeproduktion des radioaktiven Zerfalls, bis sie größtenteils aufgeschmolzen war. Danach differenzierte sich gravitativ der Erdkörper in einen Erdkern und einen Erdmantel. Dabei sanken die schwersten Elemente, vor allem Eisen, zum Schwerpunkt der Erde, wobei auch Wärme frei wurde. Leichte Elemente, vor allem Sauerstoff, Silizium und Aluminium, stiegen nach oben und aus ihnen bildeten sich hauptsächlich silikatische Minerale, aus denen auch die Gesteine der Erdkruste bestehen. Da die Erde vorwiegend aus Eisen und Silikaten besteht, hat sie wie alle terrestrischen Planeten eine recht hohe mittlere Dichte von 5,515 g/cm³.
Die Erdoberflächen-Entwicklung im Wechselspiel der geologischen und biologischen Faktoren wird als Erdgeschichte bezeichnet.
Herkunft des Wassers.
Woher das Wasser auf der Erde kommt, und insbesondere warum die Erde deutlich mehr Wasser hat als die anderen erdähnlichen Planeten, ist bis heute nicht befriedigend geklärt. Ein Teil des Wassers dürfte als Wasserdampf aus Magma ausgegast sein, also letztlich aus dem Erdinneren kommen. Ob das aber für die heutige Menge an Wasser ausreicht, ist fraglich. Weitere große Anteile könnten von Einschlägen von Kometen, transneptunischen Objekten oder wasserreichen Asteroiden (Protoplaneten) aus den äußeren Bereichen des Asteroidengürtels stammen. Wobei Messungen des Isotopen-Verhältnisses von Deuterium zu Protium (D/H-Verhältnis) eher auf Asteroiden deuten, da in Wassereinschlüssen in kohligen Chondriten ähnliche Isotopen-Verhältnisse gefunden wurden wie im Ozeanwasser, wohingegen das Isotopen-Verhältnis von Kometen und transneptunischen Objekten nach bisherigen Messungen nicht mit dem von irdischem Wasser übereinstimmt.
Leben.
Die Erde ist der einzige bekannte Planet, auf dem eine Biosphäre mit Lebensformen existiert. Das Leben begann nach heutigem Wissen möglicherweise bereits relativ schnell nach dem Ende des letzten schweren Bombardements großer Asteroiden: der letzten Phase der Entstehung des Sonnensystems, die von der Erdentstehung von vor etwa 4,6 bis vor etwa 3,9 Milliarden Jahren dauerte. Danach kühlte sich die Erde ab, so dass sich eine stabile Kruste bildete, auf der sich dann Wasser sammeln konnte. Das Leben entwickelte sich, wie Hinweise vermuten lassen, die jedoch nicht von allen Wissenschaftlern anerkannt werden, schon (geologisch) kurze Zeit später:
In 3,85 Milliarden Jahre altem Sedimentgestein aus der Isua-Region im Südwesten Grönlands wurden in den Verhältnissen von Kohlenstoffisotopen Anomalien entdeckt, die auf biologischen Stoffwechsel deuten könnten. Das Gestein kann aber auch statt Sedimentgestein nur stark verändertes Ergussgestein sein, ohne dabei auf Leben zu deuten. Die ältesten direkten, allerdings umstrittenen Hinweise auf Leben sind Strukturen in 3,5 Milliarden Jahre alten Gesteinen der Warrawoona-Gruppe im Nordwesten Australiens und im Barberton-Grünsteingürtel in Südafrika, die als von Cyanobakterien verursacht gedeutet werden. Die ältesten eindeutigen Lebensspuren auf der Erde sind 1,9 Milliarden Jahre alte Fossilien aus der Gunflint-Formation in Ontario, die Bakterien oder Archaeen gewesen sein könnten.
Mit der Erdklimageschichte sind untrennbar die chemische wie die biologische Evolution verknüpft. Obwohl anfangs die Sonne deutlich weniger als heute strahlte (vgl. Paradoxon der schwachen jungen Sonne), existieren Hinweise auf irdisches Leben, grundsätzlich vergleichbar dem heutigen, „seit es Steine gibt“.
Des pflanzlichen Lebens Stoffwechsel, also die Photosynthese, reicherte die Erdatmosphäre mit molekularem Sauerstoff an, so dass sie ihren oxidierenden Charakter bekam. Zudem veränderte die Pflanzendecke merklich die Albedo und damit die Energiebilanz der Erde.
Die Lebensformen auf der Erde entstanden in der permanenten Wechselwirkung zwischen dem Leben und den herrschenden klimatischen, geologischen und hydrologischen Umweltbedingungen und bilden die Biosphäre: eine systemische Ganzheit, die in großflächigen Biomen, Ökosystemen und Biotopen beschrieben wird.
Mensch und Umwelt.
Auf der Erde existiert seit rund 3 bis 2 Millionen Jahren die Gattung Homo, zu der der seit rund 300.000 Jahren existierende anatomisch moderne Mensch gehört. Die Menschen lebten bis zur Erfindung von Pflanzenbau und Nutztierhaltung im Vorderen Orient (ca. 11.), in China (ca. 8.) und im mexikanischen Tiefland (ca. 6. Jahrtausend v. Chr.) ausschließlich als Jäger und Sammler. Seit dieser neolithischen Revolution verdrängten die vom Menschen gezüchteten Kulturpflanzen und -tiere bei der Ausbreitung der Zivilisationen die Wildpflanzen und -tiere immer mehr. Der Mensch beeinflusst spätestens seit der industriellen Revolution das Erscheinungsbild und die Entwicklung der Erde immer mehr: Große Landflächen wurden in Industrie- und Verkehrsflächen umgewandelt.
Dieser anthropogene Wandel wirkte bereits zu Beginn der Neuzeit in einigen Erdregionen deutlich negativ: So entstand in Mitteleuropa seit dem 16. Jahrhundert eine dramatische Holznot, die eine erhebliche Entwaldung verursachte. Daraus entstanden im 18. und 19. Jahrhundert die ersten größeren Bewegungen in Europa und Nordamerika für Umwelt- und Naturschutz. Umweltverschmutzung und -zerstörung globalen Ausmaßes nahmen im 20. Jahrhundert schnell zu. Die zugrundeliegenden Zusammenhänge zeigte die 1972 erschienene Studie „Grenzen des Wachstums“ erstmals umfassend auf. Der internationale Umweltschutz-Aktionstag ist seit 1990 der 22. April und heißt Tag der Erde. 1992 kam eine erste „Warnung der Welt-Wissenschaftsgemeinde an die Menschheit“ zur dringenden Reduzierung schädlicher Einflüsse auf die Erde.
Das Jahr 2008 wurde von den Vereinten Nationen unter Federführung der UNESCO zum Internationalen Jahr des Planeten Erde (IYPE) erklärt. Diese bislang größte weltweite Initiative in den Geowissenschaften soll die Bedeutung und den Nutzen der modernen Geowissenschaften für die Gesellschaft und für eine nachhaltige Entwicklung verdeutlichen. Zahlreiche Veranstaltungen und interdisziplinäre Projekte auf internationaler und nationaler Ebene erstreckten sich von 2007 bis 2009 über einen Zeitraum von insgesamt drei Jahren.
Um die entscheidenden ökologischen Belastungsgrenzen der Erde zu quantifizieren, formulierte 2009 ein 28-köpfiges Wissenschaftlerteam unter Leitung von Johan Rockström (Stockholm Resilience Centre) die "Planetary Boundaries":
Menschlicher Einfluss auf die Zukunft.
Die nähere Zukunft der Erdoberfläche hängt sehr stark von der Entwicklung des menschlichen Umwelteinflusses ab.
Dazu veröffentlichten 15 372 Wissenschaftler aus 184 Ländern am 13. November 2017 eine „zweite Warnung an die Menschheit“, da es außer beim Schutz der Ozonschicht und den Fischfangquoten keine realen Fortschritte gegeben hat: Fast alle wichtigen ökologischen Kennzahlen haben sich drastisch verschlechtert. Besonders beunruhigend sind die Trends bei der Klimaerwärmung, der Entwaldung, der Zunahme toter Gewässer und der Verringerung der Artenvielfalt. Die Wissenschaftler sehen die Lebensgrundlagen der Menschheit ernsthaft gefährdet und rufen zu kurzfristigen Gegenmaßnahmen auf.
Zukunft.
Veränderungen durch das Altern der Sonne.
Die fernere Zukunft der Erde ist eng an die der Sonne gebunden.
Im Sonnenkern vermindert die Kernfusion die Teilchenzahl (4 p + 2 e → He2+), aber kaum die Masse. Daher wird der Kern langsam schrumpfen und heißer werden. Außerhalb des Kerns wird sich die Sonne ausdehnen, das Material wird durchlässiger für Strahlung, sodass die Leuchtkraft der Sonne etwa um 10 % über die nächsten 1,1 Milliarden Jahre und um 40 % nach 3,5 Milliarden Jahren zunehmen wird.
Sofern obige Sonnenveränderungen als Haupteinflussfaktor auf die Erde angenommen werden, wird vermutet, dass die Erde noch etwa 500 Millionen Jahre lang ähnlich wie heute belebt bleiben könne. Danach, so zeigen Klimamodelle, wird der Treibhauseffekt instabil und höhere Temperatur führt zu mehr Wasserdampf in der Atmosphäre, was wiederum den Treibhauseffekt verstärken wird. Der warme Regen wird durch Erosion den anorganischen Kohlenstoffzyklus beschleunigen, wodurch der CO2-Gehalt der Atmosphäre auf etwa 10 ppm in etwa 900 Millionen Jahren (verglichen mit 280 ppm in vorindustrieller Zeit) stark abnehmen wird, sodass mit den Pflanzen auch die Tiere verhungern werden. Nach einer weiteren Milliarde Jahren wird das gesamte Oberflächenwasser verschwunden sein und die globale Durchschnittstemperatur der Erde +70 °C erreichen.
Verlassen des Sonnensystems.
Ein „Wild-Card“-Ereignis wäre das Herausschleudern der Erde aus dem Sonnensystem durch das nahe Vorbeiziehen eines Sterns (aufgrund der Wirkung von dessen Gravitation auf die Erde). Die Wahrscheinlichkeit dafür, dass das innerhalb der nächsten fünf Milliarden Jahre passiert, liegt bei etwa 1 zu 100.000 (0,001 %). In diesem Szenario würden die Ozeane innerhalb einiger Millionen Jahre fast vollständig gefrieren und nur noch vereinzelte Taschen flüssigen Wassers etwa 14 km unter der Oberfläche bestehen. Mit einer Wahrscheinlichkeit von etwa 1 zu 3.000.000 zieht stattdessen ein Doppelstern vorbei, nimmt die Erde in eine Umlaufbahn auf und hält so sogar die Biosphäre intakt.
Zerstörung.
Verschiedene weitere Wild-Card-Ereignisse könnten die Erde schon bald zerstören. Beispiele hierfür sind:
Ohne Wild Cards oder menschliches Einwirken wird die Erde ab in etwa sieben Milliarden Jahren in die Sonne abstürzen und verglühen. Die oben beschriebene Vergrößerung sowie die Leuchtkraftzunahme der Sonne wird sich zuvor deutlich beschleunigt haben. Irgendwann wird die Sonne als Roter Riese bis an die heutige Erdbahn reichen. Zwar wird die Sonne als Roter Riese durch starken Sonnenwind etwa 30 % ihrer Masse verlieren, sodass rechnerisch der Erdbahnradius auf 1,7 AE anwachsen wird, aber die Erde wird in der nahen, sehr diffusen Sonnenoberfläche eine ihr nachlaufende Gezeitenwelle hervorrufen, die an ihrer Bahnenergie zehren und so die Flucht vereiteln wird.
Weblinks.
Medien |
1321 | 681808 | https://de.wikipedia.org/wiki?curid=1321 | Mond | Der Mond (mittelhochdeutsch "mâne;" ) ist der einzige natürliche Satellit der Erde. Sein Name ist etymologisch verwandt mit "Monat". Weil die Trabanten anderer Planeten des Sonnensystems im übertragenen Sinn meist ebenfalls als Monde bezeichnet werden, spricht man zur Vermeidung von Verwechslungen mitunter vom Erdmond. Er ist mit einem Durchmesser von 3476 km der fünftgrößte bekannte Mond des Sonnensystems und gegenüber seinem Zentralkörper Erde außergewöhnlich groß (über ein Viertel des Erddurchmessers).
Weil der Mond die Erde in einem mittleren Abstand von nur rund 384.400 Kilometern umkreist (siehe Bahngestalt: etwa 30 Erddurchmesser), ist er bisher der einzige fremde Himmelskörper, den Menschen betreten haben, und auch der am besten erforschte. Trotzdem gibt es noch viele Unklarheiten, etwa in Bezug auf seine Entstehung und manche Geländeformen. Seine jüngere Entwicklung ist jedoch weitgehend geklärt.
Sein astronomisches Symbol ☾ ist die abnehmende Mondsichel, wie sie (nach rechts offen) von der Nordhalbkugel der Erde aus erscheint.
Etymologie.
Die gemeingermanische Bezeichnung des Himmelskörpers ist in Mittelhochdeutsch "mān[e]," in Althochdeutsch "māno" und geht zurück auf die Indogermanische Ursprache "mēnōt-" „Mond; Mondwechsel, Monat“, von indogermanisch *"mē(n)s-", ableitbar vom Verbalstamm *"mē-" (der sich auch in deutsch „messen“ und lateinisch "mensis" „Monat“, ursprünglich „Mondmonat“, findet).
Umlaufbahn.
Scheinbare Bewegung.
Der Mond umkreist die Erde bezüglich der Fixsterne in durchschnittlich 27 Tagen, 7 Stunden und 43,7 Minuten. Er umläuft von Westen nach Osten die Erde im gleichen Drehsinn, mit dem die Erde um ihre Achse rotiert. Er umkreist für einen irdischen Beobachter die Erde wegen ihrer viel schnelleren Rotation scheinbar an einem Tag – wie auch die Sonne, die Planeten und die Fixsterne – und geht wie diese im Osten auf und im Westen unter. Der Mond bewegt sich vor dem Hintergrund der Fixsterne im prograden ("rechtläufigen") Drehsinn der Erdrotation, sodass sein scheinbarer Erdumlauf etwa 50 Minuten länger als 24 Stunden dauert. Dies addiert sich in einem Monat zu einem ganzen Tag, da der Mond in dieser Zeit tatsächlich die Erde einmal umläuft.
Die scheinbaren Bahnen von Mond und Sonne liegen ähnlich, da die Mondbahn nur geringfügig (derzeit 5,2°) gegen die Ekliptik geneigt ist. Der Mond steht für einen Beobachter auf der Nordhalbkugel über 5,2° nördlich des Wendekreises (d. h. bei einer geografischen Breite über 28,6°) bei seinem täglichen Höchststand "(Kulmination)" immer im Süden, für einen Beobachter auf der Südhalbkugel südlicher als −28,6° immer im Norden (für die Sonne beträgt der analoge Winkel 23,4° – die Breite der Wendekreise). Diese ±28,6° sind der Maximalwert. Dieser Wert schwankt in einem 18-jährigen Zyklus zwischen dem Minimum 18,3° und dem Maximum 28,6°, weil die Lage der Mondbahn (bei fast konstanter Bahnneigung von 5,2°) langsam gegenüber der Ekliptik rotiert, was von der Präzession (Kreiselbewegung) der Mondbahnebene infolge der Erdabplattung von 0,3 % verursacht wird.
Die scheinbare Größe des Mondes aus Erdsicht schwankt entfernungsabhängig zwischen 29,4′ und 33,5′ um einen Mittelwert von knapp 32′ (Winkelminuten), etwa 0,5°. Die Größe der Sonnenscheibe schwankt zwischen 31,5′ bis 32,5′ um einen ähnlichen Mittelwert, da die im Durchmesser rund vierhundertmal größere Sonne ungefähr vierhundertmal weiter als der Mond entfernt ist. Bei geeigneter Konstellation kann der Mond daher die Sonne vollständig verdecken und eine totale Sonnenfinsternis eintreten.
Bahngestalt.
Die Bahn des Mondes um die Erde ist etwa kreisförmig, genauer elliptisch. In einem der beiden Brennpunkte der Ellipse befindet sich nicht der Erdmittelpunkt, sondern der gemeinsame Schwerpunkt, das Baryzentrum. Der mittlere Abstand des Schwerpunktes des Mondes vom Baryzentrum – die große Halbachse der Ellipse – misst 383.399 km, etwa 60 Erdradien. Der Erdmittelpunkt ist weniger als einen Erdradius vom Baryzentrum entfernt; das Baryzentrum liegt im Erdmantel. Der Abstand des Baryzentrums vom Mittelpunkt der Ellipse, ihre Exzentrizität, beträgt im Mittel 21.296 km oder 5,55 % der großen Halbachse. Um so viel ist der erdnächste Punkt der Bahn, das Perigäum, näher bzw. der erdfernste Punkt, das Apogäum, weiter als die große Halbachse vom Baryzentrum entfernt.
Der Mond umläuft zusammen mit der Erde die Sonne, durch die Bewegung um die Erde pendelt der Mond jedoch um eine gemeinsame Ellipsenbahn. Die Variation der Gravitation während dieser Pendelbewegung führt zusammen mit geringeren Störungen durch die anderen Planeten zu Abweichungen von einer exakten Keplerellipse um die Erde.
Die Durchgänge des Mondes durch die Bahnebene der Erde (die Ekliptik) nennt man "Mondknoten" (oder Drachenpunkte). Der aufsteigende Knoten ist der Übergang auf die Nordseite der Ekliptik, der absteigende markiert den Übergang auf die südliche Seite. Der erdnächste Punkt der Bahn wird nicht nach genau einem Umlauf (relativ zu den Fixsternen) des Mondes wieder erreicht. Durch diese Apsidendrehung umläuft das Perigäum die Erde in 8,85 Jahren. Auch zwei aufsteigende Knotendurchgänge erfolgen nicht exakt nach einem Umlauf, sondern bereits nach kürzerer Zeit. Die Mondknoten umlaufen die Erde folglich "retrograd," das heißt gegen die Umlaufrichtung des Mondes in 18,61 Jahren. Wenn ein Knotendurchgang mit Neumond zusammenfällt, kommt es zu einer Sonnenfinsternis, und falls der Knotendurchgang mit Vollmond zusammenfällt, kommt es zu einer Mondfinsternis.
Dieser Zyklus führt auch zu den Mondwenden: Der Aufgangsort des Mondes am Horizont schwankt während eines Monats zwischen einem südlichsten und einem nördlichsten Punkt hin und her, so wie es auch bei der Sonne im Verlauf eines Jahres der Fall ist (vgl. Obsigend und Nidsigend). Im Laufe des Zeitraumes von 18,61 Jahren verändert sich die Spanne zwischen diesen beiden Extrempunkten in ihrem Abstand: Der Zeitpunkt (zuletzt im Jahre 2006), an dem diese Punkte am weitesten auseinanderliegen, heißt "große Mondwende," der des geringsten Abstandes "kleine Mondwende." In der frühzeitlichen Astronomie spielten diese Mondwenden eine wichtige Rolle.
Bahnperiode.
Die Dauer eines Bahnumlaufs des Mondes, den "Monat" (von „Mond“), kann man nach verschiedenen Kriterien festlegen, die jeweils unterschiedliche Aspekte abdecken.
Bei diesen Werten handelt es sich um Mittelwerte. Insbesondere die Längen einzelner synodischer Monate schwanken durch die Wanderung der Neumondposition über die Bahnellipse. Die Monatslänge nimmt langsam zu, siehe Abschnitt: Vergrößerung der Umlaufbahn.
Mondphasen.
Von der Erde aus gesehen erscheint der Mond unter einem Winkel von rund einem halben Grad (0,5°), sein scheinbarer Durchmesser schwankt abhängig von der Entfernung zur Erde zwischen 29′ 10″ und 33′ 30″. Für Beobachter auf der Erde ist die voll beleuchtete Mondscheibe damit ungefähr ebenso groß wie die Sonnenscheibe (31′ 28″ bis 32′ 32″), doch verändert sich der Anblick im Laufe eines Monats.
Das Aussehen des Mondes, seine Lichtgestalt, variiert im Laufe seines Bahnumlaufs und durchläuft die Mondphasen:
Die Zahlen in Klammern beziehen sich auf vorstehende Abbildung. Der Neumond ist von der nahen Sonne überstrahlt, durch Kamerareflexe angedeutet.
Mondalter.
Die Zeitspanne seit dem letzten Neumond wird als "Mondalter" bezeichnet und in Tagen angegeben. Beispielsweise ist Vollmond am 15. Tag des synodischen Monats und das Mondalter dann 14 Tage (wenn Neumond = 0). <br>
Manchmal ist aber der Vollmond schon am 14. Tag, weil die Mondbahn elliptisch ist und am Sternhimmel unterschiedlich schnell verläuft.
Beim Mondalter 1 oder 2 wird die schmale sichelförmige Lichtgestalt des zunehmenden Mondes – die Mondsichel – am tiefen westlichen Abendhimmel kurz vor ihrem Untergang erstmals sichtbar und erscheint dem nördlich stehenden Betrachter als nach Süden zu offene bzw. nach rechts gekrümmte, konkav-konvexe Figur. Dieses Neulicht gilt in einigen religiös geprägten Kalendern als Beginn des Monats.
Statt der früheren Merkregel mit dem zweimal geschwungenen Z (𝔷) für "zunehmend" ist die "Klammer zu" viel einfacher. Mit etwas Raumvorstellung ist aber klar, dass die untergegangene Sonne von rechts die rechte Mondseite beleuchtet.
Einem Betrachter in südlichen Breiten erscheint die Mondsichel ebenfalls tiefstehend im Westen, aber nach "rechts" geöffnet Richtung Norden, wo für ihn der Mond den höchsten Stand erreicht wie ebenso die Sonne zu Mittag. An Beobachtungsorten in Äquatornähe erscheint die Figur im Westen eher waagrecht „auf dem Rücken“ liegend bzw. nach oben hin offen, da hier der Höhenwinkel einer Kulmination größer ist. Diese Abhängigkeit der scheinbaren Lage der Mondfigur vom Breitengrad spiegelt sich bei der Verwendung einer symbolischen Mondsichel in Form einer Schale („Mondschiffchen“) auf der Staatsflagge einiger äquatornaher Länder wider (Beispiel: Flagge Mauretaniens).
Die nicht unmittelbar von der Sonne beleuchteten Anteile der erdzugewandten Mondseite sind dabei nie völlig dunkel, denn sie werden durch das von der sonnenbeleuchteten Erde zurückgeworfene Licht – Erdlicht oder Erdschein genannt – erhellt. Dessen Widerschein durch die Reflexion an Stellen der Mondoberfläche wird auch "Aschgraues Mondlicht" genannt. Es ist am besten in der Dämmerung einige Tage vor oder nach Neumond zu sehen, denn dann stört weder viel Tages- noch Mondlicht, und der Mond hat nahezu „Vollerde“. Seine Ursache wurde schon von Leonardo da Vinci richtig erkannt. Mit einem Fernglas selbst geringer Vergrößerung sind auf den nur durch die Erde beschienenen Mondflächen sogar Einzelheiten erkennbar, denn aufgrund des fast vierfachen Durchmessers und des höheren Rückstrahlungsvermögens (Albedo) der Erde ist die „Vollerde“ rund 50-mal so hell wie der Vollmond, etwa 10 statt 0,2 lux. Messungen des aschgrauen Mondlichts erlauben Rückschlüsse auf Veränderungen der Erdatmosphäre.
Die ständig erdabgewandte Rückseite des Mondes unterliegt entsprechend versetzt dem Phasenwechsel: Bei Neumond wird sie vom Sonnenlicht vollständig beschienen.
Die beschienene Mondfläche (Überdeckungsgrad) kann angegeben werden mit formula_1, wobei formula_2 die Elongation (d. h., der Winkel zwischen Mond, Erde und Sonne) ist.
Finsternisse.
Verfinsterungen treten auf, wenn die Himmelskörper Sonne und Mond mit der Erde auf einer Linie liegen. Dazu kommt es nur bei Vollmond oder Neumond und wenn der Mond sich dann nahe einem der zwei Mondknoten befindet.
Mondfinsternis.
Bei einer Mondfinsternis, die nur bei Vollmond auftreten kann, steht die Erde zwischen Sonne und Mond. Eine Mondfinsternis kann auf der gesamten Nachtseite der Erde beobachtet werden und dauert maximal 3 Stunden 40 Minuten.
Man unterscheidet
Eine Mondfinsternis ist vom Mond aus gesehen eine Sonnenfinsternis. Dabei verschwindet die Sonne hinter der schwarzen Erde. Bei einer totalen Mondfinsternis herrscht auf der ganzen Mondvorderseite totale Sonnenfinsternis, bei einer partiellen Mondfinsternis ist die Sonnenfinsternis auf dem Mond nur in einigen Gebieten total, und bei einer Halbschatten-Mondfinsternis herrscht auf dem Mond partielle Sonnenfinsternis. Auf dem Mond kann keine ringförmige Sonnenfinsternis beobachtet werden, da der scheinbare Durchmesser der Erde im Vergleich zu dem der Sonne viel größer ist. Lediglich wird der Rand der schwarzen Erdscheibe zu einem kupferrot schimmernden Ring, der durch die beschriebene Lichtstreuung in der Erdatmosphäre entsteht und dem Mond auf der Erde seine Farbe verleiht.
Sonnenfinsternis.
Bei einer Sonnenfinsternis, die nur bei Neumond auftreten kann, steht der Mond zwischen Sonne und Erde. Eine Sonnenfinsternis kann nur in den Gegenden beobachtet werden, die den Kern- oder Halbschatten des Mondes durchlaufen; diese Gegenden sind meist lange, aber recht schmale Streifen auf der Erdoberfläche.
Man unterscheidet
Eine "Sonnenfinsternis" wird nur vom irdischen Beobachter als solche wahrgenommen. Die Sonne leuchtet natürlich weiter, dagegen liegt die Erde im Schatten des Mondes. Entsprechend zur Mondfinsternis müsste man korrekterweise also von einer "Erdfinsternis" sprechen.
Sarosperiode.
Die "Sarosperiode" kannten bereits die Chaldäer (um etwa 1000 v. Chr.), dabei wiederholen sich Finsternisse nach einem Zeitraum von 18 Jahren und 11 Tagen. Nach 223 synodischen beziehungsweise 242 drakonitischen Monaten (von lat. "draco," Drache, altes astrologisches Symbol für die Mondknoten, da man dort einen mond- und sonnenfressenden Drachen vermutete) stehen Sonne, Erde und Mond fast wieder gleich zueinander, so dass sich eine Finsternis nach 18 Jahren und 11,33 Tagen erneut ergibt. Die Sarosperiode wird dadurch verursacht, dass bei einer Finsternis sowohl die Sonne als auch der Mond nahe der Knoten der Mondbahn liegen müssen, die in 18 Jahren einmal um die Erde laufen. Thales nutzte die Sarosperiode, die er bei einer Orientreise kennengelernt hatte, für seine Finsternisprognose vom 28. Mai 585 v. Chr., wodurch die Schlacht am Halys zwischen Lydern und Medern abgebrochen und ihr Krieg beendet wurde.
Ein Saros-Zyklus ist eine Folge von Sonnen- oder Mondfinsternissen, die jeweils im Abstand einer Sarosperiode aufeinanderfolgen. Da die Übereinstimmung der 223 bzw. 242 Monate nicht exakt ist, reißt ein Saros-Zyklus etwa nach 1300 Jahren ab. In diesem Zeitraum beginnen aber gleich viele neue Zyklen, und es existieren immer ungefähr 43 gleichzeitige verschachtelte Saros-Zyklen.
Vergrößerung der Umlaufbahn.
Der mittlere Erde-Mond-Abstand wächst aufgrund der Gezeitenreibung jährlich etwa um 3,8 cm (siehe Lunar Laser Ranging). Dabei wird Drehimpuls (hauptsächlich) der Erdrotation in Bahndrehimpuls verwandelt (hauptsächlich des Mondes, siehe Tabelle).
Rotation und Libration.
Als der Mond noch flüssig und der Erde viel näher war, bremste umgekehrt das Feld der Erde die Rotation des Mondes schnell bis zur gebundenen Rotation. Seither dreht er sich pro Umlauf genau einmal um die eigene Achse, zeigt uns stets die gleiche Seite. Der gleichmäßigen Rotation ist eine sehr geringe Pendelbewegung überlagert, die sogenannte echte Libration. Der größte Teil der Libration ist jedoch ein nur scheinbares Pendeln, bedingt durch die variable Winkelgeschwindigkeit der Bahnbewegung. Wegen der Libration und der Parallaxe, sprich durch Beobachtung von verschiedenen Punkten etwa bei Mondaufgang und Monduntergang, sind von der Erde aus insgesamt fast 59 % der Mondoberfläche einsehbar bzw. ist von Punkten dieser Fläche aus die Erde zumindest zeitweise sichtbar. Mit der Raumsonde Lunik 3 konnte 1959 erstmals auch die Rückseite des Mondes beobachtet werden.
Physikalische Eigenschaften.
Gestalt.
Der mittlere Äquatordurchmesser des Mondes beträgt 3476,2 km und der Poldurchmesser 3472,0 km. Sein mittlerer Durchmesser insgesamt – als volumengleiche Kugel – beträgt 3474,2 km.
Die Gestalt des Mondes gleicht mehr der eines dreiachsigen Ellipsoids als der einer Kugel. An den Polen ist er etwas abgeplattet, und die in Richtung der Erde weisende Äquatorachse ist etwas größer als die darauf senkrecht stehende Äquatorachse. Der Äquatorwulst ist auf der erdabgewandten Seite dabei noch deutlich größer als auf der erdnahen Seite.
In Richtung Erde ist der Durchmesser durch die Gezeitenkraft am größten. Hierbei ist der erdferne Mondradius an dieser Achse größer als der erdnahe. Dies ist überraschend, und bis heute nicht schlüssig erklärt. Pierre-Simon Laplace hatte schon 1799 vermutet, dass der Äquatorwulst zur erdabgewandten Seite hin stärker ausgebildet ist und die Bewegung des Mondes beeinflusst und dass diese Form nicht einfach ein Ergebnis der Drehung des Mondes um die eigene Rotationsachse sein kann. Seitdem rätseln Mathematiker und Astronomen, wie der Mond diese Ausbuchtung gebildet und behalten hat, nachdem sein Magma erstarrt war.
Atmosphäre.
Der Mond hat keine Atmosphäre im eigentlichen Sinn – der Mondhimmel ist z. B. nicht blau –, sondern nur eine Exosphäre. Sie besteht zu etwa gleichen Teilen aus Helium, Neon, Wasserstoff und Argon und hat ihren Ursprung in eingefangenen Teilchen des Sonnenwindes. Ein sehr kleiner Teil entsteht auch durch Ausgasungen aus dem Mondinneren, wobei insbesondere 40Ar, das durch Zerfall von 40K im Mondinneren entsteht, von Bedeutung ist. Allerdings wird ein Teil dieses 40Ar durch den Sonnenwind wieder auf die Mondoberfläche zurückgetrieben und dort in die obersten Partikel des Regoliths implantiert. Da 40K früher häufiger war und damit mehr 40Ar ausgaste, kann durch Messung des 40Ar/36Ar-Verhältnisses von Mondmaterial bestimmt werden, zu welcher Zeit es exponiert war. Es besteht ein Gleichgewicht zwischen der Implantation und thermischem Entweichen.
Oberflächentemperatur.
Aufgrund der langsamen Rotation des Mondes und seiner nur äußerst dünnen Gashülle gibt es auf der Mondoberfläche zwischen der Tag- und der Nachtseite sehr große Temperaturunterschiede. Mit der Sonne im Zenit steigt die Temperatur auf etwa 130 °C und fällt in der Nacht auf etwa −160 °C. Die Durchschnittstemperatur über die gesamte Oberfläche beträgt 218 K = −55 °C. In manchen Gebieten gibt es lokale Anomalien, in Form von einer etwas höheren oder auch etwas niedrigeren Temperatur an benachbarten Stellen. Krater, deren Alter als relativ jung angesehen wird, wie zum Beispiel Tycho, sind nach Sonnenuntergang etwas wärmer als ihre Umgebung. Wahrscheinlich können sie durch eine dünnere Staubschicht die während des Tages aufgenommene Sonnenenergie besser speichern. Andere positive Temperaturanomalien gründen eventuell auf örtlich etwas erhöhter Radioaktivität.
Masse.
Die Bestimmung der Mondmasse kann über das newtonsche Gravitationsgesetz erfolgen, indem die Bahn eines Körpers im Gravitationsfeld des Mondes untersucht wird. Eine recht gute Näherung für die Mondmasse erhält man bereits, wenn man das Erde-Mond-System als reines Zweikörperproblem betrachtet.
Erde und Mond stellen in erster Näherung ein Zweikörpersystem dar, wobei beide Partner ihren gemeinsamen Schwerpunkt formula_3 umkreisen. Beim Zweikörpersystem aus Erde und Sonne fällt dieser Schwerpunkt praktisch mit dem Sonnenmittelpunkt zusammen, da die Sonne sehr viel massereicher als die Erde ist. Bei Erde und Mond ist der Massenunterschied jedoch nicht so groß, daher liegt der Erde-Mond-Schwerpunkt nicht im Zentrum der Erde, sondern deutlich davon entfernt (aber noch innerhalb der Erdkugel). Bezeichnet man nun mit formula_4 den Abstand des Erdmittelpunkts und mit formula_5 den Abstand des Mondmittelpunkts vom Schwerpunkt formula_3, folgt aus der Definition des Schwerpunkts
dass das Massenverhältnis von Erde "M" zu Mond "m" gerade dem Verhältnis von formula_4 zu formula_5 entspricht. Somit geht es nur darum, wie groß formula_4 und formula_5 sind – also wo sich der Schwerpunkt des Systems befindet.
Ohne den Mond und dessen Schwerkraft durchliefe die Erde eine elliptische Bahn um die Sonne. Tatsächlich bewegt sich der Schwerpunkt des Erde-Mond-Systems auf einer elliptischen Bahn. Die Rotation um den gemeinsamen Schwerpunkt erzeugt eine leichte Welligkeit in der Erdbahn, die eine kleine Verschiebung der von der Erde aus gesehenen Position der Sonne verursacht. Aus der gemessenen Größe dieser Verschiebung wurde formula_4 zu etwa 4670 km berechnet, also etwa 1700 km unter der Erdoberfläche (der Radius der Erde beträgt 6378 km). Da der Mond keine genaue Kreisbahn um die Erde beschreibt, berechnet man formula_5 über die "mittlere" große Halbachse abzüglich formula_4. Es gilt also formula_5 = 384.400 km − 4670 km = 379.730 km. Damit ergibt sich für das Massenverhältnis
Die Masse des Mondes beträgt daher etwa der Masse der Erde. Durch Einsetzen der Erdmasse "M" ≈ 5,97 · 1024 kg ergibt sich die Masse des Mondes zu
Genauere Messungen vor Ort ergeben einen Wert von "m" ≈ 7,349 · 1022 kg.
Magnetfeld des Mondes.
Allgemeines.
Die Analyse des Mondbrockens "Troctolite 76535," der mit der Mission Apollo 17 zur Erde gebracht wurde, deutet auf ein früheres dauerhaftes Magnetfeld des Erdmondes und damit auf einen ehemals oder immer noch flüssigen Kern hin. Jedoch hat der Mond inzwischen kein Magnetfeld mehr.
Lokale Magnetfelder.
Interaktion mit dem Sonnenwind.
Der Sonnenwind und das Sonnenlicht lassen auf der sonnenzugewandten Mondseite Magnetfelder entstehen. Dabei werden Ionen und Elektronen aus der Oberfläche freigesetzt. Diese wiederum beeinflussen den Sonnenwind.
Magcons.
Die seltenen „Mondwirbel“ ohne Relief, sogenannte Swirls, fallen außer durch ihre Helligkeit auch durch eine Magnetfeldanomalie auf. Diese werden als Magcon (Magnetic concentration) bezeichnet. Zu ihrer Entstehung gibt es unterschiedliche Theorien. Eine davon geht von großen antipodischen Einschlägen aus, von denen Plasmawolken rund um den Mond liefen, sich auf der Gegenseite trafen und dort den eisenhaltigen Mondboden auf Dauer magnetisierten. Nach einer anderen Vorstellung könnten manche der Anomalien auch Reste eines ursprünglich globalen Magnetfeldes sein.
Geologie des Mondes.
Entstehung des Mondes.
Der Mond hat mit 3476 km etwa ein Viertel des Durchmessers der Erde und weist mit 3,345 g/cm3 eine geringere mittlere Dichte als die Erde auf. Aufgrund seines im Vergleich zu anderen Monden recht geringen Größenunterschieds zu seinem Planeten bezeichnet man Erde und Mond gelegentlich auch als Doppelplanet. Seine im Vergleich zur Erde geringe mittlere Dichte blieb auch lange ungeklärt und sorgte für zahlreiche Theorien zur Entstehung des Mondes.
Das heute weithin anerkannte Modell zur Entstehung des Mondes besagt, dass vor etwa 4,5 Milliarden Jahren der Protoplanet "Theia," ein Himmelskörper von der Größe des Mars, nahezu streifend mit der Protoerde kollidierte. Dabei wurde viel Materie, vorwiegend aus der Erdkruste und dem Mantel des einschlagenden Körpers, in eine Erdumlaufbahn geschleudert, ballte sich dort zusammen und formte schließlich den Mond. Der Großteil des Impaktors vereinte sich mit der Protoerde zur Erde. Nach aktuellen Simulationen bildete sich der Mond in einer Entfernung von rund drei bis fünf Erdradien, also in einer Höhe zwischen 20.000 und 30.000 km. Durch den Zusammenstoß und die frei werdende Gravitationsenergie bei der Bildung des Mondes wurde dieser aufgeschmolzen und vollständig von einem Ozean aus Magma bedeckt. Im Laufe der Abkühlung bildete sich eine Kruste aus den leichteren Mineralen aus, die noch heute in den Hochländern vorzufinden sind.
Die frühe Mondkruste wurde bei größeren Einschlägen immer wieder durchschlagen, so dass aus dem Mantel neue Lava in die entstehenden Krater nachfließen konnte. Es bildeten sich Mare, die erst einige hundert Millionen Jahre später vollständig erkalteten. Das sogenannte letzte große Bombardement endete erst vor 3,8 bis 3,2 Milliarden Jahren, nachdem die Anzahl der Einschläge von Asteroiden vor etwa 3,9 Milliarden Jahren deutlich zurückgegangen war. Danach ist keine starke vulkanische Aktivität nachweisbar, doch konnten einige Astronomen – vor allem 1958/59 der russische Mondforscher Nikolai Kosyrew – vereinzelte Leuchterscheinungen beobachten, sogenannte Lunar Transient Phenomena.
Im November 2005 konnte eine internationale Forschergruppe der ETH Zürich sowie der Universitäten Münster, Köln und Oxford erstmals die Entstehung des Mondes präzise datieren. Dafür nutzten die Wissenschaftler eine Analyse des Isotops Wolfram-182 und berechneten das Alter des Mondes auf 4527 ± 10 Millionen Jahre. Somit ist er 30 bis 50 Millionen Jahre nach der Herausbildung des Sonnensystems entstanden.
Neuere Untersuchungen von deutschen Wissenschaftlern, die das Kristallisationsverhalten des Magmaozeans berücksichtigen, kommen auf ein Alter von 4425 ± 25 Millionen Jahren.
Innerer Aufbau.
Überblick.
Das Wissen über den inneren Aufbau des Mondes beruht im Wesentlichen auf den Daten der vier von den Apollo-Missionen zurückgelassenen Seismometer, die diverse Mondbeben sowie Erschütterungen durch Einschläge von Meteoroiden und durch extra zu diesem Zweck ausgelöste Explosionen aufzeichneten. Diese Aufzeichnungen lassen Rückschlüsse über die Ausbreitung der seismischen Wellen im Mondkörper und damit über den Aufbau des Mondinneren zu, wobei die geringe Anzahl der Messstationen nur sehr begrenzte Einblicke ins Mondinnere liefert. Über die Oberflächengeologie, die bereits durch Beobachtungen von der Erde aus grob bekannt war, wurden durch die von den Apollo- und Luna-Missionen zur Erde gebrachten Mondgesteinsproben sowie durch detaillierte Kartierungen der Geomorphologie, der mineralischen Zusammensetzung der Mondoberfläche und des Gravitationsfeldes im Rahmen der Clementine- und der Lunar-Prospector-Mission neue Erkenntnisse gewonnen.
Seismisch lässt sich die Mondkruste aus Anorthosit (mittlere Gesteinsdichte 2,9 g/cm3) auf der Mondvorderseite in einer durchschnittlichen Tiefe von 60 km gegen den Mantel abgrenzen. Auf der Rückseite reicht sie vermutlich bis in 150 km Tiefe. Die größere Mächtigkeit der Kruste und damit der erhöhte Anteil relativ leichten feldspatreichen Krustengesteins auf der erdabgewandten Seite könnte zumindest teilweise dafür verantwortlich sein, dass das Massezentrum des Mondes etwa 2 km näher an der Erde liegt als sein geometrischer Mittelpunkt. Unterhalb der Kruste schließt sich ein fast vollständig fester Mantel aus mafischem und ultramafischem Gestein (Olivin- und Pyroxenreiche Kumulate) an. Zwischen Mantel und Kruste wird eine dünne Schicht basaltischer Zusammensetzung vermutet, die bei der Auskristallisierung der anderen beiden Gesteinshüllen mit inkompatiblen Elementen angereichert wurde und daher einen hohen Anteil an Kalium, Rare Earth Elements (dt. Seltene Erden) und Phosphor aufweist. Diese spezielle chemische Signatur, die sich auch durch hohe Konzentrationen von Uran und Thorium auszeichnet, wird KREEP genannt. Nach traditionellen Hypothesen tritt diese sogenannte Ur-KREEP-Schicht gleichmäßig verteilt unterhalb der Mondkruste auf. Neueren, aus Daten der Lunar-Prospector-Sonde gewonnenen Erkenntnissen zufolge scheint sich KREEP aber schon während der Ausdifferenzierung von Kruste und Mantel vorwiegend in der Kruste der heutigen Oceanus-Procellarum-Mare-Imbrium-Region angereichert zu haben. Die Wärmeproduktion durch die radioaktiven Elemente wird für den vermuteten „jungen“ Vulkanismus in dieser Mondregion (bis 1,2 Milliarden Jahre vor heute) verantwortlich gemacht.
Die seismische Erkundung des Mondes erbrachte Hinweise auf Unstetigkeitsflächen (Diskontinuitäten) in 270 und 500 km Tiefe, die als Grenzflächen verschieden zusammengesetzter Gesteinshüllen gedeutet werden und deshalb als die Grenzen zwischen oberem und mittlerem (270 km) bzw. mittlerem und unterem (500 km) Mondmantel gelten. Der obere Mantel wird in diesem Modell als quarzführender Pyroxenit interpretiert, der mittlere als mit FeO-angereichterter olivinführender Pyroxenit und der untere Mantel als Olivin-Orthopyroxen-Klinopyroxen-Granat-Vergesellschaftung. Aber auch andere Interpretationen sind möglich.
Über den Mondkern ist kaum etwas bekannt und über dessen genaue Größe und Eigenschaften existieren unterschiedliche Ansichten. Durch aufwendige Aufbereitung seismischer Daten wurde nunmehr ermittelt, dass der Mondkern mit einem Radius von etwa 350 km ungefähr 20 % der Größe des Mondes besitzt (vgl. Erdkern relativ zur Größe der Erde: ≈ 50 %) und sich die Mantel-Kern-Grenze damit in einer Tiefe von etwa 1400 km befindet. Es wird angenommen, dass er, wie der Erdkern, vor allem aus Eisen besteht. Hierbei liefern die seismischen Daten (u. a. die Dämpfung von Scherwellen) Hinweise darauf, dass ein fester innerer Kern von einem flüssigen äußeren Kern umgeben ist, an den sich wiederum nach außen eine teilaufgeschmolzene Zone des untersten Mantels (PMB, "partially molten boundary layer") anschließt. Aus diesem Modell lassen sich die ungefähren Temperaturen ableiten, die im Kern des Mondes entsprechend herrschen müssen, die, deutlich unter denen des Erdkerns, um die 1400 °C (± 400 °C) liegen. Unterster Mantel und Kern mit ihrem teilaufgeschmolzenen bzw. flüssigen Material werden zusammen auch als Mondasthenosphäre bezeichnet. Die sich offenbar vollständig rigide verhaltenden Bereiche darüber (mittlerer und oberer Mantel sowie Kruste), in denen keine Dämpfung von Scherwellen stattfindet, bilden entsprechend die Mondlithosphäre.
Mondbeben.
Die zurückgelassenen Seismometer der Apollo-Missionen registrierten bis zum Ende der Messungen im Jahr 1977 etwa 12.000 Mondbeben. Die stärksten dieser Beben erreichten mit einer Magnitude von knapp 5 nur einen Bruchteil der Magnitude der stärksten Erdbeben. Die meisten Mondbeben hatten Magnituden um 2. Die seismischen Wellen der Beben konnten ein bis vier Stunden lang verfolgt werden. Sie wurden im Mondinneren also nur sehr schwach gedämpft.
Bei mehr als der Hälfte der Beben befand sich das Hypozentrum in einer Tiefe von 800 bis 1000 km, oberhalb der Mondasthenosphäre. Diese Beben traten bevorzugt bei Apogäum- und Perigäumdurchgang auf, das heißt alle 14 Tage. Daneben sind auch Beben mit oberflächennahem Hypozentrum bekannt. Ursache der Beben sind mit der Erdentfernung schwankende Gezeitenkräfte. Abweichungen vom mittleren Gezeitenpotential sind am erdnächsten und erdfernsten Punkt der Mondbahn groß. Die Hypozentren der Beben verteilten sich jedoch nicht gleichmäßig über eine gesamte Mantelschale. Die meisten Beben entstanden in nur etwa 100 Zonen, die jeweils nur wenige Kilometer groß waren. Der Grund für diese Konzentration ist noch nicht bekannt.
Massenkonzentrationen.
Durch ungewöhnliche Einflüsse auf die Bahnen der Lunar-Orbiter-Missionen erhielt man Ende der 1960er Jahre erste Hinweise auf Schwereanomalien, die man Mascons ("Mass concentrations," Massenkonzentrationen) nannte. Durch Lunar Prospector wurden diese Anomalien näher untersucht, sie befinden sich meist im Zentrum der Krater und sind vermutlich durch die Einschläge entstanden. Möglicherweise handelt es sich um die eisenreichen Kerne der Impaktoren, die aufgrund der fortschreitenden Abkühlung des Mondes nicht mehr bis zum Kern absinken konnten. Nach einer anderen Theorie könnte es sich um Lavablasen handeln, die als Folge eines Einschlags aus dem Mantel aufgestiegen sind.
Regolith.
Der Mond besitzt nur eine sehr geringe Atmosphäre. Deshalb schlagen bis heute ständig Meteoroiden unterschiedlicher Größe ohne Abbremsung auf der Oberfläche ein, die das an der Mondoberfläche anstehende Krustengestein zertrümmert, ja regelrecht pulverisiert haben. Durch diesen Prozess entsteht Mondregolith (im Englischen z. T. auch als "lunar soil," „Monderde“, bezeichnet). Er bedeckt weite Areale der Mondoberfläche mit einer mehrere Meter dicken Schicht, welche Details der ursprünglichen Geologie des Mondes verbirgt und so die Rekonstruktion seiner Entstehungsgeschichte erschwert.
Obwohl er gemeinhin als "Mondstaub" bezeichnet wird, entspricht der Regolith eher einer Sandschicht. Die Korngröße reicht von Staubkorngröße direkt an der Oberfläche über Sandkörner wenig tiefer bis hin zu Steinen und Felsen, die erst später hinzukamen und noch nicht vollständig zermahlen sind.
Der Regolith entsteht hauptsächlich aus dem normalen Material der Oberfläche. Er enthält aber auch Beimengungen, die durch Einschläge an den Fundort transportiert wurden. Ein weiterer wichtiger Bestandteil sind glasige Erstarrungsprodukte von Einschlägen. Das sind zum einen kleine Glaskugeln, die an Chondren erinnern, und zum anderen Agglutinite, also durch Glas verbackene Regolithkörner. Diese machen an manchen Stellen fast die Hälfte des Oberflächengesteins des Mondes aus und entstehen, wenn die durch den Einschlag erzeugten Spritzer geschmolzenen Gesteins erst nach dem Auftreffen auf die Regolithschicht erstarren. Wegen der fehlenden Erosion sind die Körner sehr scharfkantig und erzeugen hohen Verschleiß an Textilien, aber auch an metallischen Oberflächen.
Im Mondmeteoriten Dhofar 280, der 2001 im Oman gefunden wurde, wurden neue Eisen-Silizium-Mineralphasen identifiziert. Eine davon (Fe2Si), damit erstmals eindeutig in der Natur nachgewiesen, wurde nach Bruce Hapke als Hapkeit benannt. Dieser hatte in den 1970er Jahren die Entstehung derartiger Eisenverbindungen durch Weltraumverwitterung vorhergesagt. Weltraum-Erosion verändert auch die Reflexionseigenschaften des Materials und beeinflusst so die Albedo der Mondoberfläche.
Der Mond hat kein nennenswertes Magnetfeld, d. h. die Teilchen des Sonnenwindes – vor allem Wasserstoff, Helium, Neon, Kohlenstoff und Stickstoff – treffen nahezu ungehindert auf die Mondoberfläche und werden im Regolith implantiert. Dies ähnelt der Ionenimplantation bei der Herstellung integrierter Schaltungen. Auf diese Weise bildet der Mondregolith ein Archiv des Sonnenwindes, vergleichbar dem Eis in Grönland für das irdische Klima.
Dazu kommt, dass kosmische Strahlung bis zu einen Meter tief in die Mondoberfläche eindringt und dort durch Kernreaktionen (hauptsächlich Spallationsreaktionen) instabile Nuklide bildet. Diese verwandeln sich u. a. durch Alphazerfall mit verschiedenen Halbwertszeiten in stabile Nuklide. Da beim Alphazerfall jeweils ein Helium-Atomkern entsteht, enthalten Gesteine des Mondregoliths bedeutend mehr Helium als irdische Oberflächengesteine.
Da der Mondregolith durch Einschläge umgewälzt wird, haben die einzelnen Bestandteile meist eine komplexe Bestrahlungsgeschichte hinter sich. Man kann jedoch durch radiometrische Datierungsmethoden für Mondproben herausfinden, wann sie nahe der Oberfläche waren. Damit lassen sich Erkenntnisse über die kosmische Strahlung und den Sonnenwind zu diesen Zeitpunkten gewinnen.
Wasser.
Der Mond ist ein extrem trockener Körper. Jedoch konnten Wissenschaftler mit Hilfe eines neuen Verfahrens im Sommer 2008 winzige Spuren von Wasser (bis zu 0,0046 %) in kleinen Glaskügelchen vulkanischen Ursprungs in Apollo-Proben nachweisen. Diese Entdeckung deutet darauf hin, dass nach der gewaltigen Kollision, durch die der Mond entstand, nicht das ganze Wasser verdampft ist.
Erstmals hat 1998 die Lunar-Prospector-Sonde Hinweise auf Wassereis in den Kratern der Polarregionen des Mondes gefunden, dies wird aus dem Energiespektrum des Neutronenflusses evident. Dieses Wasser könnte aus Kometenabstürzen stammen. Da die tieferen Bereiche der polaren Krater aufgrund der geringen Neigung der Mondachse gegen die Ekliptik niemals direkt von der Sonne bestrahlt werden und somit das Wasser dort nicht verdampfen kann, könnte es sein, dass dort noch im Regolith gebundenes Wassereis vorhanden ist. Der Versuch, durch den gezielten Absturz des Prospectors in einen dieser Polarkrater einen eindeutigen Nachweis zu erhalten, schlug allerdings fehl.
Im September 2009 lieferten Reflexionsminima im 3-µm-Bereich von Infrarotspektren der Mondoberfläche, die das NASA-Instrument "Moon Mineralogy Mapper" (kurz "M3") an Bord der indischen Sonde Chandrayaan-1 aufgenommen hatte, Hinweise auf oberflächennahes „Wasser und Hydroxyl“ an permanent beschatteten Stellen der beiden Mondpole. Dieses Phänomen wurde bereits bei der Instrumentenkalibrierung der Raumsonde Cassini bei ihrem Vorbeiflug am Mond im Jahr 1999 festgestellt.
Nachfolgend wurde im Zuge der Auswertung weiterer M3-Daten zumindest ein Teil dieses Materials „definitiv“ als Wassereis identifiziert.
Am 13. November 2009 bestätigte die NASA, dass die Daten der LCROSS-Mission auf größere Wasservorkommen auf dem Mond schließen lassen.
Im März 2010 gab der United States Geological Survey bekannt, dass bei erneuten Untersuchungen der Apollo-Proben mit der neuen Methode der Sekundärionen-Massenspektrometrie bis zu 0,6 % Wasser gefunden wurden. Das Wasser weist ein Wasserstoffisotopenverhältnis auf, welches deutlich von den Werten irdischen Wassers abweicht.
Im Oktober 2010 ergab eine weitere Auswertung der LCROSS- und LRO-Daten, dass viel mehr Wasser auf dem Mond vorhanden ist als früher angenommen. Die Sonde Chandrayaan-1 fand allein am Nordpol des Mondes Hinweise auf mindestens 600 Millionen Tonnen Wassereis. Auch wurden Hydroxylionen, Kohlenmonoxid, Kohlendioxid, Ammoniak, freies Natrium und Spuren von Silber detektiert.
Wasser(eis) überdauert oberflächennah am längsten an den Polen des Mondes, da diese am wenigsten vom Sonnenlicht beschienen und erwärmt werden, und besonders in der Tiefe von Kratern. Durch Untersuchung mit Neutronenspektrometern im Orbit fanden Matthew Siegler et al. die höchsten Konzentrationen von Wasserstoff (wahrscheinlich in Form von Wassereis) etwas abseits der aktuellen Pole an zwei Stellen, die sich diametral gegenüberliegen. Sie leiten daraus die Hypothese ab, dass – etwa durch vulkanische Massenverschiebung – sich die Polachse um etwa 6° verschoben hat.
Im Jahr 2020 berichteten Astronomen die Entdeckung von Wasser außerhalb des Südpols auf der sonnenbeschienenen Seite des Mondes. Dies deutet darauf hin, dass Wasser für potenzielle zukünftige Mondmissionen – etwa um Sauerstoff zum Atmen oder Wasserstoff für Triebwerke herzustellen – zugänglicher sein könnte als bisher angenommen. Tagestemperaturen auf dem Mond liegen über dem Siedepunkt von Wasser. Die Entdeckung wurde mittels dreier Raumsonden und dem luftgestützten Teleskop SOFIA gemacht.
Oberflächenstrukturen.
Größe und Gliederungen.
Die Mondoberfläche beträgt 38 Mio. km2 und ist damit etwa 15 % größer als die Fläche von Afrika mit der arabischen Halbinsel. Sie ist nahezu vollständig von einer grauen Regolith-Schicht bedeckt. Des Mondes redensartlicher „Silberglanz“ wird einem irdischen Beobachter nur durch den Kontrast zum Nachthimmel vorgetäuscht. Tatsächlich hat der Mond eine relativ geringe Albedo (Rückstrahlfähigkeit).
Die Mondoberfläche gliedert sich in "Terrae" („Länder“) und "Maria" („Meere“). Die Terrae sind ausgedehnte Hochländer und die Maria (Singular: "Mare") sind große Beckenstrukturen, die von Gebirgszügen gerahmt sind und in denen sich weite Ebenen aus erstarrter Lava befinden. Sowohl die Maria als auch die Terrae sind übersät von Kratern. Zudem gibt es zahlreiche Gräben und Rillen sowie flache Dome, jedoch keine aktive Plattentektonik wie auf der Erde. Auf dem Mond ragt der höchste Gipfel 16 km über den Boden der tiefsten Senke, was rund 4 km weniger sind als auf der Erde (Ozeanbecken inbegriffen).
Maria.
"Täler, Berge, Meere".
Die erdzugewandte Mondseite wird von den meisten und größten Maria geprägt. Die Maria sind dunkle Tiefebenen, die insgesamt 16,9 % der Mondoberfläche bedecken. Sie bedecken 31,2 % der Vorderseite, aber nur 2,6 % der Rückseite. Die meisten Maria gruppieren sich auffällig in der Nordhälfte der Vorderseite und bilden das sogenannte „Mondgesicht“. Die dunklen Maria hielt man in der Frühzeit der Mondforschung tatsächlich für Meere; deshalb werden sie nach Giovanni Riccioli mit dem lateinischen Wort für Meer ("mare") bezeichnet.
Die Maria bestehen aus erstarrten basaltische Lavadecken im Inneren ausgedehnter kreisförmiger Becken und unregelmäßiger Einsenkungen. Die Vertiefungen sind vermutlich durch große Einschläge in der Mondfrühphase entstanden. Da in der Frühphase der Mondmantel noch sehr heiß und daher magmatisch aktiv war, wurden diese Einschlagsbecken anschließend von aufsteigendem Magma bzw. Lava gefüllt. Dies wurde vermutlich durch die geringere Krustendicke der erdnahen Mondseite, im Vergleich zur erdfernen Mondseite, stark begünstigt. Allerdings ist der ausgedehnte Vulkanismus der Mondvorderseite wahrscheinlich noch von weiteren Faktoren begünstigt worden (siehe KREEP). Die Maria haben nur wenige große Krater, und außerhalb der Krater variieren ihre Höhen nur um maximal 100 m. Zu diesen kleinen Erhebungen gehören die "Dorsa." Die Dorsa wölben sich als Rücken flach auf und erstrecken sich über mehrere dutzend Kilometer. Die Maria sind von einer 2 bis 8 m dicken Regolithschicht bedeckt, die aus Mineralen besteht, die relativ reich an Eisen und Magnesium sind.
Die Maria wurden anhand von Proben ihrer dunklen Basalte radiometrisch auf 3,1 bis 3,8 Milliarden Jahre datiert. Das jüngste vulkanische Mondgestein ist ein in Afrika gefundener Meteorit mit KREEP-Signatur, der ca. 2,8 Milliarden Jahre alt ist. Dazu passt jedoch die Kraterdichte in den Maria nicht, die auf ein teilweise deutlich geringeres geologisches Alter der Maria von lediglich 1,2 Milliarden Jahren hinweist.
Irregular Mare Patches.
Nach Auswertung von Aufnahmen und Oberflächendaten der Sonde Lunar Reconnaissance Orbiter stellten Wissenschaftler der Arizona State University und der Westfälischen Wilhelms-Universität Münster im Oktober 2014 die These auf, dass es noch vor deutlich weniger als 100 Millionen Jahren weit verbreitet vulkanische Aktivität auf dem Mond gegeben haben könnte. Innerhalb der großen Maria existieren demnach zahlreiche kleinere Strukturen mit Abmessungen zwischen 100 m und 5 km, die als "Irregular Mare Patches" bezeichnet und als lokale Lavadecken gedeutet werden. Die geringe Größe und Dichte der Einschlagskrater in diesen „Patches“ (dt. „Flecken“ oder „Flicken“) deuten darauf hin, dass sie für Mondverhältnisse sehr jung sind, bisweilen kaum mehr als 10 Millionen Jahre. Eine dieser Strukturen namens „Ina“ war bereits seit der Apollo-15-Mission bekannt, wurde jedoch bislang als Sonderfall mit geringer Aussagekraft für die geologische Geschichte des Mondes betrachtet. Die nun festgestellte Häufigkeit der "Irregular Mare Patches" lässt den Schluss zu, dass die vulkanische Aktivität auf dem Mond nicht wie bisher angenommen vor etwa einer Milliarde Jahren „abrupt“ endete, sondern langsam über einen langen Zeitraum schwächer wurde, was unter anderem die bisherigen Modelle zu den Temperaturen im Mondinneren in Frage stellt.
Terrae.
Die Hochländer wurden früher als Kontinente angesehen und werden deshalb als "Terrae" bezeichnet. Sie weisen deutlich mehr und auch größere Krater als die Maria auf und werden von einer bis zu 15 m dicken Regolithschicht bedeckt, die überwiegend aus hellem, relativ aluminiumreichem Anorthosit besteht. Die ältesten Hochland-Anorthositproben sind radiometrisch mit Hilfe der Samarium-Neodym-Methode auf ein Kristallisationsalter von 4,456 ± 0,04 Milliarden Jahren datiert worden, was als Bildungsalter der ersten Kruste und als Beginn der Kristallisation des ursprünglichen Magmaozeans interpretiert wird. Die jüngsten Anorthosite sind etwa 3,8 Milliarden Jahre alt.
Die Hochländer sind von sogenannten Tälern (Vallis) durchzogen. Dabei handelt es sich um bis zu einige hundert Kilometer lange, schmale Einsenkungen innerhalb der Hochländer. Ihre Breite beträgt oft wenige Kilometer, ihre Tiefe einige hundert Meter. Die Mondtäler sind in den meisten Fällen nach in der Nähe gelegenen Kratern benannt "(Siehe auch: Liste der Täler des Erdmondes)."
In den Hochländern gibt es mehrere Gebirge, die Höhen von etwa 10 km erreichen. Sie sind möglicherweise dadurch entstanden, dass der Mond infolge der Abkühlung geschrumpft ist und sich dadurch Faltengebirge aufwölbten. Nach einer anderen Erklärung könnte es sich um die Überreste von Kraterwällen handeln. Sie sind nach irdischen Gebirgen benannt worden, zum Beispiel Alpen, Apenninen, Kaukasus und Karpaten.
Krater.
Die Mondkrater entstanden durch Einschläge kosmischer Objekte und sind deshalb Einschlagkrater. Die größten von ihnen entstanden vor etwa 3 bis 4,5 Milliarden Jahren in der Frühzeit des Mondes durch Einschläge großer Asteroiden. Sie werden, der Nomenklatur von Riccioli folgend, vorzugsweise nach Astronomen, Philosophen und anderen Gelehrten benannt. Einige der großen Einschlagkrater sind von sternförmigen Strahlensystemen umgeben. Diese Strahlen stammen unmittelbar vom Einschlag und bestehen aus Auswurfmaterial (sogenannte "Ejecta"), das zu zahlreichen Glaskügelchen erstarrt ist. Die Glaskügelchen streuen das Licht bevorzugt in die Einfallsrichtung zurück, wodurch sich die Strahlen bei Vollmond hell vom dunkleren Regolith abheben. Die Strahlen sind besonders lang und auffällig beim Krater Tycho.
Der größte Einschlagkrater auf dem Mond ist das Südpol-Aitken-Becken, das 2240 km durchmisst. Die kleinsten sind Mikrokrater, die erst unter dem Mikroskop sichtbar werden. Auf der Mondvorderseite sind mit irdischen Teleskopen allein mehr als 40.000 Krater, die mehr als 100 m durchmessen, sichtbar. Die Kraterdichte ist auf der Rückseite, da ihre Oberfläche durchschnittlich geologisch älter ist, deutlich höher.
Vulkanische Krater sind bislang noch nicht zweifelsfrei identifiziert worden. Da die Mondkruste einen geringeren SiO2-Anteil hat als die kontinentale Erdkruste, haben sich dort keine Schichtvulkane gebildet, wie sie z. B. für den pazifischen Feuerring auf der Erde typisch sind. Aber auch Schildvulkane mit zentraler Caldera, wie sie in den Ozeanbecken der Erde oder auf dem Mars vorkommen, scheinen auf dem Mond nicht zu existieren. Stattdessen fand lunarer Vulkanismus offenbar überwiegend in Form von Spalteneruptionen statt.
Rillen.
Auf der Mondoberfläche gibt es auch Rillenstrukturen (Rimae), über deren Ursprung vor dem Apollo-Programm lange spekuliert worden war. Man unterscheidet
Seit den Untersuchungen der Hadley-Rille durch Apollo 15 geht man davon aus, dass es sich bei den mäandrierenden Rillen um Lavaröhren handelt, deren Decke eingestürzt ist. Hochauflösende Satellitenfotos sowie doppelte Radarechos von der Mondoberfläche in den Marius Hills (Oceanus-Procellarum-Becken), wo zudem eine negative Schwereanomalie registriert wurde, lassen es als sehr wahrscheinlich erscheinen, dass es auch heute noch ausgedehnte intakte Lavaröhrensysteme gibt.
Die Entstehung der geraden Rillen ist deutlich unklarer – es könnte sich um Schrumpfungsrisse handeln, die sich in erkaltender Lava gebildet haben.
Neben den als Rimae bezeichneten Strukturen bestehen noch schmale, vertiefte Strukturen, die eine Länge bis über 400 km erreichen. Sie ähneln den langgestreckten Rillen und werden als Furchen oder Risse (Rupes) bezeichnet. Diese Furchen gelten als Beweis für das Wirken von Spannungskräften innerhalb der Mondkruste.
Gruben oder Löcher.
In Aufnahmen der Mondsonde Kaguya entdeckte der Astronom Junichi Haruyama mit seiner Arbeitsgruppe im Jahr 2009 erstmals ein „schwarzes Loch“ mit ca. 65 m Durchmesser in der Mondoberfläche im Bereich der Marius-Hügel im Oceanus Procellarum auf der erdzugewandten Mondseite. Es liegt annähernd mittig in einer flachen Rille des mäandrierenden Typs. Neun verschiedene Aufnahmen, die unter verschiedenen Blickwinkeln und bei unterschiedlichen Sonnenständen gemacht wurden, erlaubten eine Schätzung der Tiefe des Lochs auf 80 bis 88 Meter. Dieses führt wiederum in eine größere Kaverne, die ca. 50 km lang und 100 m breit ist, die größte entdeckte Mondhöhle.
Weil um das Loch herum kein offensichtlich dort ausgeflossenes Material erkennbar ist, wird eine Entstehung als vulkanischer Schachtkrater ausgeschlossen. Am wahrscheinlichsten handelt es sich um ein sogenanntes Skylight einer Lavaröhre, das dadurch entstanden sein muss, dass die Decke der Lavaröhre an dieser Stelle eingestürzt ist. Die flache Rille repräsentiert demnach eine Lavaröhre, deren Decke noch weitgehend intakt ist, aber topographisch etwas unterhalb des Niveaus des Umlandes liegt. Ursächlich für die Bildung des Skylights können Mondbeben, Einschläge von Meteoriten oder die Auflast eines noch flüssigen Lavastroms gewesen sein. Auch ein Einfluss der irdischen Schwerkraft (Gezeitenkräfte) ist denkbar.
Bis 2011 wurden zwei weitere mögliche Skylights entdeckt. Anfang 2018 betrug die Anzahl der Skylight-Kandidaten rund 200.
Mondrückseite.
Über die Mondrückseite war vor den ersten Raumfahrtmissionen nichts bekannt, da sie von der Erde nicht sichtbar ist; erst Lunik 3 lieferte die ersten Bilder. Die Rückseite unterscheidet sich in mehreren Aspekten von der Vorderseite. Ihre Oberfläche prägen fast nur kraterreiche Hochländer. Zu den Kratern zählt auch das große Südpol-Aitken-Becken, das 13 km tief ist, 2240 km durchmisst, und von vielen anderen Kratern überzeichnet ist. Hier hat, wie Untersuchungen der Clementine-Mission und des Lunar Prospectors vermuten lassen, ein sehr großer Einschlagkörper die Mondkruste durchstoßen und möglicherweise Mantelgesteine freigelegt. Die Rückseitenkruste ist mit 150 km gegenüber 70 km der Vorderseitenkruste etwa doppelt so dick. Auf der Rückseite entdeckte die Raumsonde LRO auch Grabenstrukturen. Dort ist auf dem Mond auch der höchste bekannte Punkt (10.750 m), der mit dem Laser-Altimeter der Raumsonde Kaguya gemessen wurde und am Rande des Engelhardt-Kraters liegt.
Am 3. Januar 2019 landete erstmals eine Raumsonde, die Chang’e-4, auf der Mondrückseite.
Rück- und Vorderseite haben sich auch unterschiedlich entwickelt, weil das geometrische Mondzentrum (Mittelpunkt der volumensgleichen Kugel) und sein Schwerpunkt um 1,8 km (1 Promille des Mondradius) voneinander abstehen. Diese Asymmetrie von innerem Aufbau und Mondkruste könnte von einer Kollision mit einem zweiten Erdtrabanten herrühren, die einige Forscher in der Frühzeit des Mondes annehmen.
Für die Mondrückseite ist die „dunkle Seite des Mondes“ (englisch "dark side of the Moon") eine erhalten gebliebene Redensart, die aber nur symbolisch im Sinne einer unbekannten Seite zu verstehen ist; im eigentlichen Wortsinn ist die Redensart falsch, da – wie schon zu den Mondphasen angemerkt – Rück- und Vorderseite im Laufe der Mondrotation abwechselnd von der Sonne beschienen werden. Die Rückseite ist durch den viel geringeren Flächenanteil der dunklen Mareebenen insgesamt sogar deutlich heller als die Vorderseite.
Einflüsse auf die Erde.
Wie es dazu kommt.
Die Gravitation des Mondes treibt auf der Erde die Gezeiten an. Dazu gehören nicht nur Ebbe und Flut in den Meeren, sondern auch Hebungen und Senkungen des Erdmantels. Die durch die Gezeiten frei werdende Energie wird der Drehbewegung der Erde entnommen und der darin enthaltene Drehimpuls dem Bahndrehimpuls des Mondes zugeführt. Dadurch verlängert sich gegenwärtig die Tageslänge um etwa 20 Mikrosekunden pro Jahr. In ferner Zukunft wird die Erdrotation an den Mondumlauf gebunden sein, und die Erde wird dem Mond immer dieselbe Seite zuwenden.
Die Erde ist nicht perfekt kugelförmig, sondern durch die Rotation abgeflacht. Die Gezeitenkraft von Sonne und Mond erzeugt ein aufrichtendes Drehmoment, das zweimal jährlich bzw. monatlich maximal wird. Die Erde folgt diesem als Kreisel nicht direkt, sondern präzediert mit in erster Näherung konstanter Neigung der Erdachse. Wäre die Sonne die einzige Ursache für Präzession, würde sich die Neigung der Erdachse innerhalb von Millionen Jahren in weiten Bereichen ändern. Dies würde ungünstige Umweltbedingungen für das Leben auf der Erde bedeuten, weil die Polarnacht abwechselnd die gesamte Nord- bzw. Südhalbkugel erfassen würde. Die durch den Mond bewirkte schnelle Präzession stabilisiert die Neigung der Erdachse. So trägt der Mond zu dem das Leben begünstigenden Klima der Erde bei.
Einfluss auf Lebewesen.
Nach dem Skeptic’s Dictionary habe keine ausgewertete wissenschaftliche Studie eine signifikante positive Korrelation zwischen Mondphasen und dem Auftreten von Schlafstörungen, Verkehrsunfällen, Operationskomplikationen, der Häufigkeit von Suizidhandlungen oder der Häufigkeit von Geburten ergeben.
Manche Menschen, z. B. in der Land- und Forstwirtschaft, achten seit alters her darauf, dass bestimmte Arbeiten in der Natur in der „richtigen“ Mondphase erledigt werden ("siehe auch:" Mondholz, Mondkalender).
Die tägliche Bewegung des Mondes und die darin enthaltene Information über die Himmelsrichtungen wird von Zugvögeln und einigen Arten nachtaktiver Insekten zur Navigation genutzt. Bei manchen Arten der Ringelwürmer (wie bei dem Samoa-Palolo), Krabben und Fische ("Leuresthes") ist das Fortpflanzungsverhalten sehr eng an den monatlichen Phasenwechsel des Mondes gekoppelt.
Die schon im 18. Jahrhundert erforschte Korrelation von Mondposition und Wetter ist so gering, dass ein dadurch verursachter Einfluss auf Lebewesen vollständig vernachlässigt werden kann.
Das Schlafwandeln von Menschen wird irreführend als "Mondsüchtig-Sein" interpretiert.
Atmosphärische Erscheinungen.
Mondhof und Mondhalo.
Als "Mondhof" werden farbige Ringe um den Mond bezeichnet, die durch die Beugung des Lichts an den Wassertröpfchen der Wolken verursacht werden. Dabei ist der äußerste Ring von rötlicher Farbe und hat eine Ausdehnung von etwa zwei Grad, in seltenen Fällen auch bis zu zehn Grad.
Umgangssprachlich wird der Begriff des Mondhofs auch für einen Halo um den Mond gebraucht. Dafür sind Eiskristalle in Luftschichten verantwortlich, die aus dünnem Höhennebel oder Dunst entstanden sind und das auf die Erde fallende Licht in einem sehr schwachen Winkel ablenken und dadurch eine Art leuchtenden Ringeffekt für den Betrachter hervorrufen.
Eine spezielle Haloerscheinung des Mondes ist der Nebenmond. Analog zu den Nebensonnen treten Nebenmonde mit einem Abstand von rund 22 Grad neben dem Mond auf. Wegen der geringeren Lichtstärke des Mondes sieht man sie jedoch seltener und meistens bei Vollmond.
Mondregenbogen.
Bei Nacht kann durch Zusammentreffen von Mondlicht und Regentropfen ein Mondregenbogen entstehen, der analog zum physikalischen Prinzip des Regenbogens der Sonne funktioniert.
Mondtäuschung und Mondsichelneigung.
Als "Mondtäuschung" bezeichnet man den Effekt, dass der Mond in Horizontnähe größer aussieht als im Zenit. Dies ist keine Folge der Lichtbrechung an den Luftschichten, sondern eine optische Täuschung, die von der Wahrnehmungspsychologie untersucht und erklärt wird.
Auch das Phänomen, dass die beleuchtete Seite des Mondes oft nicht genau zur Sonne zu zeigen scheint, ist eine optische Täuschung und wird dort unter der Überschrift Relativität des Blickwinkels erläutert. Man kann sich davon überzeugen, dass die beleuchtete Mondsichel tatsächlich – wie zu erwarten – jederzeit senkrecht auf der Verbindungslinie zwischen Sonne und Mond steht, indem man diese Verbindungslinie durch eine mit ausgestreckten Armen – visiert – zwischen Sonne und Mond gespannte Schnur sichtbar macht.
Brechungseffekte.
Am Terminator können unter günstigen Bedingungen grün und manchmal auch blaue Farbsäume beobachtet werden, wenn der Mond sehr nahe am Horizont steht. In diesem Fall leuchten die von der unter dem Horizont befindlichen Sonne noch beleuchteten Ränder der Mondkrater hell vor den oberhalb befindlichen Schattenbereichen. Durch die astronomische Refraktion des weißlichen Mondlichts auf dem mehrere hundert Kilometer langen Weg durch die Atmosphäre werden rote Anteile stärker gebrochen, so dass von den hellen Seiten der Schattengrenzen vor allem grüne Anteile zum Beobachter auf der Erdoberfläche gelangen. Wegen der geringen Farbtemperatur des Mondlichts von ungefähr 4100 Kelvin gibt es nur vergleichsweise geringe blaue Anteile im Mondlicht, die manchmal aber ebenfalls beobachtet werden können. Dieser Effekt kann auch bei der Sonne als Grüner Blitz wahrgenommen werden.
Geschichte der Mondbeobachtung.
Freiäugige Beobachtung, Mondbahn und Finsternisse.
Der Mond ist nach der Sonne das mit Abstand hellste Objekt des Himmels; zugleich kann man seinen einzigartigen Helligkeits- und Phasenwechsel zwischen Vollmond und Neumond auch mit bloßem Auge sehr gut beobachten.
Das letzte Auftauchen der abnehmenden Mondsichel am Morgenhimmel (Altlicht des Morgenletztes) oder das erste Auftauchen der zunehmenden Mondsichel am Abendhimmel (Neulicht des Abenderstes) markiert oder markierte in einigen Kulturkreisen den Beginn eines Monats.
Die Mondphasen und die Sonnen- bzw. Mondfinsternisse sind mit Sicherheit schon früh von Menschen beobachtet worden. Die genaue Länge des siderischen und des synodischen Monats war schon im 5. Jahrtausend v. Chr. bekannt, ebenso die Neigung der Mondbahn gegen die Ekliptik (5,2°). Mindestens 1000 v. Chr. kannten die babylonischen Astronomen die Bedingungen, unter denen Sonnenfinsternisse auftreten, und die Vorhersage der Sonnenfinsternis vom 28. Mai 585 v. Chr. durch Thales von Milet entschied 585 v. Chr. den Krieg zwischen den Lydern und Medern. Von Anaxagoras ist die Aussage überliefert, der Mond erhalte sein Licht von der Sonne, und es gebe auf ihm Täler und Schluchten; diese und andere Lehren trugen ihm eine Verurteilung wegen Gotteslästerung ein.
Auch Bedeckungen von Planeten oder ekliptiknahen Sternen durch den Mond sind in der Antike bezeugt. Aristoteles erwähnt in seiner Schrift Über den Himmel zum Beispiel die Bedeckung des Planeten Mars durch den zunehmenden Halbmond im Sternbild Löwe am 5. April 357 v. Chr. in den frühen Abendstunden. Er erwähnte in diesem Zusammenhang auch, dass die Babylonier und die Ägypter solche Phänomene über lange Zeit beobachtet und dokumentiert hatten.
Die am Mond freiäugig erkennbaren Details (siehe "Mondgesicht, Gesicht am Südpol des Mondes") werden in anderen Kulturkreisen auch als "Hase" etc. bezeichnet. Die dunklen, scharf begrenzten Flächen wurden schon früh als Meere interpretiert (diese glatten Ebenen werden daher bis heute Mare genannt), während die Natur der bei Vollmond sichtbar werdenden Strahlensysteme erst im 20. Jahrhundert geklärt werden konnte.
Fernrohrbeobachtung, Mondkarten und Raumfahrt.
Als erdnächster Himmelskörper zeigt der Mond bereits durch einfache Fernrohre topographische Details, insbesondere in der Nähe des Terminators, da dort die Schatten lang sind, wie zum Beispiel der Goldene Henkel oder das Lunar X. So begann bald nach Erfindung des Fernrohrs 1608 die Erforschung des Mondes, zu nennen sind Galileo Galilei, David Fabricius, Thomas Harriot und Simon Marius. Höhepunkte der Selenografie waren die Arbeiten von Johann Hieronymus Schroeter, der 1791 seine "Selenotopografie" publizierte, die genaue Kartierung der Mondkrater und Gebirge sowie deren Benennung.
Im März 1840 gelangen John William Draper in New York City mit einem entgegen der Erdrotation mitgeführten Teleskop der New York University die ersten fotografischen Aufnahmen des Mondes.
Es folgte die Ära der hochpräzisen Mondkarten durch Beer, Mädler und andere, ab etwa 1880 die langbrennweitige Astrofotografie (siehe auch Pariser Mondatlas) und erste geologische Deutungen der Mondstrukturen. Anschauliche zeitgenößische Darstellungen der Mondoberfläche von 1930 durch Lucien Rudaux finden sich im "Kosmos Handweiser für Naturfreunde, Heft 1/1930." Das durch die Raumfahrt (erste Mondumkreisung 1959) gesteigerte Interesse am Mond führte zur erstmaligen Beobachtung leuchtender Gasaustritte durch Kosyrew, doch die Vulkanismus-Theorie der Mondkrater musste der Deutung als Einschlagkrater weichen. Vorläufiger Höhepunkt waren die bemannten Mondlandungen 1969–1972, die dadurch ermöglichten zentimetergenauen Laser-Entfernungsmessungen und in den letzten Jahren die multispektrale Fernerkundung der Mondoberfläche sowie die genaue Vermessung ihres Schwerefeldes durch verschiedene Mondorbiter.
Mythologische Anfänge.
Die älteste bekannte Darstellung des Mondes ist eine 5000 Jahre alte Mondkarte aus dem irischen Knowth. Als weitere historisch bedeutende Abbildung in Europa ist die Himmelsscheibe von Nebra zu nennen.
Das Steinmonument Stonehenge diente wahrscheinlich als Observatorium und war so gebaut, dass damit auch spezielle Positionen des Mondes vorhersagbar oder bestimmbar gewesen sind.
In vielen archäologisch untersuchten Kulturen gibt es Hinweise auf die große kultische Bedeutung des Mondes für die damaligen Menschen. Der Mond stellte meist eine zentrale Gottheit dar, als weibliche Göttin, zum Beispiel bei den Thrakern Bendis, bei den alten Ägyptern Isis, bei den Griechen Selene, Artemis und Hekate sowie bei den Römern Luna und Diana, oder als männlicher Gott wie beispielsweise bei den Sumerern Nanna, in Ägypten Thot, in Japan Tsukiyomi, bei den Azteken Tecciztecatl und bei den Germanen Mani. Fast immer wurden Sonne und Mond dabei als entgegengesetzt geschlechtlich gedacht, auch wenn die Zuordnung variierte. In China dagegen galt der Mond als Symbol für Westen, Herbst und Weiblichkeit (Yin).
Ein häufig vorkommendes Motiv ist das Bild von den drei Gesichtern der Mondgöttin: bei zunehmendem Mond die verführerische Jungfrau voller Sexualität, bei Vollmond die fruchtbare Mutter und bei abnehmendem Mond das alte Weib oder die Hexe mit der Kraft zu heilen, zum Beispiel bei den Griechen mit Artemis, Selene und Hekate sowie bei den Kelten Blodeuwedd, Morrígan und Ceridwen.
Der Mond als Himmelskörper ist Gegenstand von Romanen und Fiktionen, von Jules Vernes Doppelroman "Von der Erde zum Mond" und "Reise um den Mond" über Paul Linckes Operette "Frau Luna" oder Hergés zweibändigem Tim-und-Struppi-Comic-Abenteuer "Reiseziel Mond" und "Schritte auf dem Mond" bis hin zu der futuristischen Vorstellung einer Besiedelung des Mondes oder dem Reiseführer "Reisen zum Mond" von Werner Tiki Küstenmacher.
Kalenderrechnung.
Neben der mythologischen Verehrung nutzten Menschen schon sehr früh den regelmäßigen und leicht überschaubaren Rhythmus des Mondes für die Beschreibung von Zeitspannen und als Basis eines Kalenders, noch heute basiert der islamische Kalender auf dem Mondjahr mit 354 Tagen (12 synodische Monate). Mit dem Übergang zum Ackerbau wurde die Bedeutung des Jahresverlaufs für Aussaat und Ernte wichtiger. Um dies zu berücksichtigen, wurden zunächst nach Bedarf, später nach feststehenden Formeln wie zum Beispiel dem metonischen Zyklus Schaltmonate eingefügt, die das Mondjahr mit dem Sonnenjahr synchronisierten. Auf diesem lunisolaren Schema basieren zum Beispiel der altgriechische und der jüdische Kalender.
Die noch heute gebräuchliche Länge einer Woche von sieben Tagen basiert wahrscheinlich auf der zeitlichen Folge der vier hauptsächlichen Mondphasen (siehe oben). Bei der Osterrechnung spielt das Mondalter am letzten Tag des Vorjahres eine Rolle und heißt Epakte.
Von den alten Hochkulturen hatten einzig die alten Ägypter ein reines Sonnenjahr mit zwölf Monaten à 30 Tage sowie fünf Schalttage, das heißt ohne strengen Bezug zum synodischen Monat von 29,5 Tagen, vermutlich, weil für die ägyptische Kultur die genaue Vorhersage der Nilüberschwemmungen und damit der Verlauf des Sonnenjahres überlebensnotwendig war.
Forschungsgeschichte.
Wissenschaftliche Teildisziplinen, die sich mit der Untersuchung des Mondes befassen, tragen nach dem griechischen Wort für Mond, Σελήνη (Selene) gebildete Namen. Es sind:
Erdgebundene Erforschung.
Die früheste grobe Mondkarte mit Konturen der Albedomerkmale und dem ersten Versuch einer Nomenklatur skizzierte William Gilbert im Jahr 1600 nach dem bloßen Auge. Die erste, wenn auch ebenfalls nur skizzenhafte Darstellung der mit einem Fernrohr sichtbaren Mondstrukturen stammt von Galileo Galilei (1609), die ersten brauchbaren stammen von Johannes Hevelius, der mit seinem Werk "Selenographia sive Lunae Descriptio" (1647) als Begründer der Selenografie gilt. In der Nomenklatur der Mondstrukturen setzte sich das System von Giovanni Riccioli durch, der in seinen Karten von 1651 die dunkleren Regionen als Meere ("Mare," Plural: "Maria") und die Krater nach Philosophen und Astronomen bezeichnete. Allgemein anerkannt ist dieses System jedoch erst seit dem 19. Jahrhundert.
Tausende Detailzeichnungen von Mondbergen, Kratern und Wallebenen wurden von Johann Hieronymus Schroeter (1778–1813) angefertigt, der auch viele Mondtäler und Rillen entdeckte. Den ersten Mondatlas gaben Wilhelm Beer und Johann Heinrich Mädler 1837 heraus, ihm folgte bald eine lange Reihe fotografischer Atlanten.
Ende des 19. Jahrhunderts konnten bereits Aussagen über die Erscheinung des Mondes getroffen werden, die auch heute noch weitestgehend Gültigkeit besitzen. Der österreichische Geologe Melchior Neumayr traf diesbezüglich folgende Aussage:
Allerdings war die tatsächliche Entstehung dieser Krater bis zu diesem Zeitpunkt noch ungewiss. Neumayr nahm infolgedessen den Vulkanismus als die wahrscheinlichste Ursache dafür an:
Neumayr gibt an, dass sich einzelne Gebirge mehr als 8000 m über ihre Umgebung erhöben. Die Höhenbestimmung von Kratern, Gebirgen und Ebenen war mit teleskopischen Beobachtungen jedoch sehr problematisch und erfolgte meist durch Analyse von Schattenlängen, wofür Josef Hopmann im 20. Jahrhundert Spezialmethoden entwickelte. Erst durch die Sondenkartierungen kennt man verlässliche Werte: Die Krater, mit Durchmessern bis zu 300 km, wirken zwar steil, sind aber nur wenige Grad geneigt, die höchsten Erhebungen hingegen erreichen eine Höhe von bis zu 10 km über dem mittleren Niveau.
Erforschung mit ersten Raumfahrzeugen.
Den zweiten großen Sprung der Fortschritte in der Mondforschung eröffnete dreieinhalb Jahrhunderte nach der Erfindung des Fernrohrs der Einsatz der ersten Mondsonden. Die sowjetische Sonde Lunik 1 kam dem Mond rund 6000 km nahe, Lunik 2 traf ihn schließlich und Lunik 3 lieferte die ersten Bilder von seiner Rückseite. Die Qualität der Karten wurde in den 1960er Jahren deutlich verbessert, als zur Vorbereitung des Apollo-Programms eine Kartierung durch die Lunar-Orbiter-Sonden aus einer Mondumlaufbahn heraus stattfand. Die heute genauesten Karten stammen aus den 1990ern durch die Clementine- und Lunar-Prospector-Missionen.
Das US-amerikanische Apollo- und das sowjetische Luna-Programm brachten mit neun Missionen zwischen 1969 und 1976 insgesamt 382 Kilogramm Mondgestein von der Mondvorderseite zur Erde; die folgende Tabelle gibt einen Überblick darüber.
1979 wurde der erste Mondmeteorit in der Antarktis entdeckt, dessen Herkunft vom Mond allerdings erst einige Jahre später durch Vergleiche mit den Mondproben erkannt wurde. Mittlerweile kennt man noch mehr als zwei Dutzend weitere. Diese bilden eine komplementäre Informationsquelle zu den Gesteinen, die durch die Mondmissionen zur Erde gebracht wurden: Während man bei den Apollo- und Lunaproben die genaue Herkunft kennt, dürften die Meteorite, trotz der Unkenntnis ihres genauen Herkunftsortes auf dem Mond, repräsentativer für die Mondoberfläche sein, da einige aus statistischen Gründen auch von der Rückseite des Mondes stammen sollten.
Menschen auf dem Mond.
Der Mond ist nach der Erde bisher der einzige von Menschen betretene Himmelskörper. Im Rahmen des Kalten Kriegs unternahmen die USA und die UdSSR einen Wettlauf zum Mond (auch bekannt als „Wettlauf ins All“) und in den 1960er Jahren als Höhepunkt einen Anlauf zu bemannten Mondlandungen, die jedoch nur mit dem Apollo-Programm der Vereinigten Staaten verwirklicht wurden. Das bemannte Mondprogramm der Sowjetunion wurde daraufhin abgebrochen.
Am 21. Juli 1969 UTC setzte mit Neil Armstrong der erste von zwölf Astronauten im Rahmen des Apollo-Programms seinen Fuß auf den Mond. Nach sechs erfolgreichen Missionen wurde das Programm 1972 wegen der hohen Kosten eingestellt; als bisher letzter Mensch verließ am 14. Dezember 1972 Eugene Cernan den Mond.
Die folgende Tabelle führt die zwölf Männer auf, die den Mond betreten haben. Alle waren Bürger der USA.
Daneben haben noch weitere zwölf US-Raumfahrer des Apollo-Programms den Mond besucht, jedoch ohne auf ihm zu landen. Dazu zählen die sechs Piloten Michael Collins, Richard Gordon, Stuart Roosa, Alfred Worden, Ken Mattingly und Ronald Ellwin Evans der jeweils im Mondorbit wartenden Kommandokapseln, sowie die Erstbesucher Frank Borman, Jim Lovell und William Anders mit Apollo 8 am 24. Dezember 1968, mit Apollo 10 Tom Stafford mit John Young und Eugene Cernan bei ihrem ersten Mondflug, und mit Apollo 13 noch mal Jim Lovell sowie Jack Swigert und Fred Haise, die wegen einer Panne auf dem Hinflug nur ein Swing-by-Manöver am Mond unternahmen.
Mondsonden seit den 1990er Jahren.
Nach einer Pause in der gesamten Mondraumfahrt von gut 13 Jahren startete am 24. Januar 1990 die japanische Experimentalsonde Hiten ohne wissenschaftliche Nutzlast. Sie setzte am 19. März desselben Jahres in einer Mondumlaufbahn die Tochtersonde Hagoromo aus, schwenkte am 15. Februar 1992 selbst in einen Mondorbit ein und schlug am 10. April 1993 auf den Mond auf.
Am 25. Januar 1994 startete die US-amerikanische Raumsonde Clementine zum Mond, um dort neue Geräte und Instrumente zu testen. Am 19. Februar 1994 erreichte sie eine polare Mondumlaufbahn und kartierte von dort aus etwa 95 % der Mondoberfläche. Neben den zahlreichen Fotografien lieferte sie Hinweise auf Vorkommen von Wassereis am lunaren Südpol. Im Mai desselben Jahres vereitelte eine fehlerhafte Triebwerkszündung den geplanten Weiterflug zum Asteroiden Geographos. Die Sonde ist seit Juni 1994 außer Betrieb.
Am 24. Oktober 2007 hatte die Volksrepublik China ihre erste Mondsonde Chang’e 1 gestartet. Chang’e 1 erreichte den Mond am 5. November, und umkreiste ihn über die Pole für etwa ein Jahr. Sie analysierte die Mondgesteine spektroskopisch und kartografierte die Mondoberfläche dreidimensional, wobei auch erstmals eine umfassende Mikrowellenkarte des Mondes entstand, die auch Bodenschätze anzeigt. Chang’e-1 schlug am 1. März 2009 gezielt auf dem Mond auf ("siehe auch:" Mondprogramm der Volksrepublik China). Die ursprüngliche Ersatzsonde von Chang’e 1 wurde zur Nachfolgesonde Chang’e 2. Sie umkreiste den Mond vom 6. Oktober 2010 bis zum 9. Juni 2011 und bereitete die weiche Landung für Chang’e 3 vor.
Der Start der indischen Mondsonde Chandrayaan-1, und damit der ersten Raumsonde Indiens, erfolgte am 22. Oktober 2008. Sie hat zu Beginn ihrer Mission am 14. November aus ihrer polaren Umlaufbahn einen Lander in der Nähe des lunaren Südpols hart aufschlagen lassen. Weiters sollte unter anderem eine mineralogische, eine topografische und eine Höhenkarte des Mondes erstellt werden. Die Mission sollte zwei Jahre dauern, der Kontakt brach jedoch am 29. August 2009 vorzeitig ab.
Am 23. Juni 2009 um 9:47 UTC schwenkte der Lunar Reconnaissance Orbiter (LRO) der NASA auf eine polare Umlaufbahn ein, um den Mond in einer Höhe von 50 km mindestens ein Jahr lang zu umkreisen und dabei Daten für die Vorbereitung zukünftiger Landemissionen zu gewinnen. Die Geräte der US-amerikanischen Sonde liefern die Basis für hochaufgelöste Karten der gesamten Mondoberfläche (Topografie, Orthofotos mit 50 cm Auflösung, Indikatoren für Vorkommen von Wassereis) und Daten zur kosmischen Strahlenbelastung. Es wurden 5185 Krater mit einem Durchmesser von mindestens 20 km erfasst. Aus deren Verteilung und Alter wurde geschlossen, dass bis vor 3,8 Milliarden Jahren hauptsächlich größere Brocken den Mond trafen, danach vorwiegend kleinere. Die Raumsonde LRO entdeckte auch Grabenstrukturen auf der Mond-Rückseite. Wann die Mission enden soll, ist noch nicht bekannt.
Am 14. Dezember 2013 führte die Nationale Raumfahrtbehörde Chinas mit Chang’e 3 ihre erste weiche Mondlandung durch. Die rund 3,7 Tonnen schwere Sonde diente u. a. dem Transport des 140 kg schweren Mondrovers Jadehase, der mit einem Radionuklid-Heizelement ausgestattet war, um während der 14-tägigen Mondnacht nicht einzufrieren. Nachdem mit der Sonde Chang’e 4 am 3. Januar 2019 erstmals in der Geschichte der Raumfahrt eine Landung auf der erdabgewandten Seite des Mondes gelungen war, brachte Chang’e 5 im Dezember 2020 in der Nähe des Mons Rümker auf der Mondvorderseite entnommene Bodenproben im Gesamtgewicht von 1731 g zur Erde zurück.
Geplante Erkundungsmissionen im 21. Jahrhundert.
Neue bemannte Mondprogramme.
Konkrete Pläne für eine Rückkehr zum Mond zeichneten sich erst wieder durch Ankündigungen des damaligen US-Präsidenten George W. Bush und der NASA im Jahr 2004 ab. Das daraus entstandene Constellation-Programm wurde 2010 wegen Terminüberschreitungen und ausufernder Kosten eingestellt und kurz darauf durch das SLS/Exploration-Mission-Programm ersetzt, das von denselben Problemen geplagt ist. Nachdem sich der Plantermin für die nächste Mondlandung auf 2028 verschoben hatte, ergriff 2019 die Regierung unter Donald Trump die Initiative und forderte eine Rückkehr zum Mond bis 2024. Dieses als "Artemis-Programm" bezeichnete Projekt soll „nachhaltig“ sein und mit einer Landung in der Südpolregion beginnen. Die Mittel hierfür müssen noch vom Gesetzgeber bewilligt werden.
Neben der NASA plant auch das US-Unternehmen SpaceX mit seinem "Starship" bemannte Mondlandungen in den 2020er Jahren. Ebenso möchten Russland, China und Japan in den 2030er Jahren mit eigenen Raumschiffen und Raumfahrern die Mondoberfläche erreichen.
Geplante Mondsonden.
Im Jahr 2024 soll der 4. Schritt des Mondprogramms der Volksrepublik China beginnen, die Erkundung der Polregion. Mit den drei Sonden Chang’e 6, Chang’e 7 und Chang’e 8 soll hierbei der Aufbau einer zunächst zeitweise, später permanent besetzten Mondbasis am südlichen Rand des Südpol-Aitken-Beckens auf der erdabgewandten Seite des Mondes vorbereitet werden.
Verschiedene Unternehmen aus Deutschland, Japan, den USA und Israel planen den Start privat finanzierter Mondsonden in den Jahren ab 2022.
Die NASA hat für frühestens 2022 den Lunar Flashlight und weitere CubeSats geplant, die im Rahmen der Mission Artemis 1 gestartet werden und unter anderem Wassereisvorkommen auf dem Mond untersuchen sollen.
Seit 2006 ist von Seiten Russlands der Einsatz der Mondsonde Luna 25 geplant. Sie sollte ursprünglich zwölf Penetratoren hauptsächlich für seismische Untersuchungen absetzen und einen Lander zur Suche nach Wassereis in einem Krater in Nähe des lunaren Südpols niedergehen lassen. Sowohl der Starttermin als auch die Missionsziele wurden seitdem mehrmals geändert. Stand November 2022 ist nach wie vor unklar, in welchem Jahr die Sonde startbereit sein wird. Weitere Mondmissionen Luna 26 bis Luna 28 sind ebenfalls bereits in Planung.
Eigentumsverhältnisse.
Der Weltraumvertrag "(Outer Space Treaty)" von 1967 verbietet Staaten, einen Eigentumsanspruch auf Weltraumkörper wie den Mond zu erheben. Dieses Abkommen wurde bis heute von 109 Staaten der Vereinten Nationen ratifiziert und ist damit in Kraft. Da im Weltraumvertrag nur von Staaten die Rede ist, wird von manchen interpretiert, dass dieses Abkommen nicht für Firmen oder Privatpersonen gelte. 1979 wurde deshalb der Mondvertrag "(Agreement Governing the Activities of States on the Moon and Other Celestial Bodies)" entworfen, um diese vom Weltraumvertrag hinterlassene angebliche Gesetzeslücke zu schließen. Der „Moon-Treaty“-Entwurf hatte explizit die Besitzansprüche von Firmen und Privatpersonen adressiert und ausgeschlossen (Artikel 11, Absatz 2 und 3). Aus diesem Grund wird das „Moon Treaty“ oft als Hindernis für Grundstücksverkäufe zitiert; nur wurde dieses Abkommen tatsächlich nie unterschrieben oder in den Vereinten Nationen korrekt ratifiziert. Nur fünf Staaten, die alle nicht weltraumgängig sind, haben versucht, es zu ratifizieren. 187 andere Staaten sowie die USA, Russland und China haben es nicht unterschrieben und auch nicht ratifiziert. Das „Moon Treaty“ ist deshalb heute in den meisten Ländern der Erde nicht in Kraft. Die wählenden Staaten hatten damals zu viele Bedenken, dass es die profitable Nutzung des Mondes gefährden könnte, und somit wurde das Abkommen auch nicht ratifiziert (und deshalb nicht Gesetz). Daraus schlussfolgern einige, dass eine Rechtsgrundlage für Mond-Grundstücksverkäufe existiere. Es sollte ebenfalls darauf hingewiesen werden, dass die Internationale Astronomische Union sich nicht mit dem Verkauf von Himmelskörpern befasst.
Der Amerikaner Dennis M. Hope meldete 1980 beim Grundstücksamt von San Francisco seine Besitzansprüche auf den Mond an. Da niemand in der nach amerikanischem Recht ausgesetzten Frist von acht Jahren Einspruch erhob und da der Weltraumvertrag solche Verkäufe durch Privatpersonen in den USA explizit nicht verbietet, vertreibt Hope die Grundstücke über seine dafür gegründete Lunar Embassy. Da allerdings das Grundstücksamt in San Francisco für Himmelskörper nicht zuständig ist und von Hope sowohl das Gesetz, das solche Besitzansprüche regelt, als auch der Text aus dem Weltraumvertrag sehr abenteuerlich interpretiert wurden, sind die „Grundstückszertifikate“, die er verkauft, praktisch wertlos.
Der amerikanische Politiker Newt Gingrich betrieb im Jahr 1981 erfolglos eine Gesetzesinitiative für eine „Northwest Ordinance for Space“, welche die Aufnahme des Mondes als Bundesstaat der USA ermöglichen sollte, sobald die Zahl von 13.000 Einwohnern erreicht war. Als er sich im Jahr 2012 (vergeblich) um die Nominierung als Kandidat der Republikaner für die Präsidentschaftswahl 2012 bewarb, stellte er für den Fall seiner Präsidentschaft die Einrichtung einer Weltraumkolonie auf dem Mond in Aussicht, wobei er sich auf das damalige Gesetzesvorhaben bezog.
Koorbitale Objekte und ein weiterer Erdtrabant.
In den Librationspunkten L4 und L5 des Erde-Mond-Systems gibt es je eine Staubwolke, die Kordylewskischen Wolken.
Weitere Erdtrabanten sind Gegenstand von unbestätigten Beobachtungsbehauptungen oder von Hypothesen für vergangene Zeitabschnitte wie die Zeit der Entstehung des Mondes.
Trivia.
Mondkolonisation.
Die Errichtung von dauerhaften Außenposten und Kolonien auf dem Mond wurde bereits vor der Erfindung der Raumfahrt diskutiert und spielt nach wie vor in der Science-Fiction-Literatur eine Rolle. Eine NASA-Studie zum Bergbau auf dem Mond listete 1979 die dafür notwendige Technologieentwicklung auf.
Suche nach außerirdischer Intelligenz.
Der Mond könnte auch Hinweise für die Suche nach außerirdischen Zivilisationen liefern. Wissenschaftler wie Paul Davies halten eine Suche nach Artefakten und Überresten extraterrestrischer Technologie auf der lunaren Oberfläche für förderlich.
Können irdische Mikroben ein längeres Verweilen auf dem Mond überleben?
Möglicherweise befanden sich in dem durch die Apollo-12-Mission geborgenen Kameragehäuse der Sonde Surveyor 3 Mikroben 31 Monate lang auf dem Erdtrabanten und waren danach zur Vermehrung fähig. Für Details und Zweifel siehe Vorwärts-Kontamination.
Weblinks.
Medien |
1325 | 369807 | https://de.wikipedia.org/wiki?curid=1325 | Elfenbeinküste | Die Elfenbeinküste (amtsdeutscher Name: Republik Côte d’Ivoire, []) ist ein Staat in Westafrika. Er grenzt an Liberia, Guinea, Mali, Burkina Faso und Ghana und im Süden an den Atlantischen Ozean.
Der Staat – der am 7. August 1960 die Unabhängigkeit von Frankreich erlangte – war jahrzehntelang politisch stabil und wurde durch die Einheitspartei PDCI (Parti Démocratique de Côte d’Ivoire) des damaligen Präsidenten Houphouët-Boigny regiert. Exporterlöse aus Kakao und Kaffee garantierten einen relativen Wohlstand. Bis heute ist die Elfenbeinküste der weltweit größte Exporteur von Kakao. Innere Spannungen führten 1990 zum Ende der PDCI-Herrschaft. Mit zunehmenden wirtschaftlichen Schwierigkeiten durch den Verfall der Kakaopreise eskalierten die Konflikte und führten zu einem bürgerkriegsähnlichen Zustand, der den Staat 2002 in zwei Teile zerriss. Seit dem Friedensvertrag von 2007 wird an der Versöhnung und Wiedervereinigung der Elfenbeinküste gearbeitet. Seitdem zählt sie wieder zu den am schnellsten wachsenden Wirtschaften Afrikas.
Seit 1983 ist Yamoussoukro die offizielle Hauptstadt. Der Regierungssitz befindet sich in der früheren Hauptstadt Abidjan, die auch weiterhin das wirtschaftliche und politische Zentrum des Staates darstellt.
Geografie.
Der Süden der Elfenbeinküste hat eine 515 Kilometer lange Küstenlinie am Atlantischen Ozean, am westlichen Ende des Golfs von Guinea. Die Länge der Landesgrenzen zu den Nachbarstaaten sind: Burkina Faso 545 km, Ghana 720 km, Guinea 816 km, Liberia 778 km und Mali 599 km. Das Relief ist eher flach, das Oberflächenprofil ist von Ebenen und Hochebenen gekennzeichnet. Allein der Westen des Landes weist Höhen von mehr als 1000 Metern über dem Meeresspiegel auf. Hier, genau auf der Grenze zu Guinea, befindet sich der Mont Nimba, der mit der höchste Berg beider Staaten ist. Der Norden des Landes wird auch von einem Teil der Oberguineaschwelle durchzogen. Davon abgesehen sind die restlichen Ebenen zwischen 200 und 350 Meter hoch gelegen.
Die höheren Plateaus haben schroffe Formen und sind aus hartem Material. Die niedriger gelegenen Ebenen haben sanftere Formen und sind in der Regel aus lockererem Material. Weiträumige, platte Gegenden charakterisieren die Savannenlandschaften wie auch die kleinen Savanneneinschlüsse in den Regenwaldgebieten. Das dominierende Element der Ebenen und Hochebenen ist eine eisenhaltige Kruste, die an der Oberfläche als rostfarbene Platten sichtbar ist, häufig jedoch von Sand, Kies oder feinerem Material verdeckt wird.
Gewässer bedecken 4460 km² oder 1,383 % des Territoriums der Elfenbeinküste. Dies sind einerseits der Atlantische Ozean und die angrenzenden Lagunen im Süden des Landes, wobei die bedeutendsten Lagunenkomplexe Aby-Tendo-Ehy, Ebrié und Grand-Lahou-Tadio-Makey-Tagba sind. Es gibt zahlreiche Fließgewässer, die das ganze Land entwässern (siehe Abschnitt:Hydrologie). Die größten Seen des Landes sind Talsperren: Der Kossoustausee, der Buyostausee und der Ayaméstausee. Schließlich gibt es zahlreiche Bäche und mehrere Sumpfgebiete.
Geologie.
Der kristalline Unterbau besteht aus Migmatiten und Gneis (magmatischer sowie sedimentärer Herkunft), Charnockiten, Noriten sowie verschiedenen Arten von Graniten. Sie sind Teil des westafrikanischen Kratons, der vor mehr als zwei Milliarden Jahren entstanden ist. Das Phyllitgestein besteht größtenteils aus Tonschiefer und Quarziten. Dieser Sockel ist von einer dünnen Sedimentschicht bedeckt, die aus Tonsand kontinentalen Ursprungs sowie aus Ton, Sand und Schlamm maritimen Ursprungs besteht.
Die Böden der Elfenbeinküste haben die gleichen Eigenschaften wie jene der benachbarten Länder Westafrikas und vieler anderer tropischer Regionen. Sie sind locker, seltener verhärtet, aus einem Material in roten ockerfarbenen und dunklen rostbraunen Farbtönen. Es handelt sich um ferrallitische Bodentypen, die größtenteils durch Verwitterung entstanden sind.
Klima.
Die Elfenbeinküste liegt zwischen 4° und 10° nördlicher Breite; die Entfernung zum Äquator beträgt etwa 400 km von der südlichen Küste des Landes, die zum nördlichen Wendekreis etwa 1400 km von der Nordgrenze. An den Küsten der Elfenbeinküste herrscht deshalb ein immerfeuchtes tropisches Klima, das im äußersten Norden in ein trockenes Klima übergeht. Die mittlere Jahrestemperatur liegt bei 28 °C, jedoch kennen die Bewohner markante Temperaturunterschiede zwischen den nördlichen und südlichen Regionen ihres Landes sowie zwischen den einzelnen Jahreszeiten.
Geprägt wird das Klima durch die Windsysteme des Nordost-Passats und des Südwestmonsuns: Der Nordost-Passat (Harmattan) bringt im Winter heiße, trockene, staubbeladene Luft aus der Sahara und trocknet das Land aus. Die Herkunft des westafrikanischen Monsuns ist im Golf von Guinea, dementsprechend bringt er feuchtwarme Luft. Er bestimmt das Klima des Südens der Elfenbeinküste ganzjährig, im Norden bringt er Sommerregen.
Demnach werden in der Elfenbeinküste drei Klimazonen unterschieden.
Klimadiagramme von Abidjan (Südregion)
Klimadiagramme von Bouaké (Zentralregion)
Klimadiagramme von Odienné (Nordwestregion)
Das Klima von Odienné, einer Stadt im Nordwesten, ist von den nahen Bergen geprägt und hat deshalb höhere Niederschlagswerte (1491 mm) und niedrigere Temperaturen als Regionen östlich davon. In Man (noch höher in den Bergen gelegen) erreichen die Niederschlagswerte sogar 1897 mm pro Jahr.
Hydrologie.
Vor allen sind hier die vier großen Flüsse Cavally (700 km), Sassandra (650 km), Bandama (1050 km) und Comoé (1160 km) zu nennen. Andere wichtige Flüsse sind entweder Nebenflüsse davon oder sie sind Küstenflüsse, die ihre eigenen Einzugsgebiete haben. Nennenswert sind der Tabou, der Néro, der San Pedro, der Bolo, der Niouniourou, der Boubo, der Agnéby, die Mé und die Bia.
Aufteilung des Landes in seine Einzugsgebiete
Flora.
Die Vegetation lässt sich in zwei Zonen einteilen: Eine südliche, "guineische" Zone und eine nördliche "sudanesische" Zone. Die Grenze zwischen diesen beiden Zonen liegt parallel zur Küstenlinie etwa beim 8. Breitengrad. Die südliche Zone ist von immergrünem Regenwald und Mangroven (Guineische Mangroven), davon eine westlich von Abidjan, an der Mündung des Flusses Bia, und eine noch weiter westlich davon an der Mündung des Flusses Boubo geprägt. In der nördlichen Zone herrschen Trockenwälder (mit periodischem Laubwechsel) und Savannen (die Sudan-Savanne, die ein Drittel des Territoriums bedeckt, und die Guinea-Savanne) vor, wobei der Trockenwald als Übergang vom Regenwald zur Savanne gesehen werden kann. Im zentralen Teil der Elfenbeinküste ist das Guineische Wald-Savannen-Mosaik, das aus ineinandergreifenden Zonen aus Grasland, Savanne und dichtem Feuchtwald und Galeriewald an Flussläufen besteht.
Nennenswerte Vertreter der Flora in der Elfenbeinküste sind Bäume wie der Affenbrotbaum, Iroko, Tali, Amazakoue, Tiama und Movingui, die teils hohe Bedeutung für den Export von Holz haben. In den Wäldern wachsen Epiphyten und Orchideen, während Schlangenwurze, "Manniophyton", Knoblauchbaum, Milne-Redhead und Belluci Bedeutung als traditionelle Heilpflanzen haben.
Die Vegetation der Elfenbeinküste hat sich in den vergangenen Jahrzehnten durch menschliches Zutun grundlegend geändert. Ursprünglich war ein Drittel des Landes im Süden und Westen vollständig von dichten Wäldern bedeckt. Dazu kamen Baumsavannen im Zentrum und Norden sowie kleine Mangroven an der Küste. Seit der Kolonialzeit hat sich der Waldbestand stark verringert, teils durch die Anlage von Plantagen, teils durch Abholzung. Für das Jahr 2007 wurde der natürliche Waldbestand auf 6 Millionen Hektar geschätzt.
Fauna.
Die Fauna ist besonders artenreich. Unter den Säugetieren ist der Elefant das Tier, dessen Stoßzähne, als Elfenbein gehandelt, dem Land seinen Namen gaben. Sein in Wald und Savanne einst hoher Bestand ist mittlerweile durch Jagd und Wilderei stark reduziert, so dass er heute nur noch in Reservaten anzutreffen ist. Daneben gibt es Flusspferde, Riesenwaldschweine, Ducker, Primaten, Nagetiere, Schuppentiere, Raubkatzen wie Leoparden sowie Mangusten; in den Steppen sind Hyänen und Schakale anzutreffen. Das seltene Zwergflusspferd hat im Nationalpark Taï, im Südwesten des Landes eines seiner wichtigsten Vorkommen. Auch leben hier hunderte Arten von Vögeln (Reiher, Störche wie Wollhalsstorch und Marabu, Enten und Gänse sowie Greifvögel). In und an den Flussläufen der Savanne lebt das Westafrikanische Panzerkrokodil, in den Flüssen der Regenwälder das Stumpfkrokodil. Schlangen wie Kobras, Mambas, Puffotter, Gabunviper und Nashornviper, Felsenpython und Königspython kommen ebenso vor wie Termiten, die die Landschaft mit zahlreichen Termitenhügeln verzieren, und Käfer wie etwa der Pillendreher. In den Flüssen leben zahlreiche Fischarten wie Buntbarsche oder der Afrikanische Vielstachler, während in den Küstengewässern Garnelen, Sandtiger- und sonstige Haie, Seenadeln, Rochen, Froschfische, Plattfische oder auch die seltene Unechte Karettschildkröte vorkommen. Zahlreiche Arten, etwa die Schimpansen, sind bereits sehr selten oder vom Aussterben bedroht.
Nationalparks.
Seit 1953 wurden acht Nationalparks ausgewiesen, der älteste ist der Nationalpark Banco. Die bekanntesten sind der Nationalpark Taï (im Südwesten des Landes) und der Nationalpark Comoé (im Nordosten), die beide auch Weltnaturerbe-Gebiete sind. Weitere Nationalparks heißen Nationalpark Marahoué (im Zentrum, westlich des Kossoustausees), Nationalpark Mont Sangbé und Nationalpark Mont Péko (beide im Westen) sowie, an der Küste westlich und östlich von Abidjan liegend, der Nationalpark Azagny und der Nationalpark Îles Ehotilé.
Als drittes Weltnaturerbe-Gebiet wurde das Mont Nimba Strict Nature Reserve auf die UNESCO-Welterbe-Liste gesetzt; mit einem größeren Teil setzt sich das Strenge Naturschutzgebiet (Kategorie Ia der IUCN-Kategorien) grenzüberschreitend in Guinea fort.
Bevölkerung.
Demografie.
Die Bevölkerung der Elfenbeinküste – "Ivorer" genannt – zeichnet sich, ähnlich wie jene der meisten Entwicklungsländer, durch ein schnelles Wachstum aus. Zwischen 1975 und 2005, in nur 30 Jahren, verdreifachte sich die Bevölkerung von 6,7 Millionen auf fast 20 Millionen. Für das Jahr 2050 wird laut der mittleren Bevölkerungsprognose der UN mit einer Bevölkerung von über 50 Millionen gerechnet. Dieses Wachstum geht zu einem gewissen Teil auf Einwanderung zurück; die Volkszählung 1998 ergab, dass 26 % der Bevölkerung Nicht-Ivorer waren. Diese Einwanderer stammen zum Großteil aus den Nachbarländern und wurden vor dem Bürgerkrieg von der relativ hohen wirtschaftlichen Entwicklung und der sozialen und politischen Stabilität angezogen. Insgesamt leben zwei Millionen Menschen aus Burkina Faso in der Elfenbeinküste, die den größten Ausländeranteil stellen. Daneben wanderten zahlreiche Personen aus Mali, Guinea, dem Senegal, Liberia und Ghana ein. Ferner findet man Libanesen, die vor allem Handel betreiben, Asiaten und Europäer. Ausländer, die eingebürgert wurden, machen nur 0,6 % aus.
Die Anzahl der Geburten pro Frau lag 2020 statistisch bei 4,5. Die Rate lag allerdings 1975 noch bei knapp 8 Kindern pro Frau und sinkt seitdem kontinuierlich. Dies liegt unter anderem daran, dass die Zahl derer, die Zugang zu modernen Verhütungsmethoden haben, stetig steigt. Waren es 2012 nur 8 % der verheirateten Frauen, sind es 2020 schon 40 %. Jugendliche machen einen sehr hohen Bevölkerungsanteil aus: 2019 waren 41,7 % der Bevölkerung unter 15 Jahre und nur knapp 3 % über 65 Jahre alt. Ebenso ist die Bevölkerung ungleich über das Territorium des Landes verteilt. 57 % Landbevölkerung stehen 43 % Stadtbevölkerung gegenüber, wobei die Stadtbevölkerung um 4,2 % jährlich zunimmt. Der Trend der Landflucht hat sich durch den Bürgerkrieg noch verstärkt.
Als Stadt werden in der Elfenbeinküste urbane Räume mit mindestens 3000 Einwohnern definiert, in denen mehr als 50 % der Bevölkerung einer nicht-landwirtschaftlichen Erwerbsbetätigung nachgehen.
Im Jahr 2021 lebten 52 Prozent der Einwohner in Städten, womit die Elfenbeinküste zu den am stärksten urbanisierten Ländern in Afrika gehört. Die größten Metropolregionen sind (Stand Zensus 2014):
Weitere Städte sind in der "Liste der Städte in der Elfenbeinküste" aufgelistet.
Volksgruppen.
Der ivorische Staat erkennt circa 60 Volksgruppen an, die lange Zeit friedlich zusammenlebten. Eheschließungen zwischen Angehörigen verschiedener Ethnien sind vor allem in den Städten nicht mehr selten. Die Völker werden in vier Kultur- und Sprachgruppen unterteilt:
Aufgrund der Landflucht und der zunehmenden Verstädterung findet man in den Städten praktisch alle Ethnien. Vor allem in den kleineren Städten gibt es eine gewisse Tendenz, in eigenen Vierteln zusammenzuleben.
Sprachen.
Neben der Amtssprache Französisch, die meist nicht normenkonform benutzt wird, werden in der Elfenbeinküste 77 verschiedene Sprachen und Idiome gesprochen. Die größten sind das Baoulé und das Dioula, daneben werden auch Senufo-Sprachen, Yacouba, Anyi, Attie, Guéré, Bété, Abé, Kulango, Mahou, Tagwana, Wobé und Lobi gesprochen. Als Umgangssprache in Abidjan dient Nouchi.
Die mit Abstand am weitesten verbreitete Sprache ist Dioula, das von insgesamt 61 % der Bevölkerung vor allem im Norden gesprochen und verstanden wird und als Handelssprache eine große Bedeutung hat. Allerdings ist seit der französischen Kolonialzeit die einzige Amts- und Unterrichtssprache des Landes Französisch.
Religionen.
In der Elfenbeinküste herrscht eine hohe religiöse Diversität. Die am weitesten verbreiteten Religionen sind der Islam (38,6 %) und das Christentum (32,8 %); dabei ist der Norden eher islamisch geprägt, während der Süden christlich geprägt ist. 11,9 % der Bevölkerung praktiziert traditionelle westafrikanische Religionen – vor allem die Religion der Akan –, die bis zu einem gewissen Ausmaß auch die Ausübung der anderen Religionen beeinflussen. Der Islam begann sich im äußersten Norden der Elfenbeinküste ab dem 11. Jahrhundert auszubreiten. Das Christentum wurde an der Küste im 17. Jahrhundert durch Missionare eingeführt.
Die gegenwärtige Entwicklung ist durch eine wachsende Islamisierung geprägt. Noch kurz vor der Jahrtausendwende bekannten sich 40 % der Einwohner zu den traditionellen westafrikanischen Religionen. Der Islam, zu dem sich Mitte der 1980er Jahre erst rund 24 % der Gesamtbevölkerung bekannten, ist seitdem, vor allem durch Mission unter den Anhängern der traditionellen westafrikanischen Religionen (besonders der Senufo) die am stärksten wachsende Religionsgemeinschaft. 2004 waren bereits 35 % der Einwohner sunnitische Muslime. Als Dachverband der muslimischen Organisationen der Elfenbeinküste fungiert der 1993 gegründete „Nationale Islamische Rat“ ("Conseil national islamique"; CNI). Innerhalb dieses Dachverbandes spielt die muslimische Studentenorganisation "Association des élèves et étudiants musulmans de Côte d’Ivoire" (AEEMCI) eine wichtige Rolle. Die jährliche Wallfahrt nach Mekka wird von der "Association musulmane pour l’organisation du pèlerinage à la Mecque" (AMOP) organisiert. Eine wichtige Untergruppe innerhalb der Muslime der Elfenbeinküste stellen die Yacoubisten, die Anhänger von Yacouba Sylla, dar.
Generell herrschen in der Elfenbeinküste religiöse Toleranz und friedliches Miteinander. Die religiösen Feiertage werden frei von den jeweiligen Gläubigen begangen und von allen akzeptiert. Die Elfenbeinküste ist offiziell ein laizistischer Staat, wenngleich Repräsentanten des Staates zu religiösen Zeremonien entsandt werden und spezielle konfessionelle Schulen finanzielle Zuwendungen vonseiten des Staates erhalten.
Diaspora.
Zahlreiche Ivorer leben im Ausland, wenngleich ihre genaue Zahl nicht feststellbar ist, da ein Teil von ihnen in ihren Aufenthaltsländern illegal eingewandert ist. Schätzungen gehen von etwa 1,5 Millionen Auslands-Ivorern aus. Begehrteste Ziele ivorischer Auswanderer sind Frankreich, Belgien, die Schweiz, Italien, Deutschland, die USA und Kanada. Diese Auswanderer haben eine große Bedeutung für die ivorische Wirtschaft: Sie überweisen einerseits hohe Summen, um die daheim gebliebenen Angehörigen zu unterstützen, andererseits sind Heimkehrer aus dem Ausland bedeutende Teilnehmer am Immobilienmarkt.
Soziale Lage.
Kinderarbeit und Sklaverei.
Laut einer Ende 2020 veröffentlichten Studie der Universität Chicago gehen in der Elfenbeinküste und Ghana – allein in der Kakaoproduktion – mehr als 1,5 Millionen Minderjährige Kinderarbeit nach.
Stand 2010 wurden laut Menschenrechtsorganisationen etwa 12.000 Kinder als Sklaven auf Kakaoplantagen eingesetzt.
Bildung.
Während einerseits ausländische Investoren das hohe Bildungsniveau der Eliten schätzen, so stellen andererseits mangelnde Bildung und Analphabetismus große Probleme dar. 2016 lag die Alphabetisierungsrate in der Elfenbeinküste bei 43,1 % (Frauen: 32,5 % Männer: 53,1 %). Es wird geschätzt, dass mehr als vier Millionen Jugendliche keine Ausbildung und keinen Arbeitsplatz haben.
Der Staat gab 2001 4,6 % des Bruttoinlandsprodukts bzw. 21,5 % seines Budgets für Bildungszwecke aus. Davon entfielen 43 % auf die Grundschulen, 36 % auf die weiterführende Bildung und 20 % auf die Universitäten.
In der Elfenbeinküste stieg die mittlere Schulbesuchsdauer über 25-Jähriger von 2 Jahren im Jahr 1990 auf 5 Jahre im Jahr 2015 an. Die aktuelle Bildungserwartung liegt bei 8,9 Jahren.
Kindergärten und Schulen.
Das Bildungssystem der Elfenbeinküste ist stark an jenes von Frankreich angelehnt und wurde kurz vor der Unabhängigkeit eingeführt. Es besteht Schulpflicht und die Schulbildung ist kostenfrei, um den Schulbesuch der Kinder im schulpflichtigen Alter zu fördern bzw. zu ermöglichen. Das Bildungssystem umfasst eine Grundschule und eine weiterführende Schule, an die sich die tertiäre Bildung anschließt.
Vor dem Grundschulbesuch gibt es optionale Kindergärten, von denen 2001/2002 auf dem gesamten Gebiet des Landes 391 Einrichtungen registriert wurden. 2005 existierten nur im von den Regierungstruppen kontrollierten Landessüden 600 Kindergärten mit 2109 Erziehern und 41.445 Kindern.
Die Grundschulausbildung dauert sechs Jahre und endet mit dem "Certificat d’études primaires", das zum Aufstieg in die weiterführende Schule berechtigt. Im Jahre 2001 existierten nach der Statistik des Bildungsministeriums 8050 öffentliche Grundschulen mit 43.562 Lehrkräften und 1.872.856 Schülern. Daneben gab es 925 private Grundschulen mit 78.406 Lehrern und 2.408.980 Schülern.
Der Anteil derjenigen Kinder, die eine Grundschule besuchen, lag 2001/2002 bei 79,5 % (für Mädchen nur 67,3 %) und selbst dies erst nach großen Anstrengungen der Regierung in Zusammenarbeit mit der Afrikanischen Entwicklungsbank im Rahmen des Projekts "Projet BAD éducation IV". Die Schulbesuchsquote fiel während des Bürgerkriegs auf 54,4 % (für Mädchen 49,1 %) im Jahr 2005. Generell hat das Schulwesen im Bürgerkrieg einen hohen Schaden erlitten, viele Schulgebäude wurden zerstört und Lehrer verließen unsichere Gegenden.
Die weiterführende Bildung dauert sieben Jahre. In der weiterführenden Bildung dominieren die privaten Einrichtungen: 370 der 522 im Jahr 2005 gezählten Gymnasien waren privat. Nur etwa 20 % der Jugendlichen bekommen eine weiterführende Bildung. Nach dem ersten, vier Jahre dauernden Abschnitt der weiterführenden Bildung bekommt man das "Diplôme national du brevet" und nach drei weiteren Jahren das "Baccalauréat".
Akademische Einrichtungen.
Bereits in den 1960er Jahren wurden in der Elfenbeinküste akademische Bildungseinrichtungen gegründet, um eigene Spezialisten ausbilden zu können. Bis 1992 waren alle diese Hochschulen und Institute staatlich, seitdem wurden zahlreiche Privathochschulen gegründet.
Im Jahr 2004/05 wurden 149 akademische Bildungseinrichtungen gezählt, die von 146.490 Studenten besucht wurden, davon 35 % Mädchen. Darunter fielen drei staatliche Universitäten, vier staatliche Hochschulen "(grandes écoles)" und sieben Privatuniversitäten. Zu den bedeutenderen Einrichtungen gehören das Institut national polytechnique Houphouët-Boigny (INPHB), die École normale supérieure (ENS) und die Agence nationale de la formation professionnelle. Das Ansehen der ivorischen Universitäten ist insbesondere seit dem Bürgerkrieg, als alle Universitäten zum Umzug nach Abidjan gezwungen waren und viele Akademiker das Land verließen, gering.
Gesundheit.
Das Gesundheitssystem der Elfenbeinküste hat durch den Bürgerkrieg schwer gelitten. Viele Einrichtungen wurden geplündert oder zerstört, das Personal musste aus Sicherheitsgründen in den Städten konzentriert werden oder hat das Land ganz verlassen. Fehlende finanzielle Mittel, infrastrukturelle Probleme und mangelnder Ausstattung führen zu einer unzureichenden Versorgung. Behandlungen müssen von den Patienten bar bezahlt werden, weshalb Arme bisher kaum Zugang zu medizinischen Leistungen haben. Überlegungen und Initiativen, einige Behandlungen kostenlos anzubieten, scheiterten an den Finanzen des Landes und an der logistischen Problematik.
Es gibt im Land Gesundheitszentren auf unterschiedlichen Niveaus. Auf dem Land existieren sogenannte ESPC ("Établissements Sanitaires de Premier Contact"), in den regionalen Zentren existieren die CHR ("Centres Hospitaliers Régionaux") und schließlich gibt tes die CHU ("Centres Hospitaliers Universitaires"). 2014 wurde die Einrichtung einer allgemeinen Krankenversicherung ("couverture médicale universelle = CMU") beschlossen, welche ab 2017 schrittweise eingeführt wurde, indem immer mehr Bevölkerungsgruppen aufgenommen wurden. In dieser gibt es zwei Systeme: ein allgemeines Grundsystem ("égime général de base = RGB)" mit einem Pflicht-Beitragssatz von 1000 Franc-CFA (ca. 1,53 Euro) pro Monat und pro Person sowie ein beitragsfreies medizinisches Hilfsprogramm ("régime d’assistance médicale = RAM") für die Armen, die bisher größtenteils vom Gesundheitssystem ausgeschlossen waren. Seit Anfang 2020 gilt die CMU nun für das ganze Land. Jedoch ist mit 1,55 von ca. 24 Mio. Einwohnern erst ein Bruchteil der Bevölkerung registriert. Mobile Teams sollen die Registrierung beschleunigen. Die Versicherten erhalten eine Krankenversicherungskarte. Die Versicherung übernimmt 70 % der Kosten, die restlichen 30 % sind Eigenanteil. Für den Zeitraum 2018–2020 hat der Staat mehr als 833 Milliarden Franc-CFA (ca. 1,26 Mrd. Euro) in den Gesundheitssektor investiert, um die Einrichtung der CMU zu unterstützen, um den Bau der Gesundheitsinfrastruktur zu finanzieren und Personal einzustellen. Die Regierung beschloss zudem ein umfassendes Programm mit einem Volumen von 1.650 Milliarden Franc-CFA (ca. 2,5 Mrd. Euro) für den Zeitraum 2020–2024 für den Bau und die Modernisierung von Universitätskliniken (CHU), regionalen und allgemeinen Krankenhäusern sowie Gesundheitszentren fort.
Häufigste Krankheiten sind, bedingt durch das tropische Klima, Malaria, Cholera, Typhus, Tuberkulose, Gelbfieber sowie Hepatitis A und Hepatitis B. Ein Großteil der Erkrankungen kann auf verschmutztes Trinkwasser zurückgeführt werden; insgesamt haben nur rund drei Viertel der Ivorer Zugang zu sauberem Wasser, wobei der Anteil im Jahr 2017 mit 88 % in den städtischen Regionen wesentlich höher liegt als in den ländlichen Regionen mit 58 %. Die Kindersterblichkeit ist zwischen 1994 und 2007 von 89 auf 117 pro 1000 Lebendgeburten gestiegen, bis 2019 aber wieder auf 84 gesunken. Die Säuglingssterblichkeit lag 2012 bei 73 pro 1000 Geburten, bis 2019 ist sie auf 58 gesunken. Die Müttersterblichkeit lag 2012 bei 400 pro 100.000 Geburten. Etwa 7 % der Bevölkerung sind mit HIV infiziert "(siehe auch: HIV/AIDS in Afrika)", auch andere sexuell übertragbare Krankheiten breiten sich, bedingt durch frühe sexuelle Aktivität und mangelnde Aufklärung schnell aus; unfachmännische Abtreibungen sind häufig. Zudem werden wieder mehr Fälle von Lepra bekannt, die sehr ansteckend ist.
Landesname.
"Côte d’Ivoire" [] ist französisch und bedeutet auf Deutsch „Elfenbeinküste“. Der Name rührt her von der Jagd auf die im Lande heimischen Elefanten wegen des Elfenbeins ihrer Stoßzähne, das lange das wichtigste Exportprodukt des Staates war.
Da die unterschiedlichen Versionen des Staatsnamens in verschiedenen Sprachen (Elfenbeinküste, Ivory Coast, Costa de Marfil, Costa d’Avorio usw.) in internationalen Foren zuvor häufig für Verwirrung gesorgt hatten, verfügte Präsident Houphouët-Boigny Ende 1985, dass der Staatsname nur noch mit dem französischen Namen Côte d’Ivoire geführt und nicht in andere Sprachen übersetzt werden darf. Im deutschsprachigen Raum ist die altherkömmliche Bezeichnung "Elfenbeinküste" (früher auch: „Zahnküste“) im Sprachgebrauch und in den Medien jedoch nach wie vor stärker verbreitet als der französische Ausdruck. Im offiziellen Verkehr, beispielsweise der deutschen Bundesregierung oder des EDA, wird jedoch der offizielle Name "Côte d’Ivoire" verwendet. Im Staat selbst ist die Benutzung einer anderen als der offiziellen Bezeichnung unter Strafe verboten.
Die Bezeichnung für einen Einwohner der Elfenbeinküste ist – gemäß StAGN – Ivorer oder Ivorerin (eingedeutschte Version von franz. "Ivoirien" und "Ivoirienne"). Ein zu „Elfenbeinküste“ korrespondierendes Adjektiv existiert nicht, sodass man auch hier aus dem Französischen das Wort „ivorisch“ ableitet, letzteres ist die offizielle Regelung im EDA.
Geschichte.
Vorkoloniale Zeit.
Bis zur Kolonialisierung wies der Südteil der Elfenbeinküste keine Staatenbildung auf. Der Nordteil hingegen kam ab dem 11. Jahrhundert in den Einfluss der Sahelreiche, etwa des Malireiches ab dem 13. Jahrhundert. Gleichzeitig kam der Islam durch Handel und kriegerische Auseinandersetzungen in diese Region. Im 17. Jahrhundert war der Stadtstaat Kong der mächtigste Staat der Region und ein Zentrum islamischer Gelehrsamkeit.
Kolonialperiode.
Die Portugiesen trieben seit dem 15. Jahrhundert Handel mit den Küstenstämmen, wurden aber seit dem 17. Jahrhundert von den Franzosen verdrängt, die 1843 den Marinestützpunkt Grand-Bassam errichteten und das Gebiet 1893 zur französischen Kolonie Côte d’Ivoire erklärten. Die Niederschlagung von Aufständen, besonders die des islamischen Führers Samory Touré, beschäftigte die französische Kolonialverwaltung mehrere Jahre. 1895 wurde Côte d’Ivoire ein Teil Französisch-Westafrikas in dem auch der Code de l’indigénat galt. 1956 erhielt es innere Selbstverwaltung.
Entsprechend der Loi Lamine Guèye von 1946 hatten alle Bürgerinnen und Bürger bei Wahlen zum französischen Parlament und auch bei lokalen Wahlen ein Wahlrecht. Das passive Wahlrecht wurde in dem Gesetz nicht ausdrücklich erwähnt, war aber auch nicht ausgeschlossen. Bei den Wahlen zum Pariser Parlament gab es in Französisch-Westafrika, wozu Côte d’Ivoire gehörte, kein Zweiklassenwahlrecht wie in anderen französischen Kolonien, für alle örtlichen Wahlen jedoch schon. 1952 wurde unter französischer Verwaltung erstmals das allgemeine Frauenwahlrecht eingeführt. Am 23. Juni 1956, noch unter französischer Verwaltung, wurde die loi-cadre Defferre eingeführt, die das allgemeine Wahlrecht bestätigte.
Ära Houphouët-Boigny.
Am 7. August 1960 erhielt Côte d’Ivoire die volle Unabhängigkeit unter Félix Houphouët-Boigny, der bis zu seinem Tode 1993 Staatspräsident (bis 1990 auch Regierungschef) war. Houphouët-Boigny, der Gründer der Einheitspartei „Parti Democratique de Côte d’Ivoire“ (PDCI), verfolgte eine prowestliche Politik. Im Gegensatz zu anderen Staaten, die unter anderem durch Namensänderung ihr koloniales Erbe in den Hintergrund rückten und mit Bezeichnungen aus der vorkolonialen Zeit eine unabhängige Identität schaffen wollten, hielt die Elfenbeinküste auch nach der Erlangung der Unabhängigkeit im Jahr 1960 an den engen Verbindungen zu Frankreich fest. Das Frauenwahlrecht wurde bei der Unabhängigkeit 1960 erneut bestätigt.
Unruhen unter der Bevölkerung führten dazu, dass 1990 ein Mehrparteiensystem sowie das Amt des Ministerpräsidenten eingeführt wurden. Die prowestliche und marktwirtschaftlich orientierte Politik Houphouët-Boignys machte aus Côte d’Ivoire einen der reichsten Staaten Westafrikas und führte zu politischer Stabilität.
Als „Geschenk an den Vatikan“ ließ Houphouët-Boigny in seinem Geburtsort Yamoussoukro die Basilika Notre Dame de la Paix (Unserer Lieben Frau des Friedens) errichten. Nach drei Jahren Bauzeit setzte er sich damit ein unübersehbares Denkmal. Im September 1990 weihte Papst Johannes Paul II. den Kirchenbau ein. Voraussetzung für die Annahme des Geschenks war Houphouët-Boignys Zusage, in der Nähe der Basilika ein Krankenhaus zu errichten. Dieses Projekt wurde nach 10 Jahren in Angriff genommen und am 14. Januar 2015 beendet.
Nachfolger Houphouët-Boignys wurde 1993 Henri Konan Bédié (PDCI). Die von der Opposition boykottierten Wahlen im Oktober 1995 bestätigten Bédié im Präsidentenamt. Eine Änderung der präsidialen Verfassung von 1960 verlängerte 1998 die Amtszeit des Präsidenten von fünf auf sieben Jahre und stärkte seine exekutiven Befugnisse.
Militärregierung.
Der Verfall der Kakaopreise führte 1999 zu wirtschaftlichen Krisenerscheinungen. Im Dezember 1999 wurde Bédié, der oppositionelle Kreise zunehmend unterdrückt hatte, in einem unblutigen Putsch vom Militär unter Führung von General Robert Guéï gestürzt. Das Land fiel damit in eine tiefe Krise. Unter dem Schlagwort "Ivoirité" kam es zu fremdenfeindlichen Tendenzen und zur Diskriminierung der im Norden des Landes ansässigen Ethnien. Im Jahre 2000 gewann Laurent Gbagbo Präsidentschaftswahlen, von denen der Oppositionskandidat (Alassane Ouattara) ausgeschlossen worden war. Dies wurde damit begründet, dass Ouattaras Eltern aus dem Nachbarland Burkina Faso stammen. Der andauernde Streit darum, wer ein wahrer „Ivorer“ sei und wer nicht, führte schließlich 2002 zu einem bewaffneten Aufstand gegen Gbagbo und zu der darauf folgenden Krise.
Bürgerkrieg und Teilung.
Im September 2002 erhob sich ein Teil der Armee („Forces Nouvelles“) gegen die Regierung und brachte die nördliche Hälfte des Staates unter ihre Kontrolle. Diese Entwicklung hatte ihren Hintergrund in ethnischen Spannungen; in der Elfenbeinküste leben viele aus den angrenzenden Staaten eingewanderte Menschen. Es war aber auch ein Konflikt um Land und den Zugang zu Ressourcen.
Im Auftrag der UNO wurden zur Trennung der Rebellen im Norden und dem südlichen Landesteil mehr als 6300 Blauhelme im Land stationiert (Opération des Nations Unies en Côte d'Ivoire). Zusätzlich waren etwa 4500 französische Soldaten im Land. Letztere agierten ebenfalls im Auftrag der UNO, waren aber schon vor der Krise in Côte d’Ivoire stationiert. Die frühere Kolonialmacht Frankreich setzte einen Friedensplan durch, der eine Machtteilung zwischen Gbagbos FPI und den "Forces Nouvelles" der Rebellen vorsah. Der Krieg wurde somit für beendet erklärt.
Anfang November 2004 eskalierte die Situation erneut, als am 4. November Regierungstruppen Ziele im Norden des Landes aus der Luft angriffen. Gleichzeitig wurden in Abidjan Büros von Oppositionsparteien und unabhängigen Zeitungen verwüstet. Am dritten Tag der Luftangriffe kamen neun französische Soldaten ums Leben. Als Reaktion darauf wurde von den französischen Streitkräften die gesamte Luftwaffe (zwei Kampfflugzeuge, fünf Kampfhubschrauber) Côte d’Ivoires binnen eines Tages vernichtet. Letzteres wurde von der UNO nachträglich für gerechtfertigt erklärt.
Dem südlichen Landesteil unter Gbagbo wurde vorgeworfen, die Teilung der Macht eigentlich nicht gewollt zu haben. Gbagbo habe die Lage seit längerem unter anderem mit Aufrufen zu Hass und Gewalt über TV und Radio destabilisiert. Bis zum 15. November 2004 wurden rund 6000 Ausländer via Luftbrücke evakuiert.
Unter südafrikanischer Vermittlung einigten sich Armee und Rebellen am 9. Juli 2005 neuerlich auf ein Entwaffnungs- und Machtteilungsabkommen. Dieses sollte den Weg freimachen zu Präsidentschaftswahlen am 30. Oktober 2005. Der Bürgerkrieg wurde zum zweiten Mal für beendet erklärt.
Weder die Entwaffnung noch Wahlen wurden jedoch umgesetzt. Gründe dafür waren Unstimmigkeiten bei der Vorgehensweise zur Erfassung der Wähler und über das Ausstellen von Identitätspapieren. Die UNO beschloss eine Verlängerung der Amtszeit von Präsident Gbagbo um ein Jahr und stellte ihm den parteilosen Charles Konan Banny als Premierminister an die Seite.
Mitte Januar 2006 eskalierte die Situation erneut: Es kam in mehreren Orten zu gewalttätigen Demonstrationen mit Toten und Verletzten. Nach einem einschlägigen UN-Beschluss Anfang Februar 2006 wurden Konten von drei Gegnern des Friedensprozesses eingefroren. Die Sanktionen richteten sich gegen Ble Goude und Eugene Djue, die als Anführer militanter Jugendgruppen und Anhänger von Staatspräsident Laurent Gbagbo galten, sowie gegen Rebellenführer Fofie Kouakou. Die Audiences foraines genannte Registrierung von bisher papierlosen Bürgern im Hinblick auf die vereinbarten Wahlen kam nur schleppend vorwärts. Die Opposition behauptete, sie werde von Mitgliedern der Regierungspartei hintertrieben und teilweise verhindert.
Vertrag von Ouagadougou und Machtteilung.
Am 4. März 2007 wurde, nach langwierigen Verhandlungen zwischen Präsident Gbagbo, Rebellenführer Guillaume Soro und dem burkinischen Präsidenten Blaise Compaoré, ein neuer Friedensvertrag unterzeichnet. Dieser Vertrag sah, im Unterschied zu den vorigen Abkommen, neben Machtteilung auch einen ständigen Konzertationsrahmen vor, in dem neben Gbagbo, Soro und Compaoré auch Bédié und Ouattara vertreten waren. Soro wurde zum Premierminister der neu zu bildenden Regierung ernannt. Dieser Vertrag von Ouagadougou enthielt detaillierte Vereinbarungen zur Ausgabe von Identitätspapieren, Aufstellen des Wählerverzeichnisses sowie die Schaffung einer nationalen Armee.
Wenige Wochen später wurde mit dem Abbau der Pufferzone begonnen und es gab erste gemeinsame Patrouillen aus Regierungssoldaten und Rebellen der Forces Nouvelles (FN). Im Juli 2007 besuchte Präsident Gbagbo zum ersten Mal seit fünf Jahren den von den Rebellen gehaltenen Norden. Er nahm dort an einer offiziellen Friedenszeremonie teil, bei der in Anwesenheit zahlreicher afrikanischer Staatschefs Waffen verbrannt wurden.
Präsidentschaftswahlen 2010.
Schließlich wurden die Präsidentschaftswahlen mit einem ersten Wahlgang am 31. Oktober 2010 durchgeführt. Bei einer Wahlbeteiligung von etwa 80 Prozent gewannen unter 14 Kandidaten der damals amtierende Präsident Gbagbo mit 38 Prozent sowie als Kandidaten der Opposition Alassane Ouattara (RDR) mit 32 Prozent und Henri Konan Bédié (PDCI) mit 25 Prozent die meisten Stimmen. Eine Stichwahl zwischen Gbagbo und Ouattara fand am 28. November 2010 statt. Davor kündigten beide an, das Auszählungsergebnis überprüfen zu lassen. Aus der Stichwahl ging laut dem Ergebnis der Wahlkommission CEI (Commission électorale indépendante) Alassane Ouattara mit 54 % der Stimmen als Sieger hervor. Der Verfassungsrat erklärte jedoch die Ergebnisse in vier Regionen für nichtig. Dadurch habe nun Gbagbo die Stichwahl gewonnen. Daraufhin legten sowohl der bisherige Amtsinhaber Laurent Gbagbo als auch Alassane Ouattara den Amtseid ab. Gemäß dem Mandat der UN-Mission UNOCI musste der Sondergesandte Choi Young-jin das Wahlergebnis zertifizieren. Nach seiner Prüfung erklärte er das Ergebnis der Wahlkommission für gültig.
Gbagbo wurde von den Vereinten Nationen, den USA und der Europäischen Union nicht mehr als rechtmäßig gewählter Präsident anerkannt. Der Internationale Währungsfonds drohte mit einem Boykott des Landes. Nach der Festnahme Gbagbos am 11. April 2011 war der Machtkampf zugunsten Ouattaras entschieden.
Erneute Krise 2010/2011.
Ab den Präsidentschaftswahl 2010 kam es zwischen Anhängern beider Lager zu einer Regierungskrise mit gewaltsamen Auseinandersetzungen und Todesopfern. Auch ein Blauhelm-Konvoi wurde angegriffen. Dabei wurden auch schwere Waffen gegen Zivilisten eingesetzt. Bis Ende März 2011 waren eine Million Menschen auf der Flucht vor dem Bürgerkrieg. Am 11. April 2011 wurde der abgewählte Präsident Laurent Gbagbo von den Truppen des international anerkannten Wahlsiegers Ouattara nach langwierigen Kämpfen mit Unterstützung von militärischen Kräften der UNO und Frankreichs festgenommen. Damit hatte sich Ouattara als rechtmäßiger Präsident und sein Premierminister Guillaume Soro weitgehend durchgesetzt.
Gbagbo wurde im November 2011 dem Internationalen Strafgerichtshof in Den Haag überstellt. Ouattara musste sich den Vorwurf der „Siegerjustiz“ gefallen lassen. Bis 2012 wurde kein einziges der zahlreichen Menschenrechts- und Kriegsverbrechen seiner Militärs verfolgt, Verantwortliche benannt oder gar angeklagt, insbesondere nicht für das Massaker von Duékoué, bei dem laut des Internationalen Roten Kreuzes 800 Menschen von Ouattara-Militärs brutal ermordet wurden.
Politik.
Verfassung.
Nach seiner Unabhängigkeit hat die Elfenbeinküste ein präsidentielles Regierungssystem eingeführt. Es existiert formelle Gewaltentrennung in die Exekutive, die Legislative und die Judikative. Dazu kommen Institutionen wie der "Conseil économique et social" und der "Médiateur de la République".
Die im Jahre 2000 verabschiedete Verfassung garantiert Grundrechte und Grundfreiheiten, wie es internationale Abkommen und Verträge verlangen. Ebenfalls ist seit 2000 die Todesstrafe abgeschafft.
Die Realität sieht jedoch anders aus. Im Bürgerkrieg kam und kommt es sowohl durch die Rebellen- als auch durch die Regierungstruppen zu massiven Übergriffen wie Mord, Folter, Verschwindenlassen unliebsamer Personen und sexueller Gewalt. Die Beschneidung weiblicher Genitalien ist offiziell verboten, dennoch wird sie häufig praktiziert; das Gleiche gilt für Kinderarbeit.
Exekutive.
Die Exekutive fiel bis 1990 allein dem Staatspräsidenten zu. Seitdem sind die Kompetenzen auf den Präsidenten als Staatsoberhaupt und auf den Premierminister als Regierungschef verteilt.
Der Staatspräsident wird in direkter, allgemeiner Wahl gewählt. Es werden zwei Durchgänge abgehalten, wobei ein Kandidat die einfache Mehrheit erreichen muss. Das Mandat dauert fünf Jahre und der Präsident kann einmal wiedergewählt werden. Er ist der alleinige Chef der Exekutive; zu seinen Aufgaben gehört es, die nationale Unabhängigkeit zu bewahren, die Integrität des Territoriums aufrechtzuerhalten und internationale Abkommen und Verträge einzuhalten. Er ist Oberbefehlshaber der Streitkräfte, wacht über die Einhaltung der Verfassung und über die Kontinuität des Staates. Er ist Chef der Verwaltung und ernennt zivile wie militärische Beamte. In Krisenzeiten erhält der Präsident Sondervollmachten. Im Fall des Todes, des Zurücktretens oder der Absetzung des Präsidenten übernimmt der Präsident der Nationalversammlung dieses Amt für eine Dauer bis zu 90 Tagen.
Der Premierminister wird vom Staatspräsidenten ernannt und kann von ihm wieder entlassen werden. Verfassungsgemäß hat der Premierminister keine eindeutig exekutive Funktion. Er vertritt jedoch den Staatspräsidenten, wenn er außerhalb des Landes ist. Der Premierminister muss nicht aus der parlamentarischen Mehrheit hervorgehen. Die Regierung, die dem Premierminister untersteht, wird vom Staatspräsidenten auf Vorschlag des Premierministers ernannt. Er leitet die Regierung und kann gewisse Autoritäten an die Minister delegieren.
Legislative.
Die Elfenbeinküste verfügte bis 2016 über ein Einkammerparlament, die Nationalversammlung "(Assemblée nationale)". Die Anzahl der Parlamentssitze wurde bei den Parlamentswahlen 2011 von 225 auf 255 erhöht. Das Parlament hat ferner ein Büro, mehrere technische Kommissionen und parlamentarische Gruppen. Die Abgeordneten werden in allgemeinen Wahlen direkt für eine Amtszeit von 5 Jahren gewählt. Abweichend von dieser rechtlichen Regelung wurde unter Präsident Gbagbo nach dem Ausbruch des Bürgerkriegs (2002) und der sich anschließenden faktischen Zweiteilung des Landes die eigentlich 2005 fällige Neuwahl des Parlaments nicht durchgeführt. Die letzte Wahl der Nationalversammlung fand am 6. März 2021 statt.
In der Nationalversammlung wird über Gesetze und Steuern abgestimmt, des Weiteren hat sie verfassungsgemäß die Kontrolle über die Tätigkeiten der Exekutive. Um die Unabhängigkeit der Nationalversammlung zu sichern, sind die Abgeordneten immun vor Strafverfolgung aufgrund der Ausübung ihrer Abgeordnetentätigkeit und auch für Strafverfolgung wegen Vergehen außerhalb ihrer Abgeordnetenfunktion muss es die Zustimmung des Parlaments geben.
Im Zuge einer neuen Verfassung, die am 8. November 2016 in Kraft trat, wurde ein Zweikammerparlament in der Elfenbeinküste eingeführt. Darin stellt die Nationalversammlung das Unterhaus dar und ein neu geschaffener Senat das Oberhaus. Der Senat besteht aus 99 Senatoren mit einer Amtszeit von fünf Jahren. Davon werden 66 in indirekter Wahl gewählt (erstmals am 25. März 2018) und 33 werden vom Präsidenten der Republik ernannt (erstmals am 3. April 2019 durch Alassane Ouattara). Am 11. April 2019 trat der Senat zum ersten Mal zusammen und erhielt seine parlamentarischen Befugnisse, die zuvor bei der Nationalversammlung lagen.
Parteienlandschaft.
Kurz vor der Unabhängigkeit der Elfenbeinküste wurden im Jahr 1956/57 erste pluralistische Wahlen organisiert, um die Territorialversammlung und Gemeinderäte zu wählen. Alle Sitze wurden von der Parti Démocratique de Côte d’Ivoire, einer Teilbewegung des Rassemblement Démocratique Africain gewonnen. Kurz nach dieser Wahl entschieden sich alle politischen Mitbewerber, sich der PDCI-RDA im Rahmen eines "nationalen Konsenses" unterzuordnen. Die PDCI-RDA wurde somit zur einzigen Partei des Landes. Dieses Einparteiensystem blieb praktisch bis 1990 bestehen, auch wenn zeitweise vorsichtige Schritte zur Bildung einer Opposition unternommen wurden oder einzelne Krisen das Land erschütterten (etwa die Sanwi-Affaire 1959–1966, das angebliche Komplott gegen den Präsidenten 1963/64, Guébié-Affaire 1970 oder der gescheiterte Putsch 1973).
Dieses System endete mit den Massendemonstrationen im Jahr 1990 und der Rückkehr zum Mehrparteiensystem, wie es eigentlich seit 1960 in der Verfassung der Republik verankert war. Im gleichen Jahr wurden zahlreiche neue Parteien gegründet. Die Parteien, die momentan politischen Einfluss haben, sind der sozialistische Front Populaire Ivoirien (FPI) unter Pascal Affi N’Guessan, die rechtsliberale Parti Démocratique de Côte d’Ivoire – Rassemblement démocratique africain (PDCI-RDA) unter Henri Konan Bédié und der liberale Rassemblement des Républicains (RDR) unter Alassane Ouattara. Nennenswert, jedoch mit weniger politischem Gewicht ausgestattet, sind die Union pour la démocratie et la paix en Côte d'Ivoire (UDPCI) von Albert Mabri Toikeusse und die sozialistische Parti Ivoirien des Travailleurs (PIT) unter Francis Wodié.
Judikative.
Die Elfenbeinküste hat aus der Kolonialzeit ein Justizsystem geerbt, das zwei parallele Rechtsprechungen aufwies – einerseits das französische Recht, andererseits das lokale Gewohnheitsrecht. Dies resultierte aus zwei verschiedenen Gesetzgebungen, die wiederum zwischen den verschiedenen Bevölkerungsschichten und deren Status unterschieden. Frankreich behielt damals für "normale" Ivorer einen anderen rechtlichen Status bei als für Franzosen und Gleichgestellte.
Nach der Unabhängigkeit ging man daran, einen Justizapparat aufzubauen, der sowohl modern als auch an die Notwendigkeiten des Landes angepasst war. Es wurden neue Strukturen aufgebaut und das entsprechende Personal ausgebildet. Obwohl seit 1960 viele Veränderungen geschehen sind, bleiben die französischen Einflüsse im ivorischen Justizsystem stark.
Die Justizgewalt wird in zwei Instanzen unter der Kontrolle des obersten Gerichts "(Cour suprême)" ausgeübt. Der Verfassungsrat sowie der Hohe Gerichtshof "(Haute cour de justice)", sind Sondergerichtsbarkeiten.
Konsultativ- und Vermittlungsorgane.
Der "Conseil économique et social" "(Wirtschafts- und Gesellschaftsrat)" ist ein Konsultativorgan, das in der Verfassung der Elfenbeinküste vorgesehen ist. Er ist dafür eingerichtet, die wichtigsten wirtschaftlichen und gesellschaftlichen Tätigkeiten zu repräsentieren, die Zusammenarbeit verschiedener Wirtschaftszweige und die Wirtschafts- und Sozialpolitik der Regierung zu verbessern. Gesetzesprojekte aus Wirtschafts- und Sozialpolitik werden ihm zur Kommentierung vorgelegt. Der Staatspräsident kann diese Einrichtung zu allen wirtschaftlichen und Sozialfragen konsultieren.
Die Mitglieder dieser Institution werden für fünf Jahre ernannt. Das Auswahlkriterium ist, wie sehr die jeweiligen Personen zur Entwicklung des Landes beigetragen haben. Momentan hat der "Conseil économique et social" 125 Mitglieder. Sein Vorsitzender ist seit dem 19. Mai 2011 Marcel Zady Kessy.
Der "Médiateur de la République" "(Vermittler der Republik)" ist ebenfalls ein verfassungsmäßig vorgesehenes Organ. Er ist eine unabhängige Verwaltungseinheit, der etwa die Funktion eines Ombudsmanns einnimmt. Der Vorsitzende dieser Organisation wird vom Staatspräsidenten nach Vorschlag des Präsidenten der Nationalversammlung ernannt, seine Amtszeit dauert sechs Jahre und ist nicht verlängerbar. Er kann auch nicht vor Ende seiner Amtszeit abgesetzt werden; er kann nur durch den Verfassungsrat ("Conseil constitutionnel") seines Amtes enthoben werden. Er ist in der Ausübung seines Amtes immun. Er kann nicht gleichzeitig zu dieser Funktion ein anderes politisches Amt oder eine öffentliche Funktion bekleiden, ebenso darf er keine andere berufliche Funktion ausüben. Die Funktion des "Médiateur de la République" wird gegenwärtig von N’Golo Coulibaly bekleidet.
Militär.
Der ivorische Staat hat seit seiner Existenz nie konsequent am Aufbau eigener Streitkräfte gearbeitet. Er verließ sich anstelle dessen auf die abschreckende Wirkung der französischen Militärpräsenz in der Region. Mit Frankreich existieren Verteidigungs- und Militärhilfeabkommen inklusive Geheimklauseln.
Im August 2002 erklärte der damalige Präsident Gbagbo grundsätzlich, dass Westafrika eine militärische Kooperationslogik statt gegenseitige Abschreckung benötige. Aufgrund des Bürgerkriegs blieb es in der Folge aber bei dieser Erklärung.
Beim Militär ist momentan für die Regierung die wichtigste Aufgabe, die Milizen abzurüsten und deren Söldner wieder in die Gesellschaft einzubinden, um in der Folge eine reguläre nationale Armee aufzubauen. Die eigens für die Entwaffnung von Zivilisten eingerichtete Nationale Kommission für den Kampf gegen die Verbreitung von Leicht- und Kleinwaffen schätzt die Zahl der im Land im Umlauf befindlichen Waffen auf drei Millionen.
Das Land gab 2017 knapp 1,3 Prozent seiner Wirtschaftsleistung oder 496 Millionen US-Dollar für seine Streitkräfte aus.
Verwaltungsgliederung.
Seit dem 28. September 2011 unterteilt sich die Elfenbeinküste in 12 Distrikte sowie die zwei autonomen Stadtdistrikte Abidjan und Yamoussoukro. Bis dahin hatten 19 Regionen die oberste Verwaltungsebene gebildet. Die Distrikte unterteilen sich in 31 Regionen, die Regionen in 107 Departements und diese wiederum in 197 Gemeinden.
Wirtschaft.
Die Elfenbeinküste verfügt über die stärkste Wirtschaft der westafrikanischen Wirtschafts- und Währungsunion, zu deren gesamtem BIP sie 40 % beiträgt. Das Pro-Kopf-BIP liegt ebenfalls über dem westafrikanischen Durchschnitt, jedoch unter dem gesamtafrikanischen. Die Wirtschaft hat sich mithin von den Wirren des Bürgerkrieges, der 1,7 Millionen Menschen in die Flucht trieb, die offizielle Verwaltung zusammenbrechen ließ, die Produktion behinderte und die Arbeitslosigkeit in die Höhe schnellen ließ, erholt. Das zeigen nicht zuletzt die Investitionen, die sich 2007 gegenüber 2006 vervierfachten und etwa 520 Millionen Euro betrugen. Im Jahre 2015 wuchs die Wirtschaft des Landes mit 9,2 % und gehörte damit zu den am schnellsten wachsenden Volkswirtschaften weltweit.
Die Elfenbeinküste ist auch ein von Armut gekennzeichnetes Land. Als arm gilt in der Elfenbeinküste jemand, der weniger als 162 800 XOF (250 Euro) pro Jahr zum Leben hat. Landesweit fallen 43,2 % der Menschen unter diese Armutsgrenze, in einigen ländlichen Savannengebieten gelten weit mehr als die Hälfte der Menschen als arm.
Im Global Competitiveness Index, der die Wettbewerbsfähigkeit eines Landes misst, belegte die Elfenbeinküste Platz 99 von 138 Ländern (Stand 2016–17). Im Index für wirtschaftliche Freiheit belegte das Land 2017 Platz 75 von 180 Ländern.
Kennzahlen.
Alle BIP-Werte sind in Internationalen US-Dollar (Kaufkraftparität) angeben. In der folgenden Tabelle kennzeichnen die Farben:
Land- und Forstwirtschaft.
Die Landwirtschaft ist nach wie vor der dominierende Wirtschaftszweig der Elfenbeinküste. Sie beschäftigt zwei Drittel der ivorischen Arbeitskräfte und bestreitet die Exporterlöse zu 70 %, auch wenn sie nur 23 % zum BIP beiträgt.
Das Land ist weltgrößter Kakaoproduzent und -exporteur, mit einer Ernte von 1,335 Millionen Tonnen 2003/2004. Damit hat es einen Anteil von 40 % an der weltweiten Gesamtproduktion. Den Kakao ernten zum Teil Kindersklaven. War der Kakao einst das wichtigste Exportprodukt, so hat es diesen Status mittlerweile an die Erdölprodukte verloren. Zudem ist die Kakaoernte in den vergangenen Jahren stark gesunken. Dies lag einerseits am niedrigen Erzeugerpreis für Kakaobohnen, was viele Pflanzer auf andere Erzeugnisse umsteigen ließ und Reinvestitionen der Gewinne in die Plantagen unattraktiv machte. Daneben erheben der Staat und lokale Rebellen hohe Abgaben auf Agrarerzeugnisse, was den Schmuggel in die Nachbarländer fördert. Die schlechte Sicherheitslage vertrieb die Wanderarbeiter und ließ Lagerkapazitäten verfallen.
2003 trat in der Provinz Marahoue im Zentrum des Landes erstmals der Cacao-swollen-shoot-Virus aus und vernichtete den Kakaoanbau auf 8000 Hektar Fläche. Dieser Virus befällt nur den Kakaobaum und wird durch Läuse übertragen. Bei der betroffenen Pflanze schwellen der Stamm und junge Triebe an; die Pflanze stirbt schließlich ab. Mit Stand Juni 2018 gibt es kein Mittel dagegen, auch das Nachbarland Ghana, zweitgrößter Kakaobohnenproduzent ist betroffen. Die Elfenbeinküste produziert jährlich rund 2 Mio. Tonnen Kakaobohnen, die Branche ist der größte Arbeitgeber des Landes (Stand Juni 2018). Seit Juli 2016 ist die Produktion um rund 40 % zurückgegangen. Im Juni 2018 erklärte Gneneyeri Silue, zuständig für Pflanzenschutz im ivorischen Landwirtschaftsministerium, dass auf den betroffenen Plantagen mit 100.000 ha Fläche, 3 Jahre lang alle Pflanzen ausgerissen werden müssen und dann noch 2 Jahre Quarantäne eingehalten werden müssen. Demnach sind im Südwesten und Westen des Landes große Teile der Produktion bedroht.
Ein weiteres wichtiges Exportprodukt ist der Kaffee. Angebaut wird vor allem die Sorte "Robusta". Insgesamt leben vom Kaffee- und Kakaoanbau direkt oder indirekt sechs Millionen Menschen. Mit 130.500 Tonnen an produziertem Rohkaffee, was einen weltweiten Anteil von 1,2 % ausmacht, stand die Elfenbeinküste im Jahr 2014 auf Platz 12 der Anbauländer von Kaffee.
Weitere wichtige Produkte sind Palmöl, Kokosnüsse, Baumwolle (Export von Rohbaumwolle: 105.423 Tonnen im Jahr 2004, vor allem in die Volksrepublik China, nach Indonesien, Thailand und Taiwan), Kautschuk, Kolanüsse (weltgrößter Produzent mit 65.216 Tonnen) und Zuckerrohr. Tropische Früchte wie Ananas, Bananen, Mangos, Papaya, Avocado und Zitrusfrüchte werden nach Europa exportiert. Kaschubäume, die ursprünglich nur im Landesnorden wuchsen, werden jetzt auch südlich davon angebaut; die Ernte an Cashewnüssen betrug 2006 235.000 Tonnen, davon gingen 210 in den Export. Weiterhin nennenswert sind die Produktion von Zitronen, Bergamotten und von Bitterorangen.
An Ackerfrüchten werden vor allem Mais (608.032 Tonnen auf 278.679 Hektar), Reis (673.006 Tonnen auf 340.856 Hektar), Yams (4.970.949 Tonnen auf 563.432 Hektar), Maniok (2.047.064 Tonnen auf 269.429 Hektar) und Kochbananen (1.519.716 Tonnen auf 433.513 Hektar) angebaut. Nur etwa 10.000 Hektar landwirtschaftliche Nutzfläche der Elfenbeinküste werden künstlich bewässert. Es wird jedoch geschätzt, dass die Bewässerung von 600.000 Hektar Land ökonomisch sinnvoll wäre.
Der Ausbau der Viehzucht ist ein Entwicklungsziel der Regierung, weil der Bedarf der Bevölkerung an tierischen Produkten teils noch durch Importe gedeckt werden muss. Obwohl die Jagd aus Naturschutzgründen bereits im Jahr 1974 offiziell verboten wurde, ist Wild noch ein bedeutender Fleischlieferant. Auch bei Fischprodukten ist die Elfenbeinküste auf Importe angewiesen (204.757 Tonnen im Jahr 2000), trotz ihrer 500 km langen Küste. Aus diesem Grund fördert die Regierung das Anlegen von Fischteichen.
Die wichtigste natürliche Ressource der Elfenbeinküste ist Holz, wovon das Land mehr exportiert als das viel größere Brasilien. Die schnell fortschreitende Abholzung wird kurzfristig jedoch, von dem ökologischen Problem abgesehen, zum Versiegen dieser Einnahmequelle und Ressource führen. Im Jahr 2008 waren nur etwa 10 % landwirtschaftlich nutzbar, wobei dieser Wert seit der Unabhängigkeit des Landes konstant leicht gestiegen ist und seit 2000 etwa gleich geblieben ist. 1970 lag dieser Wert bei etwa 5 %.
Bergbau und Rohstoffe.
Erdöl, das vor der Küste vorkommt, ist seit 2005 das wichtigste Exportprodukt der Elfenbeinküste. Die Erdölreserven werden auf etwa 600 Millionen Barrel geschätzt, 2007 wurden jedoch nur 17,4 Millionen Barrel gefördert. Damit gehört die Elfenbeinküste nicht zu den großen afrikanischen Erdölproduzenten. Ob die relativ niedrige Fördermenge an technischen Problemen liegt oder ob die Regierung die Fördermengen fälscht, um die Einnahmen aus dem Erdölexport am Staatshaushalt vorbeischleusen zu können, ist nicht geklärt.
Neben Erdöl wird auch Gas produziert, wobei sich hier die Reserven auf 23.690 Milliarden Kubikmeter belaufen dürften. 2006 wurden 53,8 Millionen MMBtu gefördert.
Industrie.
Die Industrie trug 2005 nur etwa 23,1 % zum Bruttoinlandsprodukt bei, 2000 waren es noch 24,5 %. Sie wird von kleinen und mittleren Betrieben dominiert; trotz aller Probleme, deren sie sich gegenübersieht, ist sie die am meisten diversifizierte in Westafrika. Sie stellt 40 % des Potentials der WAEMU-Länder. Die kleinen und mittleren Unternehmen waren auch von den Krisenjahren am schwersten betroffen, während die großen internationalen Firmen den Bürgerkrieg in der Regel gut überstanden haben.
Ein wichtiger Zweig ist die Raffinierung des Rohöls. Die Elfenbeinküste kann momentan 70.000 Barrel Rohöl pro Tag verarbeiten, wobei neben eigenem Öl auch Öl der Nachbarländer raffiniert wird. Kapazitäten für die Verarbeitung von weiteren 60.000 Barrel sind im Bau.
2007 wurden 1059 kg Gold produziert.
Aufgrund des Wiederaufbaubedarfes, aber auch wegen des Baubeginns an einigen Infrastrukturprojekten, kann die Bauindustrie der Elfenbeinküste starke Zuwächse verzeichnen. Ebenso wird erwartet, dass die Lebensmittelindustrie von den steigenden Nahrungsmittelpreisen und der steigenden Inlandsnachfrage profitieren wird. Insgesamt verlassen aber viele Produkte das Land in unverarbeitetem Zustand. Politische Instabilität und Korruption haben inländische wie ausländische Investoren von kapitalintensiven Projekten abgehalten. Der Umfang ausländischer Investitionen an der Elfenbeinküste liegt unter dem Durchschnitt der in Afrika südlich der Sahara getätigten Auslandsinvestitionen.
Am 18. Mai 2015 wurde die erste industrielle Schokoladenfabrik (10.000 t/Jahr) im Land von Präsident Alassane Ouattara eröffnet.
Tourismus.
Der Tourismus hat ein hohes Potential an der Elfenbeinküste. Das Land hat 520 km Atlantikküste mit zahlreichen Stränden, vielen Nationalparks mit seltener Flora und Fauna und Ethnien mit vielfältiger Kultur, so dass Touristen genügend Attraktionen geboten werden können.
Die ivorische Regierung hat dies erkannt und auch einiges an gesetzlicher Grundlage und materieller Infrastruktur geschaffen. Die Elfenbeinküste blieb trotzdem bis in die 1980er Jahre zunächst primär ein Ziel für Geschäftsreisende, wenngleich sich einige Ausländer dauerhaft in dem Land ansiedelten, um dort zu leben. Die antifranzösischen Ausschreitungen (die sich auch gegen Nicht-Franzosen richteten), die folgende Evakuierung und der Bürgerkrieg haben jedoch den Fremdenverkehr vollständig zum Erliegen gebracht.
Finanzsystem.
Die Elfenbeinküste ist Mitgliedsstaat der WAEMU. Es hat daher keine eigene Währung, keine eigene Zentralbank und muss die Geldpolitik deshalb mit den anderen WAEMU-Staaten koordinieren.
Das Budget der Regierung für 2008 betrug 2129 Milliarden XOF, wovon drei Viertel aus Steuereinnahmen stammen. Der Rest stammt aus anderen ivorischen Quellen, Schuldenaufnahme und Stützungszahlungen aus dem Ausland. Besonders hoch sind die Ausgaben für Abrüstung, soziale Reintegration, für die Organisation einer Wahl, für den Aufbau einer nationalen Armee und für das Wiedererlangen der staatlichen Kontrolle über das gesamte Territorium.
Angesichts dessen, dass der informelle Sektor etwa 40 % der Wirtschaftsleistung erbringt, versucht der Staat, seine Steuereinnahmen zu erhöhen und die Eintreibung zu rationalisieren. Zu diesem Zweck laufen Programme, eine einheitliche Mehrwertsteuerrechnung einzuführen und um die Zollabwicklung zu verbessern. Alles in allem ist der Staatshaushalt in etwa ausgeglichen.
Das Bankensystem der Elfenbeinküste findet langsam zur Normalität zurück. Nachdem während des Bürgerkrieges alle Banken im Norden der Elfenbeinküste schließen mussten, öffnen die Bankfilialen nach und nach wieder. Dies gilt auch für den Mikrofinanzsektor. Die Banken werden durch etwa 20 % fauler Kredite in ihren Büchern belastet; an vielen dieser faulen Kredite trägt der Staat Schuld, weil er seine Rechnungen nicht bezahlt.
Außenwirtschaft.
Die Elfenbeinküste ist Mitglied in mehreren regionalen Organisationen, die die wirtschaftliche Integration zum Ziel haben. Die wichtigsten sind die Westafrikanische Wirtschafts- und Währungsunion UEMOA und die Westafrikanische Wirtschaftsgemeinschaft ECOWAS.
Die Elfenbeinküste hatte in der Vergangenheit dank der Kakao- und Erdölexporte immer eine positive Handelsbilanz. Bis heute (Stand 2020) ist die Elfenbeinküste der größte Exporteur von Kako. Im Jahre 2007 exportierte die Elfenbeinküste Waren im Wert von 6,2 Milliarden Euro und importierte Waren im Wert von 4 Milliarden Euro. Wichtigste Exportgüter sind Erdölprodukte und Rohöl, Kakao, Holz, Kaffee, Cashew-Nüsse, Baumwolle, Naturkautschuk, Palmöl, Fisch, Textilien, Zement und Tropenfrüchte. Importiert werden hingegen Rohöl und Erdölprodukte, industrielle Rohstoffe, Lebensmittel, Getränke sowie Investitionsgüter. Wichtigste Zielmärkte für die Exporte der Elfenbeinküste sind die EU (41,1 %) und hier vor allem Frankreich, die anderen Länder der UEMOA (12,6 %), die USA (7,1 %) und asiatische Staaten (4,3 %). Importiert wird vor allem aus der EU (32,7 %), aus Asien (17,4 %), aus den USA (2,9 %) und den UEMOA-Staaten (0,9 %).
Seit 2010 steigen die Importe rasch an, während die Kakao- und Ölexporte sanken. 2012 war das erste Jahr mit einem Außenhandelsdefizit.
Die Exporte nach Deutschland bestehen fast nur aus Kakao und Erdöl. Der in Deutschland verarbeitete Kakao stammte 2007 zu etwa 60 % aus der Elfenbeinküste. Aus Deutschland importiert werden vor allem Fahrzeuge, Maschinen und Pharmazeutika. Für die deutschen Exporte spielt die Elfenbeinküste als Markt nur eine sehr untergeordnete Rolle, sie belegen 2021 in der Außenhandelsstatistik den 92. Platz.
Ausländische Investitionen stammen in der Elfenbeinküste vor allem aus Frankreich, Südafrika, Großbritannien und den Nachbarländern. Sie sind jedoch im Jahresvergleich sehr stark schwankend.
Die Außenverschuldung betrug 2007 64 % des BIP und 124 % der Exporte eines Jahres. Es zählt somit zu der Gruppe der Hochverschuldeten Entwicklungsländer. Im April 2002 waren bereits umfangreiche Schuldenstreichungen von Seiten der G8 zugesagt. Der Bürgerkrieg hat diesen Prozess jedoch verzögert. 2012 erfolgte ein Schuldenschnitt.
Die Elfenbeinküste ist Mitglied der International Cocoa Organization, welche seit 2017 ihren Hauptsitz in Abidjan hat.
Korruption.
Ein großes Problem des Staates ist der hohe Grad an Korruption. Côte d’Ivoire belegte 2010 mit Platz 146 von 178 einen der untersten Plätze in der Statistik von Transparency International. 2017 hatte sich das Land auf Platz 103 von 180 verbessert.
Exemplarisch dafür steht der Giftmüllskandal aus dem Jahr 2006: Anfang September 2006 wurde bekannt, dass von einem ausländischen Schiff aus auf mehreren Deponien, aber auch in der offenen Kanalisation und in Straßengräben in Abidjan über 500 Tonnen Giftmüll abgeladen wurde. Dieses führte zu über 1500 Erkrankungen und mindestens acht Todesfällen. Etwa 15.000 Bewohner klagen über Vergiftungserscheinungen. Als Reaktion auf diesen Giftmüllskandal erklärte die Übergangsregierung von Ministerpräsident Banny am 6. September ihren Rücktritt, um rund zehn Tage später mit minimalen Änderungen wieder ihr Amt anzutreten. Während Präsident Gbagbo ausländische Mächte für diesen „Anschlag“ auf die Elfenbeinküste verantwortlich macht, sind Regimekritiker und die Opposition sich einig, dass die erst wenige Wochen zuvor gegründete verantwortliche Firma dem Verkehrsminister und Gbagbos Frau Simone gehörten und Schmiergelder in Millionenhöhe geflossen seien. Ob von den 150 Millionen Euro, die das Unternehmen Trafigura an Entschädigungen zahlte, jemals etwas an die Opfer weitergegeben wurde, ist ebenfalls zweifelhaft.
Staatshaushalt.
Der Staatshaushalt umfasste 2016 Ausgaben von umgerechnet 8,170 Mrd. US-Dollar, dem standen Einnahmen von umgerechnet 6,839 Mrd. US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 3,7 % des BIP.
Die Staatsverschuldung betrug 2016 17,2 Mrd. US-Dollar oder 48,7 % des BIP. Nach den Unruhen von 2010/2011 wurde die Elfenbeinküste im Februar 2011 zahlungsunfähig. Im Juni 2012 wurden ihr nach einem Abkommen mit den Gläubigern 7,7 Mrd. US-Dollar Schulden erlassen.
2006 betrug der Anteil der Staatsausgaben (in % des BIP) folgender Bereiche:
2013 betrug der Anteil der Staatsausgaben insgesamt 24,6 % des BIP, der Anteil der Staatseinnahmen 21,7 % des BIP. Für Sozialausgaben wurden 1,7 % des BIP aufgewendet.
Infrastruktur.
Verkehr.
Straßenverkehr.
Das Straßennetz der Elfenbeinküste ist im Vergleich westafrikanischer Staaten gut ausgebaut. Im Jahr 2000 hatte es eine Länge von 85.000 Kilometern, davon 75.500 Kilometer unbefestigt, 6500 Kilometer asphaltierte Straßen und 150 Kilometer Autobahn. Per Straße ist das Land mit seinen Nachbarn Ghana, Liberia, Mali und Burkina Faso verbunden. Die Autoflotte der Elfenbeinküste wird auf 600.000 Fahrzeuge geschätzt, davon drei Viertel Gebrauchtwagen aus anderen Ländern. Jedes Jahr gibt es 20.000 Neuzulassungen. Der öffentliche Verkehr wird fast zur Gänze auf der Straße abgewickelt, entweder in Linienbussen oder in Sammeltaxis, die in der Elfenbeinküste "Taxi-Brousse" heißen.
Etwa drei Viertel der Straßen befindet sich in gutem Zustand, wobei die strategisch wichtige Nord-Süd-Verbindung in besonders schlechtem Zustand ist. Im Jahr 2009 wurde nur etwa ein Viertel dessen ausgegeben, was notwendig gewesen wäre, um das Straßennetz zu warten und wieder in Stand zu setzen.
Nur etwa ein Drittel der Landbevölkerung hat im Umkreis von zwei Kilometer Zugang zu einer ganzjährig befahrbaren Straße. Es wären etwa 20.000 km neuer Straßen notwendig, um 80 % der Ackerbaugebiete, und damit 50 % der Landbevölkerung, zu erschließen. Neben der Unterfinanzierung trägt auch die Duldung überladener LKWs zu schlechten Straßenzuständen bei. Korrupte Polizisten nehmen an den ivorischen Straßen jährlich schätzungsweise zwischen 200 und 290 Millionen US-Dollar an illegalem Wegzoll von Spediteuren und Reisenden ein. Dieser außerordentlich hohe Wert schwächt die Wettbewerbsfähigkeit der Elfenbeinküste als Transitland für den Handel seiner Nachbarstaaten.
Schienenverkehr.
Die Abidjan-Niger-Bahn verbindet das Land mit Ouagadougou, der Hauptstadt von Burkina Faso. Diese während der Kolonialzeit erbaute Strecke hat besonders für die Binnenstaaten Burkina Faso, Niger und Mali eine hohe Bedeutung. Sie ist etwa 1260 Kilometer lang, etwa die Hälfte davon verläuft innerhalb der Elfenbeinküste. Seit 1995 wird die Linie vom privaten Konsortium Sitarail betrieben, das seitdem Warentransport und Produktivität ständig steigern konnte und heute der erfolgreichste Bahnbetreiber Westafrikas ist, wenngleich die Indikatoren weit entfernt von jenen eines europäischen Betreibers liegen. Obwohl sich die Gesellschaft nach dem Bürgerkrieg, aufgrund dessen das Frachtvolumen von 800 auf 100 Millionen Tonnen eingebrochen war, erholt hat und nun jährlich knapp eine Million Tonnen befördert, war sie nicht in der Lage, die bei Konzessionsvergabe zugesagten Investitionen zu tätigen. Der Investitionsbedarf, um Anlagen und Fahrzeuge instand zu setzen und zu modernisieren, wird auf 230 Millionen US-Dollar im Zeitraum zwischen 2008 und 2020 geschätzt.
Luftverkehr.
Es existieren drei internationale Flughäfen in der Elfenbeinküste, in Abidjan, Yamoussoukro und Bouaké. Daneben gibt es regionale Flughäfen in 14 weiteren Städten und 27 Flugfelder. Die meisten sind jedoch seit Ausbruch des Bürgerkrieges außer Betrieb. Seitdem zu Beginn der 2000er Jahre zahlreiche afrikanische Fluglinien bankrottgingen, hat sich das Angebot an Verbindungen von Abidjan aus stark verschlechtert, der Inlandsluftverkehr kam sogar ganz zum Erliegen. Der Luftverkehr der Elfenbeinküste hat wie jener seiner Nachbarländer ein Sicherheitsproblem: Keiner der Flughäfen und keine der Fluglinien hat die internationalen Sicherheitsaudits bestanden. Einheimische Fluglinien mussten in der Vergangenheit öfters den Flugbetrieb einstellen, wie Air Afrique 2002 und Air Ivoire 2011. Seit 2012 bietet Air Côte d'Ivoire Flüge innerhalb Westafrikas an.
Schifffahrt.
In der Elfenbeinküste befinden sich zwei Seehäfen, der Port autonome d’Abidjan und der Port autonome de San-Pédro. Bis zum Jahr 2002 war der Hafen von Abidjan der wichtigste und größte Westafrikas. Er ist nicht nur für die Elfenbeinküste von Bedeutung, sondern auch für die der nördlich angrenzenden Binnenstaaten. 2005 wurden im Hafen von Abidjan 18,7 Millionen Tonnen umgeschlagen, im Hafen von San-Pedro eine Million Tonnen. Durch den Bürgerkrieg ist der Umschlag jedoch eingebrochen. Seit 2007 hat sich die Situation normalisiert, 2008 wurde ein Container-Terminal in Betrieb genommen und 2010 ein Programm gestartet, um mit 50 Millionen US-Dollar die Anlagen zu modernisieren. Somit schlägt der Hafen von Abidjan die Güter zwar schneller um als seine Mitbewerber in den Nachbarländern, hat aber auch höhere Kosten. Entscheidend für die Elfenbeinküste wird es sein, ob die Entwicklung und der Erhalt der Verkehrs-Infrastruktur im Hinterland gelingt.
Telekommunikation.
Die Elfenbeinküste hat – wie viele andere afrikanische Staaten – einen Boom im Telekommunikationssektor erlebt. Im Jahr 2005 wurde ein Rahmen geschaffen, der zu starkem Wettbewerb unter den Anbietern von Mobilfunk-Leistungen führte. Da das gesamte Land kostendeckend mit Mobilfunk versorgt werden kann, gehört die Elfenbeinküste zu den für die Anbieter interessantesten afrikanischen Ländern. Der Zugang zu Mobilfunk stieg in der Folge von 9 % der Ivorer im Jahr 2005 auf 51 % im Jahr 2008. Die Preise sind jedoch im afrikanischen und internationalen Vergleich hoch. Die Festnetztelefonie spielt in der Elfenbeinküste seitdem keine nennenswerte Rolle mehr. Die Elfenbeinküste ist an das internationale Unterseekabel South Atlantic 3 angeschlossen. Da der staatliche Telekom-Betreiber das Monopol über diesen Knoten besitzt, sind die Preise für Internet-Zugang relativ hoch. Im Jahr 2019 nutzten 36,3 Prozent der Einwohner das Internet.
Energie- und Wasserversorgung.
Im Jahr 2005 wurden 5,31 Milliarden kWh elektrische Energie erzeugt, davon etwa 73 % aus Wärmekraftwerken, die mit heimischem Erdgas betrieben werden. 27 % stammen aus Wasserkraft. Die Erzeugung, Übertragung, Verteilung, Abrechnung und der internationale Handel mit elektrischer Energie liegt bei der 1990 gegründeten Compagnie Ivoirienne d’électricité, die die Konzession dazu bis zum Jahr 2020 erhalten hat. Die Elfenbeinküste ist ein Exporteur von elektrischer Energie und war dies auch während der Krise; Abnehmer sind vor allem die Nachbarländer Ghana, Mali, Burkina Faso und Togo. Im Jahre 2005 hatte trotz allem weniger als die Hälfte der Bevölkerung Zugang zu Elektrizität, auf dem Land war es gar nur ein Viertel. Während des Bürgerkrieges wurden die Wartung und der Ausbau der Anlagen vernachlässigt, was sich in zahlreichen Stromausfällen äußert, speziell nach dem Ende des Krieges, als der Bedarf anstieg. Der Energiesektor der Elfenbeinküste produziert jährlich ein Defizit von 200 bis 300 Millionen US-Dollar, da er in seinem Netz hohe Verluste hat und die gestiegenen Brennstoffpreise nicht an die Verbraucher weitergeben kann. Für die Periode von 2006 bis 2015 wurde ein Finanzierungsbedarf von knapp 1 Milliarde US-Dollar ermittelt, um das System zu erhalten, neue Kapazitäten zu schaffen und 73 % der Bevölkerung mit elektrischer Energie zu versorgen.
Mehr als die Hälfte der armen Haushalte hat keinen Zugang zu sauberem Wasser, wobei dieser Prozentsatz im ländlichen Norden viel höher ist. Die Wasserversorgung wird seit 1959 von der privaten SODECI betrieben, die die Erweiterungen des Wassernetzes selbst finanziert hat und trotz aller Krisen einen stabilen Betrieb sichern konnte. Dennoch ist sie aufgrund eines zu niedrigen Wasserpreises nicht in der Lage, ihre Kosten zu decken. Das Abwassersystem ist indes weit weniger entwickelt: etwa ein Drittel der Bevölkerung hatte 2008 nicht einmal Zugang zu einer Latrine.
Kultur.
Holzschnitzerei.
Bekannt sind die traditionellen Holzmasken der im Westen des Landes siedelnden Yakuba (Dan), die ein idealisiertes menschliches Gesicht zeigen und im Schlammbad geschwärzt werden. Die Yakuba kennen eine große Zahl von Maskengestalten, die Buschgeister repräsentieren und verschiedene soziale, politische und religiöse Aufgaben erfüllen.
Literatur.
Die Elfenbeinküste hat, wie viele andere afrikanische Kulturräume auch, eine dichterische Tradition, die ausschließlich mündlich weitergegeben wurde. Schriftliteratur hingegen gibt es erst seit dem 20. Jahrhundert in französischer Sprache.
Die Elfenbeinküste hat eine für afrikanische Verhältnisse gut etablierte Verlagslandschaft und zahlreiche Autoren verschiedenster Genres mit unterschiedlichem Bekanntheitsgrad. Besonders lebhaft ist das Theater, wohl weil es im traditionellen Drama verwurzelt ist und auch wegen der hohen Analphabetenquote. Die bekanntesten Dramatiker sind François-Joseph Amon d’Aby, Germain Coffi Gadeau und Bernard Binlin Dadié, ein Journalist, Erzähler, Dramaturg, Romancier und Dichter, der die ivorische Literatur der 1930er Jahre dominierte. Wichtige Romanciers sind Aké Loba ("Ein schwarzer Student in Paris", 1960) und Ahmadou Kourouma "(Der schwarze Fürst)", der den Prix du Livre Inter im Jahre 1998 für sein Werk "Die Nächte des großen Jägers" erhielt, der ein Klassiker der afrikanischen Literatur ist.
Zur neueren Generation ivorischer Autoren zählen die in Paris geborene und heute in Johannesburg lebende Véronique Tadjo (* 1955), die Lyrikerin und Romanautorin Tanella Boni (* 1954) und die beiden ungeheuer produktiven Autoren Isaie Biton Koulibaly (* 1949) und Camara Nangala (* 1955).
Musik.
Die verschiedenen Ethnien der Elfenbeinküste haben teilweise unterschiedliche musikalische Traditionen, so dass die traditionelle Musik des Landes recht mannigfaltig ist. In vielen Musikstilen gibt es polyphonen Gesang oder zweistimmigen Call and Response, häufig zusammen mit dem polyrhythmischen Einsatz von Rasseln, Glocken, einfachen Trommeln oder Talking Drums. Bei den Senufo wird der Gesang zumeist von einem Balafon begleitet, bei den Dan eher von schnarrenden Trommeln. Zu den sehr alten Instrumenten gehören Flöten, hölzerne Eintonhörner, Schlitztrommeln, Xylofone, dreieckige Rahmenzithern und Musikbögen.
Bereits Ende des 19. Jahrhunderts wurden Eintonhörner durch westliche Blasinstrumente ersetzt. Aus dem britischen Militärmusikerbe, das im Nachbarland Ghana gepflegt wurde, der Zeremonialmusik lokaler Clanchefs und mit aus Frankreich eingeführten Instrumenten entwickelte sich die lebhafte Musik großer Repräsentationskapellen, wie die "Sankro Brass Band," die "Asiakwa Brass Band" oder "Les Fanfares de Sankadiokro."
Als Vater der heutigen ivorischen Popmusik gilt Ernesto Djédjé, der Rhythmen der Bété populär machte; seinen Musikstil nannte er Ziglibithy. Er ist für seinen Hit "Gnoantre-Ziboté" (1977) auch außerhalb des Landes bekannt geworden. Nach ihm kamen Luckson Padaud mit dem Laba-laba-Stil, und Gnaore Djimi mit Polihet. In den 1990er Jahren entstand der Zoblazo, indem Meiway traditionelle Rhythmen aus der südlichen Elfenbeinküste mit elektronischen Instrumenten und Unterhaltungslyrik versetzte. Weitere sehr junge Stilrichtungen sind Zouglou "(Magic System)" und Coupé Decalé. Es gibt keine nationale Musikkultur, die Elfenbeinküste ist aber Gastland für viele Musiker der Nachbarländer, die in Abidjan die besseren Studiomöglichkeiten finden.
Die populärsten ausländischen Musikstile, die in die Elfenbeinküste kamen, sind Reggae und Hip-Hop. Die beiden wichtigsten Reggae-Künstler des Landes sind Alpha Blondy, dessen Afro-Reggae seit seinem Auftreten in der Fernsehshow "First chance" (1983) in ganz Westafrika populär wurde, und Tiken Jah Fakoly, der wegen seiner politischen Texte ins Exil gehen musste. Bedeutende ivorische Hip-Hop-Musiker sind All Mighty, Rudy Rudiction, M. C. Claver und Angelo.
Architektur.
In der Elfenbeinküste sind zahlreiche Bauwerke aus kolonialem Erbe erhalten. Dazu zählen zunächst der Palais du Gouverneur in Grand-Bassam, der in Frankreich vorgefertigt und 1893 in der Elfenbeinküste aufgebaut und erweitert wurde. In Grand-Bassam stehen viele weitere pittoreske Gebäude in kolonialem Stil, wie das "maison Varlet" oder das "maison Ganamet", die von reichen Händlern gebaut wurden, die einheimische Baumaterialien verwendeten.
Im Norden des Landes sind einige Moscheen im sudanesischen Stil erhalten geblieben, der während der Herrschaft des Malireiches in dieser Region eingeführt wurde. Die bedeutendsten dieser Bauwerke sind die Moschee von Kaouara (Département Ouangolodougou), die Moschee von Tengréla, die Moschee von Kouto, die Moschee von Nambira (Unterpräfektur M’Bengué), und speziell die beiden Moscheen von Kong.
Moderne Religiöse Bauwerke sind die Cathédrale Saint-Paul in Abidjan und die Notre-Dame-de-la-Paix de Yamoussoukro in Yamoussoukro.
Kunst.
Die Völker der Elfenbeinküste haben eine lange Tradition, Gebrauchsutensilien, Statuen oder Masken aus verschiedenen Materialien künstlerisch herzustellen. Aus Holz, Bronze, Raphia, Rattan oder auch Bambus werden Körbe, Skulpturen, Möbel, Masken oder Statuen hergestellt.
Die Masken der Dan, Baoulé, Gouro, Guere oder Bété sind die bekanntesten. Die Baoulé verstehen sich sehr gut auf die Weberei und die Sénoufo sind, unter anderem, bekannt für ihre Malereien auf Stoff. Kleine Figuren aus Kupfer, die früher zum Wiegen von Gold benutzt wurden, sind heute Verzierung, besonders bei den Akan. Die Katiola wiederum sind berühmt für ihre Töpfereierzeugnisse, die von den Frauen in Handarbeit hergestellt werden.
Viele Kunstartikel kommen heute in den touristisch geprägten Städten an der Küste (also Grand-Bassam oder Assinie) zum Verkauf.
Während die traditionelle Volkskunst eher anonym ist, stammen auch einige bekannte Künstler aus der Elfenbeinküste, etwa die Maler Gilbert G. Groud oder Michel Kodjo, die häufig beachtete Werke hervorbringen, oder der Karikaturist Zohoré Lassane, der das Humor- und Satireblatt "Gbich!" gegründet hat.
Küche.
Die Küche der Elfenbeinküste ist aufgrund der vielfältigen ethnischen Zusammensetzung des Landes ebenfalls sehr facettenreich, hat aber viele Ähnlichkeiten mit der Küche der anderen westafrikanischen Staaten. Als Grundnahrungsmittel finden Getreide und Wurzeln Verwendung, vor allem Reis, Mais, Hirse, Grieß, Maniok, Yams, Taro, Süßkartoffeln und auch Kochbananen. Wichtigster Fleischlieferant ist das Geflügel, seltener Rind oder Schwein, an der Küste auch Fisch und Meeresfrüchte. Als Gemüse werden Zwiebeln, Tomaten, Auberginen, Bohnen, Avocados, Karotten, Okra und Spinat bevorzugt.
Das tropische Klima bietet zahlreiche Früchte wie Bananen, Papaya, Ananas, Granatapfel, Kokosnuss, Mangos, Apfelsinen, Mandarinen, Melonen, Brotfrüchte, Guaven, Zitronen, Orangen und Grapefruits. Das Essen ist in der Regel scharf bis sehr scharf gewürzt und wird mit den Fingern gegessen. Spezialitäten sind z. B. Attiéké, eine Art Couscous aus Maniok, oder Alloco, frittierte Kochbananenchips.
In der Elfenbeinküste sind, wie in vielen anderen westafrikanischen Staaten auch, "Maquis" sehr verbreitet, Straßenrestaurants, in denen einfaches Essen in der Regel unter freiem Himmel serviert wird.
Medien.
Das wichtigste Medium in der Elfenbeinküste ist das Radio. Die staatliche Radiodiffusion-Télévision ivoirienne betreibt zwei Stationen namens La Chaine Nationale und Frequence 2. Daneben gibt es speziell in den Städten zahlreiche Privatsender (etwa Radio Nostalgie in Abidjan) und die ländlichen Gegenden werden von nicht-kommerziellen Sendern mit wenig Leistung abgedeckt, die teils auch von der römisch-katholischen Kirche betrieben werden. Die ONUCI betreiben den Sender Onuci FM. Neben den einheimischen Sendern werden ausländische Stationen wie Africa Radio, Radio France Internationale oder BBC Afrique empfangen.
Radiodiffusion-Télévision ivoirienne betreibt auch zwei Fernsehsender, nämlich La Première und TV2. Privatfernsehen gibt es in der Elfenbeinküste nicht.
Printmedien haben eine sehr geringe Verbreitung. Die wichtigsten Zeitungen sind die staatliche "Fraternité Matin", die privaten "Soir Info", "Le Nouveau Reveil", "L’Inter", das Oppositionsblatt "Le Patriote", "Notre Voie" der Regierungspartei und "Nord-Sud". Erstere hat eine Auflage von 30.000, die Letzteren kommen über 10.000 nicht hinaus.
Die staatliche Nachrichtenagentur heißt Agence Ivoirienne de Presse.
Die Nichtregierungsorganisation Reporter ohne Grenzen sieht in der Elfenbeinküste eine zufriedenstellende Lage für die Pressefreiheit.
Sport.
Der wichtigste und meist betriebene Sport in der Republik Côte d’Ivoire ist der Fußball. Die ivorische Fußballnationalmannschaft ist derzeit eine der zehn erfolgreichsten Nationalmannschaften Afrikas. Die größten Erfolge bei internationalen Turnieren waren bisher der Gewinn des Afrika-Cups 1992 und 2015, zwei zweite Plätze 2006 und 2012, ein vierter Platz beim Konföderationen-Pokal 1992, dritte Plätze bei den Afrika-Cups 1965, 1968, 1986 und 1994 und ein vierter Platz 1970. Am 8. Oktober 2005 qualifizierte sich die Mannschaft, neben den Mannschaften Tunesiens, Togos, Ghanas und Angolas, für die Fußball-Weltmeisterschaft 2006, ein bedeutender Meilenstein in der ivorischen Fußballgeschichte. Dort errang die Mannschaft einen 3:2-Sieg gegen die Auswahl von Serbien und Montenegro. Bei den WM-Qualifikationen 2010 und 2014 gelang der Elfenbeinküste als Tabellenerster die Teilnahmen an den Endrunden in Südafrika und in Brasilien.
Rugby Union erfreut sich ebenfalls zunehmender Beliebtheit. Die ivorische Rugby-Union-Nationalmannschaft qualifizierte sich 1995 erstmals für eine Rugby-Union-Weltmeisterschaft, bei dem Turnier in Südafrika landete man in der Gruppenphase jedoch auf dem letzten Platz. Die Elfenbeinküste ist einer der Teilnehmer bei der Rugby-Union-Afrikameisterschaft und trifft dort auf andere aufstrebende Nationalmannschaften.
Die ivorische Stadt Abidjan war Gastgeber der Basketball-Afrikameisterschaften 1985 und 2013 und die ivorische Basketballnationalmannschaft gewann die Turniere 1981 und 1985.
Seit 1968 wird die Rallye Elfenbeinküste, eine der härtesten Rallyes, ausgetragen. Im Jahr 1972 kam kein Fahrzeug ins Ziel. Von 1978 bis 1992 war sie Teil der Rallye-Weltmeisterschaft.
Special Olympics Elfenbeinküste wurde 1991 gegründet und nahm mehrmals an Special Olympics Weltspielen teil. Der Verband hat seine Teilnahme an den Special Olympics World Summer Games 2023 in Berlin angekündigt. Die Delegation wird vor den Spielen im Rahmen des "Host Town Programs" von Gießen betreut. |
1327 | 3609534 | https://de.wikipedia.org/wiki?curid=1327 | Ennio Morricone | Ennio Morricone (* 10. November 1928 in Rom; † 6. Juli 2020 ebenda) war ein italienischer Komponist, Dirigent und Oscarpreisträger. Er arbeitete auch unter den Pseudonymen Dan Savio und Leo Nichols und komponierte die Musik für mehr als 500 Filme.
Weil er die Filmmusik für zahlreiche Italowestern schrieb, wird sein Name vornehmlich mit diesem Filmgenre in Verbindung gebracht. Besonders bekannt sind seine Filmmusiken zum Italowestern-Klassiker "Zwei glorreiche Halunken," zum Western-Epos "Spiel mir das Lied vom Tod," zu Roland Joffés Drama "Mission" und zu Giuseppe Tornatores Film "Cinema Paradiso." Morricone erhielt 2007 den Oscar für sein Lebenswerk sowie 2016 einen weiteren für die Musik zum Film "The Hateful Eight."
Auch für andere Genres komponierte Morricone, beeinflusst von den Arbeiten der Komponisten Pierre Boulez, Karlheinz Stockhausen und John Cage. Sein Werk wird heute zudem unter Aspekten der Aleatorik betrachtet.
Leben.
Morricone studierte am Konservatorium von Santa Cecilia Trompete und Chormusik und erhielt 1946 sein Konzertdiplom als Trompeter. Ein Jahr später folgte ein erstes Engagement als Theaterkomponist. 1953 begann er mit der Gestaltung des Abendprogramms eines italienischen Rundfunksenders. Für seine Ausbildung als Komponist am Konservatorium, die er 1954 mit einem Diplom abschloss, zeichnete Goffredo Petrassi verantwortlich. Er etablierte sich ab Mitte der 1950er Jahre mit Kammermusik- und Orchesterwerken in der musikalischen Avantgarde seines Landes; 1958 besuchte er die Internationalen Ferienkurse für Neue Musik in Darmstadt. Im selben Jahr unterschrieb Morricone einen Arbeitsvertrag als Musikassistent bei der staatlichen Rundfunkanstalt Radiotelevisione Italiana, wo er als Arrangeur tätig wurde. Auch für zahlreiche Schallplattenaufnahmen im Genre Pop (beispielsweise für Gino Paoli und Mina) schrieb er Arrangements und leitete Band und Orchester.
Morricone komponierte 1961 seine erste Filmmusik für Luciano Salces "Il Federale," doch ließ der internationale Erfolg noch einige Jahre auf sich warten. 1964 begann er seine erfolgreiche Zusammenarbeit mit Sergio Leone (die beiden waren in derselben Schulklasse gewesen) und Bernardo Bertolucci. In dieser Zeit schrieb er unter anderem die Musik für Leones Filme "Für eine Handvoll Dollar," "Zwei glorreiche Halunken" und "Spiel mir das Lied vom Tod." Morricones Kompositionen unterschieden sich stark von den traditionellen symphonischen Western-Soundtracks aus Hollywood und wirkten durch ihre ungewöhnlichen Soundelemente (Maultrommeln, Pfiffe, Schreie, Kojotengeheul, Eulenrufe, Glocken, Spieluhren, Peitschenknallen, Schläge auf einen Amboss etc.) stilbildend und innovativ. Mit einigen seiner Kompositionen konnte der Komponist sogar Hitparadenerfolge verbuchen. Im Genre des Italo-Westerns orientierten sich zahlreiche Komponisten an dem von Morricone entwickelten Stil.
Ab Mitte der 1960er Jahre komponierte Morricone jedes Jahr die Filmmusik für etwa 15 Filme. Außerdem spielte er von 1964 bis in die 1970er Jahre im von Franco Evangelisti initiierten Improvisationsensemble Gruppo di Improvvisazione Nuova Consonanza. Zusammen mit anderen Komponisten gründete Morricone 1984 in Rom das I.R.TE.M, eine Forschungsanstalt für musikalisches Theater.
In mehr als vierzig Jahren künstlerischen Schaffens schrieb Morricone über 500 Filmmusiken und arbeitete dabei mit namhaften italienischen und internationalen Regisseuren zusammen. Er dirigierte eine große Anzahl von Orchestern, wobei er für zahlreiche Konzerte sowie Filmmusikaufnahmen mit dem Roma Sinfonietta Orchestra zusammenarbeitete. Mit diesem Ensemble gab Morricone am 2. Februar 2007 auch ein Ehrenkonzert zum Amtsantritt des Generalsekretärs der Vereinten Nationen, Ban Ki-moon.
Neben Film- und Bühnenmusik schrieb er auch weiterhin Kammermusik für Solisten (Gitarre, Klavier, Violine, Cello) und diverse Formationen (Trio, Quintett, Sextett, Piano und Instrumente, Gesang und Instrumente, Chöre etc.) sowie Kantaten und Messen:
Familie und Persönliches.
Seine Frau Maria Travia lernte er 1950 kennen; sie heirateten 1956 und wohnten in Italien. Seine Frau unterstützte ihn bei seiner Arbeit; so schrieb sie ergänzende Texte zu seinen Musikstücken zum Film "The Mission," die auch lateinische Texte enthalten. Sie haben drei Söhne und eine Tochter:
Bei der Verleihung des Ehrenoscars 2007 sprach Clint Eastwood die Laudatio. Er übersetzte Morricones auf Italienisch gehaltene Dankesworte, da Morricone nicht fließend Englisch sprach; aus ihrer langjährigen Zusammenarbeit in vielen Filmen war eine enge Freundschaft entstanden.
Tod.
Morricone starb am 6. Juli 2020 im Alter von 91 Jahren in der Universitätsklinik Campus Bio-Medico in Rom an den Folgen eines Oberschenkelhalsbruchs, den er sich einige Tage zuvor bei einem Sturz zugezogen hatte. Sein Tod rief ein starkes öffentliches Echo hervor, wobei er häufig als der bekannteste Komponist der Filmgeschichte bezeichnet wurde. Er wurde auf dem Laurentino-Friedhof im Südosten von Rom in Castel di Decima beigesetzt.
Werk.
Morricone trug mit seiner Musik wesentlich zum Welterfolg der Leone-Western bei, die heute Kultfilme sind, wie zum Beispiel "Spiel mir das Lied vom Tod." Leone bekannte einmal, dass Morricone für ihn mehr ein Drehbuchautor sei als ein Komponist, denn durch die Musik könne er etwas mitteilen, was er sonst hätte zeigen müssen. Und vom Komponisten ist überliefert:
Auszeichnungen.
Oscars (Academy Awards)
Golden Globes
Goldene Himbeere
BAFTA Award
David di Donatello
Grammy
ASCAP Award
Nastro d’Argento für die beste Filmmusik "(Nastro d’Argento/Migliore colonna sonora)"
Weitere Auszeichnungen
Darüber hinaus wurde er 2017 mit dem Großkreuz, der höchsten Stufe des Verdienstordens der Italienischen Republik, ausgezeichnet und in die Ehrenlegion aufgenommen.
2016 wurde er mit einem Stern auf dem Hollywood Walk of Fame geehrt.
Wirkung.
Weltweit wurden mehr als 50 Millionen Alben von Morricone verkauft. Seine Kompositionen wurden teilweise in andere Genres übertragen: |
1328 | 277879 | https://de.wikipedia.org/wiki?curid=1328 | Emil Nolde | Emil Nolde (* 7. August 1867 als Hans Emil Hansen in Nolde, Kreis Tondern der Provinz Schleswig-Holstein; † 13. April 1956 in Seebüll) war einer der führenden Maler des Expressionismus. Er ist einer der großen Aquarellisten in der Kunst des 20. Jahrhunderts und bekannt für seine ausdrucksstarke Farbwahl. Obwohl als „entarteter Künstler“ verfemt, war er Rassist, Antisemit und überzeugter Anhänger des Nationalsozialismus.
Leben.
Jugendjahre und Ausbildung.
Emil Nolde wurde als viertes von fünf Kindern einer Bauernfamilie geboren. Sein Geburtsort im nördlichen Teil der Provinz Schleswig-Holstein gehörte bis 1920 zu Preußen und damit zum Deutschen Reich. Nolde gehörte zu der deutschen Volksgruppe der Nordschleswiger. Nach der Volksabstimmung in Schleswig 1920, bei der Nordschleswig an Dänemark ging, nahm Nolde die dänische Staatsangehörigkeit an und verzichtete damit auf die deutsche. Er hatte drei ältere Brüder und eine jüngere Schwester. Sein Vater war Nordfriese und stammte aus der Gegend um Niebüll; er sprach nordfriesisch, seine Mutter sprach südjütisch (ein Dialekt des Dänischen). Emil Nolde besuchte die deutsche Schule in Buhrkall. Seine Jugendjahre auf dem elterlichen Hof in Nolde waren geprägt von harter Arbeit und einem relativ kargen Leben.
Von 1884 bis 1888 ließ er sich auf Drängen des Vaters als Schnitzer und Zeichner an der Kunstgewerbeschule in Flensburg (heute Museumsberg Flensburg) ausbilden. Er war dort an der Restaurierung des Brüggemann-Altars beteiligt. Einen Lehrabschluss erwarb er nicht. Danach arbeitete er für verschiedene Möbelfabriken, unter anderem in München, Karlsruhe und Berlin. 1892 trat er am Gewerbemuseum in St. Gallen eine Stellung als Lehrer für gewerbliches und ornamentales Entwurfszeichnen an, die ihm 1898 gekündigt wurde. In dieser Zeit lernte er Hans Fehr kennen, mit dem er lange verbunden blieb. Anschließend arbeitete er zunächst an einer Reihe von Landschaftsaquarellen und Zeichnungen der Bergbauern. Nolde wurde schließlich durch kleine farbige Zeichnungen der Schweizer Berge bekannt. Er ließ Postkarten dieser Arbeiten drucken, die ihm ein Leben als freier Künstler erlaubten.
Er ging nach München, wurde allerdings von der Akademie abgelehnt und begann zunächst ein Studium an der privaten Malschule Adolf Hölzels in Dachau, bevor er im Herbst 1899 mit der Malerin Emmi Walther über Amsterdam nach Paris reiste und sich an der Académie Julian anmeldete. 1900 mietete er ein Atelier in Kopenhagen. 1902 heiratete er dort die 23 Jahre alte dänische Schauspielerin Ada Vilstrup (1879–1946). Mit ihr zog er auf die Insel Alsen. Dort wohnten sie zwischen 1903 und 1916 sommers in einem Fischerhaus in Sjellerupskov bei Guderup. Als Atelier diente eine Bretterbude direkt am Strand.
Malerei.
Ab 1902 nannte sich Nolde nach seinem nordschleswigschen Heimatdorf. Um 1903 malte er noch „lyrische“ Landschaften. Er wurde Mitglied der Schleswig-Holsteinischen Kunstgenossenschaft und nahm zwischen 1903 und 1912 an fünf Ausstellungen teil. 1904 war er auf der Jahresausstellung im Flensburger Museum mit den Gemälden "In der Räuberstube" und "Sommernacht" vertreten. 1905 reisten Ada und Emil Nolde nach Sizilien und Ischia, doch mit dem grellen Licht des Südens kam der Maler nicht zurecht. Seine zunehmend auf Farbe setzenden Blumen- und Gartenbilder von Alsen machten die Künstlergruppe Brücke auf ihn aufmerksam. Der Einladung, ihr beizutreten, folgte Nolde 1906 nach anfänglichem Zögern. Dadurch kam er in Kontakt mit wesentlich jüngeren Künstlern wie Ernst Ludwig Kirchner, Fritz Bleyl, Erich Heckel und Karl Schmidt-Rottluff. In Berlin begegnete er auch Edvard Munch. Seine aktive Mitgliedschaft in der "Brücke" beendete Nolde 1907, dabei war ein Streit mit Schmidt-Rottluff maßgeblich. Trotz dieser kurzen Zeit brachte Nolde die Radierung als weitere Darstellungstechnik in die Gemeinschaft, vermittelte Kontakte zu dem Hamburger Sammler und Kunstmäzen Gustav Schiefler und sorgte durch das Einführen kostenpflichtiger „passiver Mitgliedschaften“ mit dem Versand von Originalgrafiken als „Jahresgaben“ für die Bekanntheit und den wirtschaftlichen Erfolg der Gruppe. Nolde selbst nahm während seiner nur 21-monatigen Mitgliedschaft an acht Ausstellungen der Gruppe in 25 Orten teil.
1909 wurde Nolde Mitglied der Berliner Secession. Als deren Jury unter Mitwirkung von Max Liebermann im Jahr darauf Werke Georg Tapperts und vieler meist expressionistischer Künstler zurückwies, kam es zum Bruch der Berliner Secession. Auf Initiative Tapperts, gefolgt von Max Pechstein und weiteren Künstlern, unter ihnen auch Nolde, bildete sich die Neue Secession. Sie eröffnete am 15. Mai ihre erste Ausstellung unter dem Titel „Zurückgewiesene der Secession Berlin 1910“.
Nun entstanden erste religiöse Bilder Noldes: "Abendmahl", "Pfingsten" und "Verspottung". Zwischen 1910 und 1912 hatte er erste Erfolge mit eigenen Ausstellungen in Hamburg, Essen und Hagen. Bilder vom Nachtleben in Berlin, wo er gemeinsam mit seiner Frau Ada regelmäßig die Wintermonate verbrachte, Theaterzeichnungen, Maskenstillleben, 20 "Herbstmeere", das neunteilige "Das Leben Christi" entstanden. Außerdem besuchte er wiederholt das Berliner Museum für Völkerkunde, wo er zwischen 1910 und 1912 von Objekten aus Übersee zahlreiche Skizzen anfertigte. Von Herbst 1913 bis Ende August 1914 nahm er als Zeichner verpflichtet an der Medizinisch-demographischen Deutsch-Neuguinea-Expedition des Reichskolonialamtes mit seiner Frau teil. Zu jener Zeit zeigte Nolde sich als bekennend kosmopolitischer Künstler, fasziniert von der exotischen Stärke Afrikas, Mittelamerikas und Südostasiens. 1916 zog er in das kleine Bauernhaus "Utenwarf" () an der Westküste nahe Tondern und der Vidå (deutsch "Wiedau"). Die heftigen Auseinandersetzungen um die deutsch-dänische Grenzziehung nach dem Ersten Weltkrieg waren ihm zuwider, und obwohl er sich als Deutscher fühlte, machte Nolde von seinem Recht Gebrauch, die dänische Staatsbürgerschaft anzunehmen, als sein Geburtsort nach der Volksabstimmung in Schleswig 1920 an Dänemark fiel. Bis an sein Lebensende behielt er wie auch seine Frau die dänische Staatsbürgerschaft, verstand sich aber zeitlebens als Angehöriger der deutschsprachigen Minderheit in Nordschleswig.
Berlin.
1889 kam Nolde das erste Mal in die Reichshauptstadt und blieb zwei Jahre, während derer er als Zeichner und Modelleur in verschiedenen Firmen tätig war. Ab dem Winter 1904/05 lebte er mit seiner Frau Ada im Winter meist in Berlin, zunächst fast zwei Jahrzehnte als Mieter eines Wohnateliers in der Tauentzienstraße 8, „101 Treppenstufen hoch“. Ada pflegte in Berlin die Kontakte und sorgte dafür, dass Nolde dort sehr gut vernetzt war. Im Winter 1910/11 entstand in der Tauentzienstraße eine Folge von 17 Gemälden aus dem Berliner Nachtleben, und über die Jahre hinweg wuchs das Berliner Werk auf über 300 Aquarelle, Tuschpinselzeichnungen und Radierungen an. Nolde wünschte sich in Berlin einen ähnlichen Bau, wie er für ihn gerade bei Neukirchen an der dänischen Grenze entstand. Er erwarb dafür in Berlin-Dahlem ein Grundstück und gab im Herbst 1928 Ludwig Mies van der Rohe den Auftrag, für diese Lage ein Atelierhaus zu entwerfen. Nachdem dies 80.000 Reichsmark kosten sollte und zudem eine Baugenehmigung nicht erteilt wurde, gab Nolde im Juli 1929 den Plan auf. Er und Ada zogen im Herbst 1929 zur Miete um in die Bayernallee 10–11 in Berlin-Westend. Diese Wohnung behielt Nolde auch, als er Berlin 1941 aufgrund eines gegen ihn ergangenen Berufsverbots den Rücken kehrte. Das Haus wurde 1944 durch Brandbomben weitgehend zerstört und damit auch Noldes große Grafiksammlung.
Seebüll.
Erst als das Land um Utenwarf zunehmend erschlossen und entwässert wurde, zog er mit seiner Frau auf die deutsche Seite der Grenze, da ihn dort die Landschaft an seine Heimat bei Nolde erinnerte. Das Ehepaar erwarb 1926 eine leerstehende Warft bei Neukirchen im Amt Wiedingharde des damaligen Kreises Südtondern, die sie Seebüll nannten und auf der bis 1930 das gleichnamige Wohn- und Atelierhaus des Malers erbaut wurde. Sie wohnten zunächst in dem benachbarten Bauernhaus „Seebüllhof“, das sie gemeinsam mit der Warft und den umliegenden Weideflächen erworben hatten. Der Umzug in das neu erbaute Haus „Seebüll“ erfolgte im Jahr 1930. Das Wohngebäude ist ein zweigeschossiger Kubus mit Flachdach, an den eingeschossige Anbauten über dreieckigem Grundriss angefügt sind. 1937 wurde dem Wohnhaus ein Atelierhaus mit Bildersaal angefügt. Der Bau wurde nach Entwürfen Emil Noldes unter Mitwirkung des befreundeten Architekten Georg Rieve aus Backstein errichtet. Die Farbigkeit im Innern des Wohnhauses korrespondiert mit den kräftigen Farben der Gartenpflanzen.
Neben dem Haus legten Ada und Emil Nolde einen Garten an, dessen Wege in Form der Initialen E und A verlaufen. Zum Garten gehören zwei Gebäude: ein 1935/1936 errichtetes, reetgedecktes Gartenhaus, das sogenannte „Seebüllchen“, sowie die Begräbnisstätte von Ada und Emil Nolde. Diese befindet sich in einem ehemaligen Erdschutzbunker, der 1946, als Ada starb, in eine Gruft umgewandelt wurde. An der Stirnwand schuf Nolde das Mosaik "Madonna mit Kind". Der Garten Noldes ist ein individuelles Gartenkunstwerk, das die zeitgenössische Reformbewegung aufnimmt, die sich gegen industrielle und genormte Kunstformen richtet. So entstand in der weiten Marschlandschaft in Bepflanzung und Ausstattung ein recht geschlossener, heimatbezogener Bauerngarten, auch wenn dieser keine für diese Gärten typische auf das Haus bezogene Mittelachse aufweist und Haus und Garten getrennte Einheiten bilden.
Anlässlich seines 60. Geburtstags wurde ihm 1927 eine Jubiläumsausstellung in Dresden gewidmet.
Im Nationalsozialismus.
Nationalsozialistisches Engagement.
Nolde war früh der Überzeugung, die „germanische Kunst“ sei allen anderen weit überlegen. Im August 1934 bezeugte er mit seiner Unterschrift unter den Aufruf der Kulturschaffenden, dass er "zu des Führers Gefolgschaft" gehöre. Er wurde 1934 Mitglied einer der verschiedenen nationalsozialistischen Parteien in Nordschleswig, der Nationalsozialistischen Arbeitsgemeinschaft Nordschleswig (NSAN). Die konkurrierenden nationalsozialistischen Parteien wurden 1935 aufgrund von Bemühungen des Gauleiters Hinrich Lohse in Schleswig-Holstein zur NSDAP-Nordschleswig (NSDAP-N) zusammengefasst.
Während seiner Teilnahme an der „Medizinisch-demographischen Deutsch-Neuguinea-Expedition“ (1913/1914) ließ er erkennen, dass er die dortigen Kulturen der „Wilden“ für minderwertig hielt. Zugleich sprach er sich dagegen aus, moderne französische Malerei der Stilrichtungen Impressionismus, Kubismus, Surrealismus, Fauvismus und Primitivismus im deutschen Kunsthandel anzubieten.
Nolde war auch antisemitisch eingestellt, wie aus vielen Dokumenten hervorgeht – so aus den ersten beiden Teilbänden seiner Autobiografie, "Das eigene Leben" (1930) und "Jahre der Kämpfe" (1934), welche die Jahre von 1867 bis 1914 umfassen. In den Originalausgaben der beiden Bände lassen sich viele nationalistische, rassistische und antisemitische Äußerungen Noldes finden. Er polemisierte gegen den jüdischen Kunsthändler Paul Cassirer und den Maler Max Liebermann. Im Mai 1933 denunzierte Nolde den Maler Max Pechstein allein wegen dessen Namens bei einem Beamten des Propagandaministeriums als vermeintlichen „Juden“. Obwohl Nolde von Max Pechstein darauf aufmerksam gemacht wurde, dass diese Behauptung unzutreffend sei und der Familie von Pechstein gefährlich werden könne, verweigerte Emil Nolde eine Richtigstellung. Im Sommer 1933 arbeitete Nolde ein von ihm als „Entjudungsplan“ bezeichnetes Dokument aus, das die Aussiedlung aller „Juden“ aus dem Deutschen Reich betraf. Bereits 1911 hatte er an einen seiner Förderer geschrieben, dass sich „Malerjuden“, wie er seine jüdischen Malerkollegen nannte, über das ganze Land ausgebreitet hätten; oder wie er es ausdrückte: „ganz wie die Hausschwammwucherung hier unter dem rotgestrichenen Boden unserer kleinen trauten Stube“.
Eine andere Äußerung galt Rosa Schapire, einer Kunsthistorikerin, die den noch unbekannten Künstler durch Vorträge und Ausstellungsberichte gefördert hatte:
Verfemung und Fortsetzung der Karriere im Nationalsozialismus.
Zu Beginn der Zeit des Nationalsozialismus schätzten einige hochrangige Funktionäre des NS-Regimes seine Kunst und seine kunstpolitische Einstellung. Beispielsweise waren Joseph Goebbels und Albert Speer anfangs Förderer von Nolde, und 1933 veranstaltete der NS-Studentenbund eine Ausstellung mit seinen Werken.
Der größere Teil der NS-Führung dagegen versuchte schon früh, Nolde künstlerisch und wirtschaftlich zu diskriminieren – dazu gehörten Alfred Rosenberg und Adolf Hitler selbst. So wurden seine Gemälde "Leben Christi" in der Ausstellung „Entartete Kunst“ im Jahr 1937 vorgeführt. Weitere Gemälde wurden in folgenden Aktionen beschlagnahmt und zwangsverkauft. Nolde wollte dies offenbar zunächst nicht wahrhaben und schien überrascht, als seine Werke als „entartete Kunst“ diffamiert wurden. Er fühlte sich missverstanden und glaubte an Fehler untergeordneter Personen und Dienststellen. Er distanzierte sich nicht von der nationalsozialistischen Kulturpolitik, sondern versuchte, die Nationalsozialisten zu überzeugen, dass er schon immer den Thesen der Bewegung entsprechend gedacht und gelebt und sich auch so geäußert habe. Nolde schrieb beispielsweise am 2. Juli 1938 in einem Brief an Goebbels, er sehe sich „als fast einziger deutscher Künstler im offenen Kampf gegen die Überfremdung der deutschen Kunst“, und wies darauf hin, dass er sofort nach der Gründung der NSDAP Nordschleswig deren Mitglied geworden sei.
Die Verfolgung im Rahmen der nationalsozialistischen Kunstpolitik bedeutete jedoch nicht das Ende von Noldes Karriere. Die beiden Bände seiner Biographie blieben verfügbar und verkauften sich abgesehen von einem Einbruch 1938 weiterhin gut. Beschlagnahmte Leihgaben erhielt er nach Einsprache zurück, wobei er auch die dänische Staatsbürgerschaft seiner Frau als Argument anführte. Seine Werke wurden sogar aus der Wanderausstellung „Entartete Kunst“ entfernt. Auch finanziell bedeutete das Jahr 1937 keine Zäsur für Nolde. Im Frühjahr 1937 veranstaltete die Galerie Ferdinand Möller in Berlin eine Ausstellung seiner Aquarelle, in der Arbeiten für 20.000 Reichsmark verkauft wurden. Die finanzielle Lage Noldes war zu dieser Zeit so gut, dass der ehemalige Direktor des Museums Folkwang in Essen, Ernst Gosebruch, vermerkte, dass der Künstler seine Hauptwerke im eigenen Besitz behielt, da er nicht zu deren Verkauf gezwungen sei. Auch nach seiner Verfemung in der Münchner Ausstellung 1937 änderte sich die Nachfragesituation nicht. Seine Werke waren auch nach 1937 in vielen deutschen Galerien für moderne Kunst weiterhin Kommissionsware. Finanziell gehörte Nolde zu den erfolgreichsten deutschen Künstlern der 1930er und 1940er Jahre. 1937, 1939 und 1941 verzeichnete er seine höchsten Jahreseinkommen. Die Steuerakten weisen noch höhere Einnahmen aus, als er im Rahmen des Entnazifizierungsverfahrens angab. Nach dem Krieg meldete er für das Jahr 1941 Einnahmen von über 50.000 Reichsmark. Laut Daten der Reichskammer der bildenden Künste verdienten im Jahr 1939 nur 0,7 % der Künstler im Deutschen Reich mehr als 1000 Reichsmark im Monat. Seine gute wirtschaftliche Lage brachte Nolde Neider aus der Künstlerschaft ein und verdeutlichte den Kulturfunktionären zudem, dass sie ihre Politik auf dem Kunstmarkt nicht hatten durchsetzen können.
Unter diesen Vorzeichen erließ die Reichskammer der bildenden Künste am 1. Oktober 1940 die „Anordnung über den Vertrieb minderwertiger Kunsterzeugnisse“. Diese sollte sich vordergründig gegen billige und massenhaft produzierte Kunstreproduktionen und sogenannten „Kitsch“ richten, um so den Markt für wahre Künstler zu schützen. Aufgrund dieser Vorzeichen gingen die Noldes auch erst einmal davon aus, dass die Verordnung sie nicht betreffen werde. Dennoch fragte die Reichskammer der bildenden Künste wegen Informationen zu Verkäufen und Ausstellungen an und forderte Abbildungen von Werken der Jahre 1938 bis 1940 an. In dieser Situation machten sich die Noldes ihre Kontakte zu hochrangigen Nationalsozialisten zunutze. So baten sie Heinrich Hansen, einen der höchstrangigen Offiziellen im Reichsministerium für Volksaufklärung und Propaganda, um Unterstützung. Im Februar 1941 fragte die Reichskammer erneut wegen Abbildungen an. Im gleichen Monat ließ Hans Herbert Schweitzer in der Galerie von Alex Vömel in Düsseldorf ein Gemälde und Aquarelle Noldes beschlagnahmen, die zur Begutachtung nach Berlin geschickt wurden. Auch der Sicherheitsdienst des Reichsführers SS übte wegen der weiteren Verfügbarkeit von „entarteten“ Kunstwerken erhöhten Druck auf die Reichskammer aus. Am 23. August 1941 erhielt Nolde das Schreiben Adolf Zieglers, in dem er wegen „mangelnder Zuverlässigkeit“ aus der Reichskammer der bildenden Künste ausgeschlossen wurde.
Dieser Ausschluss bedeutete jedoch kein „Malverbot“, wie es insbesondere nach Ende des Zweiten Weltkriegs kolportiert wurde, sondern lediglich das Verbot des Erwerbs von sämtlichen Künstlerbedarfsartikeln wie Ölfarben, Leinwand, Pinseln und von Verkäufen, Ausstellungen und Reproduktionen seiner Werke. Privat konnte Nolde weiterhin malen, von ihm konsultierte Juristen meinten zudem, dass Schenkungen an Freunde wohl keine Umgehung des Berufsverbots bedeutet hätten. Um seine Werke wieder in der Öffentlichkeit verbreiten zu können, hätte er sie stets dem „Ausschuss zur Begutachtung minderwertiger Kunsterzeugnisse“ vorlegen müssen. Die Bezeichnung „Malverbot“ findet sich für die Zeit des Nationalsozialismus nur in einem einzigen Brief von Ada Nolde. Erst nach dem Krieg wurde das Berufs- zum Malverbot hin überformt, damit Nolde seine eigene Opferrolle betonen konnte. Im Rahmen der Rehabilitation des Expressionismus wurde dieses Narrativ von vielen Autoren aufgegriffen und weitergetragen. In diesem Kontext entstanden auch der Begriff der sogenannten "Ungemalten Bilder" und deren Rezeptionsgeschichte. Die Opfergeschichte Noldes wurde in der Figur des Malers Max Ludwig Nansen im Roman "Deutschstunde" (1968) von Siegfried Lenz rezipiert. Die Noldes vervielfältigten den Brief Zieglers mit dem Ausschluss und ließen ihn unter Unterstützern zirkulieren. Diese reagierten, indem sie ihn in der Folge bei der Materialbeschaffung unterstützten. Beispielsweise ließ Otto Andreas Schreiber ihm regelmäßig Farben zukommen. Noldes Vertrauen in den Nationalsozialismus wurde trotz aller Verfolgungserfahrungen nie vollständig zerstört. 1942 kam zwar ein Treffen mit Baldur von Schirach in Wien nicht zustande, dieser nahm jedoch einige seiner Werke bei sich auf und versprach, sich für den Künstler einzusetzen. Und noch 1943 dachte er darüber nach, einen SA-Mann zu malen. Im Herbst 1944 wurde Noldes Wohnung in Berlin-Dahlem bei einem Luftangriff zerstört.
Es lässt sich festhalten, dass Noldes politische Überzeugung so stark war, dass die persönliche Erfahrung der Zurücksetzung durch die Reichskunstkammer seine Parteitreue nicht erschüttern konnte.
Verklärung als Opfer.
Nolde sorgte dafür, dass die stark antisemitischen Passagen seiner Autobiografie in den Auflagen nach 1945 gestrichen wurden; alle vier Bände der Memoiren erschienen in dieser abgeänderten Form bis einschließlich 2008. Auch gab er 1946 im Rahmen der Entnazifizierung mit maximal etwa 52.000 RM deutlich geringere Einnahmen während des Dritten Reichs an, als er in seiner Steuererklärung (80.000 RM) selbst erklärt hatte. Entsprechend wurde Nolde als nicht belastet eingestuft. Das Berufsverbot Noldes wurde zum Malverbot hin überformt. Weil Dokumente wie vor allem die ursprüngliche Fassung von Noldes autobiographischen Texten, die Aufschluss über die tatsächlichen Vorgänge im Dritten Reich gaben, zunächst nicht verfügbar waren, wurde das Narrativ der Opferrolle Noldes von vielen Autoren im Rahmen der Rehabilitation des Expressionismus gutgläubig aufgegriffen und weitergetragen. Kurz vor seinem Tod stellte Nolde unter Hinweis auf Beschlagnahmungen und Zwangsverkäufe seiner Werke einen – abgelehnten – Antrag auf Entschädigung.
Die späten Jahre.
Am 2. November 1946 starb Noldes erste Frau; zwei Jahre später heiratete er Jolanthe Erdmann (* 9. Oktober 1921 in Berlin; † 13. Juni 2010 in Heidelberg), die Tochter des Komponisten und Pianisten Eduard Erdmann. Bis 1951 malte Nolde noch über 100 Gemälde und – zunehmend eingeschränkt durch seine Parkinson-Krankheit – bis 1956 viele Aquarelle. Emil Nolde starb am 13. April 1956 in Seebüll, wo er neben seiner ersten Frau Ada in der Gruft im Garten seine letzte Ruhestätte fand.
Maltechnik.
Von 2018 bis 2022 fand ein durch das Bundesministerium für Bildung und Forschung gefördertes Forschungsprojekt statt, dass sich mit der Maltechnik und den Künstlermaterialien Emil Noldes auseinandersetzte. Kooperationspartner bei dem Projekt waren unter anderem das Doerner Institut in München, die Stiftung Seebüll Ada und Emil Nolde, sowie die Hamburger Kunsthalle. Dabei wurden rund 45 Gemälde untersucht sowie die Materialien im Archiv der Nolde-Stiftung in Seebüll ausgewertet. Dabei konnte festgestellt werden, dass Nolde sehr oft mit farbigen Grundierungen arbeitete, die in der Regel auf Kreide basierten und dünn auf einen – meist textilen – Träger aufgetragen wurden. Mit Techniken instrumenteller Analytik konnten teilweise Unterzeichnungen sichtbar gemacht werden. Anhand des Archivguts der Noldestiftung konnte gut nachvollzogen werden, dass er besonders gerne mit Tubenfarben (Öl oder Tempera) der Firma Behrendt arbeitete. In entsprechenden Korrespondenzen ist außerdem seine Ablehnung gegenüber Firnissen festgehalten.
Nachlass.
Anwesen und künstlerischer Nachlass wurden Ausgangsvermögen der Stiftung Seebüll Ada und Emil Nolde, die im ehemaligen Wohn- und Atelierhaus des Malers das Nolde-Museum errichtete. Die Stiftung präsentiert dort in jährlich wechselnden Ausstellungen rund 160 Werke von Nolde. Im ehemaligen Atelier des Malers hat sein bedeutendstes religiöses Werk – das neunteilige Altarwerk "Das Leben Christi" von 1911/12 – seinen festen Platz gefunden. Zum 50. Todesjahr Noldes war die Ausstellung 2006 dem Alterswerk gewidmet. Die Ausstellungen hier und im daneben errichteten Dokumentations- und Veranstaltungsgebäude ziehen jedes Jahr rund 80.000 Besucher an.
Von 2007 bis März 2014 gab es eine Dependance der Stiftung in der Jägerstraße 54/55 am Gendarmenmarkt in Berlin. Dort wurden im Rahmen von wechselnden Ausstellungen neben Werken von Nolde auch Exponate anderer Künstler präsentiert.
Nolde-Rezeption im 21. Jahrhundert.
Nachdem sich die Erkenntnis durchgesetzt hat, dass Nolde sowohl bedeutender Maler als auch bekennender Rassist und Nationalsozialist war, wird sein Werk nach aktuellem Forschungsstand zukünftig in diesem Kontext präsentiert. „Emil Noldes berühmte Blumenbilder könnten nicht von seiner Blut-und-Boden-Ideologie getrennt werden, sagte der Düsseldorfer Museumsdirektor Felix Krämer im Dlf. Noldes Gemälde im Kanzleramt seien keine gute Wahl.“
„Aber ich glaube, was wir uns bewusst machen müssen bei Nolde ist, wenn wir uns die Bilder anschauen: Ideologie funktioniert ja nicht immer nur auf der Oberfläche und natürlich ist so ein Bild, so eine Blumendarstellung auf den ersten Blick natürlich erst mal harmlos. Wenn man dann aber über seine Blut- und Boden-Vorstellung, Vorstellung von Heimat, Vorstellung von Rasse weiß, dann, finde ich, kommt man schon noch ins Nachdenken.“
Hatte die Nolde Stiftung Seebüll nach seinem Tod über Jahrzehnte eine wichtige Rolle bei der Konstruktion des öffentlichen Nolde-Bildes gespielt und u. a. Neuauflagen seiner Memoiren von den gröbsten antisemitischen Passagen gesäubert und auch problematische Aussagen in der im Nachlass aufbewahrten Korrespondenz zurückgehalten, so hat sich das unter der neuen Leitung grundlegend geändert. "Man wolle Nolde und seine Kunst künftig frei von Mythen und Legenden mit allen Widersprüchen präsentieren, unterstreicht Direktor Christian Ring die neue Haltung.
Nolde in der Literatur und im Film.
Das Leben Emil Noldes in der Zeit des „Malverbots“ ab 1941 spiegelt sich in dem Roman "Deutschstunde" von Siegfried Lenz (1968) wider. Der Roman wurde 1971 für das Fernsehen und 2019 fürs Kino verfilmt. Das Filmporträt "Träume am Meer – Der Maler Emil Nolde" unter der Regie von Wilfried Hauke wurde 2006 gedreht. In dem Buch "Nolde und ich. Ein Südseetraum" erzählte Hans Christoph Buch 2013 Noldes Reise in die Südsee.
Urteil des BGH zu einer Fälschung von Aquarellen Noldes.
Ein Urteil des BGH von 1989 spielt eine Rolle in Kommentaren zum postmortalen Persönlichkeitsrecht. Ein Sammler reichte bei der Nachlassstiftung von Emil Nolde zwei angeblich von ihm signierte Aquarelle zur Begutachtung ein. Diese erkannte darin Fälschungen und verweigerte die Herausgabe der Aquarelle an den Sammler, der daraufhin klagte. Die Stiftung wollte die Bilder vernichten bzw. die nach ihrer Ansicht gefälschte Unterschrift entfernen oder eine Aufschrift Fälschung anbringen. Das wurde letztinstanzlich vom BGH zurückgewiesen. Insbesondere kommt nach dem Urteil des BGH der postmortale Persönlichkeitsschutz oder das Namensrecht für die Forderung der Beklagten nicht in Frage. Das Gericht räumte in der Begründung einen auch 33 Jahre nach dem Tod des Malers bestehenden Persönlichkeitsschutz in Hinblick auf sein Werk ein und ein Recht zur eventuellen Beseitigung der Signatur ein, falls es sich um eine Fälschung handele, was aber nicht Gegenstand der Forderungen der Beklagten war (keine Forderung auf Einwilligung des Klägers auf Entfernen der Signatur). Der Kommentator Haimo Schack hob insbesondere die im Urteil für diesen speziellen Fall festgestellte lange Nachwirkung des Persönlichkeitsrechts hervor, die im Fall Emil Nolde als "namhaften Vertreter des deutschen Expressionismus" eingeräumt wurde. Die unterstellte Fälschung war nach dem Urteil "grundsätzlich geeignet, das künstlerische Gesamtbild nachhaltig zu verzerren".
Werke (Auswahl).
Bilder.
Der Hamburger Richter und Kunstsammler Gustav Schiefler erstellte den ersten zweibändigen Katalog des graphischen Werkes von Nolde. |
1329 | 1012192 | https://de.wikipedia.org/wiki?curid=1329 | Eiffelturm | Der Eiffelturm (, ) ist ein 330 Meter hoher Eisenfachwerkturm in Paris. Er steht im 7. Arrondissement am nordwestlichen Ende des Champ de Mars (Marsfeld), nahe dem Ufer der Seine. Das von 1887 bis 1889 errichtete, 10100 Tonnen schwere Bauwerk wurde als monumentales Eingangsportal und Aussichtsturm für die Weltausstellung zur Erinnerung an den 100. Jahrestag der Französischen Revolution errichtet. Der nach dem Erbauer Gustave Eiffel benannte und zum Errichtungszeitpunkt noch 312 Meter hohe Turm war von seiner Erbauung bis zur Fertigstellung des Chrysler Building 1930 in New York das höchste Bauwerk der Welt. Mit der Ausstrahlung des ersten öffentlichen Radioprogramms in Europa 1921 und des ersten französischen Fernsehprogramms 1935 trug das Bauwerk als Sendeturm zur Geschichte des Hörfunks und des Fernsehens bei. Der Fernsehturm ist die wichtigste Sendeanlage des Großraums Paris und beherbergt als Turmrestaurant das mit einem Michelin-Stern ausgezeichnete Restaurant "Le Jules Verne".
Als höchstes Bauwerk von Paris prägt er das Stadtbild bis heute und zählt mit rund sieben Millionen zahlenden Besuchern pro Jahr zu den meistbesuchten Wahrzeichen der Welt. Der Turm ist eine der bekanntesten Ikonen der Architektur und der Ingenieurskunst. Der Eiffelturm ist das Vorbild vieler Nachahmerbauten und wird in Kunst und Kultur im Zusammenhang mit Paris und Frankreich vielfach aufgegriffen. Er gilt als nationales Symbol der Franzosen und avancierte zu einer weltweiten Ikone der Moderne. Seit 1964 ist der Eiffelturm als "monument historique" denkmalgeschützt, und 1986 nahm die American Society of Civil Engineers das Bauwerk in die Liste der historischen Meilensteine der Ingenieurbaukunst auf.
Geschichte.
Hintergrund.
Mit den technischen Möglichkeiten der Industrialisierung kamen auch Ideen auf, hohe Bauwerke zu errichten. Insbesondere Turmbauwerke spiegelten den damaligen Zeitgeist wider.
Bereits im Jahr 1833 schlug der Engländer Richard Trevithick vor, eine 1000 Fuß (304,80 Meter) hohe, von 1000 Stützen getragene gusseiserne Säule mit dem Durchmesser von 30 Metern an der Basis und 3,60 Metern an der Spitze zu bauen. Trevithick starb jedoch kurz nach Veröffentlichung seiner Pläne. Die amerikanischen Ingenieure Thomas Curtis Clarke (1827–1901) und David Reeves griffen die Idee auf und wollten für die Weltausstellung 1876 in Philadelphia einen solchen Turm "(Centennial Tower)" errichten. Die Konstruktion sah eine zylindrische Eisenröhre mit 9 Metern Durchmesser als Kern vor, die mit Stahlseilen abgespannt werden sollte. Verwirklicht wurde das Vorhaben nicht. Nach heutigem Wissensstand wäre dieses Bauwerk den Windschwingungen zum Opfer gefallen.
1881 kehrte der französische Ingenieur Amédée Sébillot von einer Amerikareise mit der Idee zurück, das gesamte Stadtgebiet von Paris mit einem Leuchtfeuer auf einem „Sonnenturm“ zu beleuchten. Nachdem die französische Regierung im Mai 1884 das Vorhaben der Weltausstellung für das Jahr 1889 verkündet hatte, fertigte er zusammen mit dem Erbauer des Palais du Trocadéro, Jules Bourdais, entsprechende Pläne an. Der Entwurf, der an eine romantisierende Rekonstruktion des sagenumwobenen Leuchtturms von Pharos mit vielen Verzierungen erinnerte, stieß auf große Vorbehalte und wurde bis zum offiziellen Planungswettbewerb im Mai 1886 öffentlich diskutiert. Mangels technischer Umsetzbarkeit blieben sowohl der amerikanische Centennial Tower als auch der Sonnenturm unverwirklicht.
Projektphase.
Im Juni 1884 stellten die beiden Ingenieure Maurice Koechlin und Émile Nouguier, beide aus dem Büro von Gustave Eiffel, einen Entwurf für einen 300 Meter hohen Metallmast vor, der auf vier Füßen ruhen sollte. Die Stahlfachwerkkonstruktion war so entwickelt, dass die Streben durch ihre Neigungswinkel Seitenwinden möglichst geringen Widerstand boten. Die Form der Turmstützen ähnelte der Momentenlinie eines vertikalen Kragarms bei Windbelastung. Damit sollten die Seitenwinde maximal nach unten abgeleitet werden, was dem hohen Bauwerk eine extrem hohe Standsicherheit verschaffen sollte. Eiffel und sein Büro hatten in den Jahren davor bereits grundlegende Erfahrungen im Brückenbau gesammelt. Die größten Eisenbahnbrücken jener Zeit stammten von Eiffel, wie beispielsweise das Garabit-Viadukt, welches das Tal der Truyère in 122 Meter Höhe überspannt. Die Pylone aus dem Brückenbau standen beim Turmprojekt Pate. Am 18. September 1884 ließ sich Eiffel den Entwurf patentieren.
Der ingenieurtechnisch ausgereifte Entwurf entsprach jedoch ästhetisch nicht den Vorstellungen Eiffels. Das pylonartige Bauwerk erinnerte zu sehr an einen überdimensionierten Freileitungsmast – die Werkbezeichnung deutete dies mit "pylône de 300 mètres de hauteur" an. Eiffel erkannte, dass der allzu technische Entwurf im Vergleich mit den kunstvollen Bauwerken der Weltausstellung nicht überzeugen konnte, und beauftragte im Frühjahr 1886 den Architekten Stephen Sauvestre, die Form des Turms zu überarbeiten, um die Akzeptanz zu erhöhen. Zu den auffälligsten, von Sauvestre vorgenommenen Veränderungen zählt der monumentale, für die Tragfähigkeit nicht notwendige Bogen mit der ersten Etage. Er wurde dem Anspruch, als Eingangsportal für die Weltausstellung zu dienen, deutlich besser gerecht und ließ den Turm weniger nüchtern erscheinen. Sauvestre versah das Bauwerk mit gemauerten Sockeln, ließ die nach oben strebenden Pfeiler früher zusammenlaufen, änderte die Aufteilung der Geschosse und fügte eine Reihe von Verzierungen hinzu. Die ursprünglich vorgesehene Spitze in Pyramidenform veränderte der Architekt zu einer zwiebelförmigen Laterne.
Erst dieser Entwurf überzeugte Eiffel so, dass er die Nutzungsrechte für den „300-Meter-Turm“ erwarb. Eiffel pries das Konzept vor dem Ausstellungskommissariat nicht nur als Ausstellungsbauwerk, sondern stellte die wissenschaftliche Bedeutung für die Meteorologie, Astronomie und die Aerodynamik heraus. Eiffel hob den Namen Koechlins nicht besonders hervor. Dies führte dazu, dass der Turm bereits in der Projektphase mit dem Ingenieur Eiffel in Verbindung gebracht wurde und schon vor seiner Errichtung die Bezeichnung "Eiffelturm" erhielt; Eiffel selbst hatte ihn nie so bezeichnet. Im Frühjahr 1885 wurden die Baukosten auf 3.155.000 Francs geschätzt und die Turmmasse mit 4810 Tonnen projektiert. Am Ende kam die reine Stahlkonstruktion des Eiffelturms auf eine Masse von 7300 Tonnen und die Baukosten erhöhten sich auf mehr als das Zweieinhalbfache.
Am 1. Mai 1886 schrieb der Handelsminister Édouard Lockroy den Ideenwettbewerb für die Gebäude der Pariser Weltausstellung aus, der sich an französische Architekten und Ingenieure richtete. Es nahmen rund 100 Bewerber teil, viele von ihnen griffen die Idee eines Turmbauwerks auf. Nach der ersten Auswahl blieben drei Vorlagen übrig, darunter befanden sich neben Eiffels Beitrag die Entwürfe von Ferdinand Dutert und Jean Camille Formigé. Eiffel ließ die stark verzierte Fassung Sauvestres nochmals unter Verzicht auf einige Zierelemente überarbeiten und gewann mit diesem Kompromissvorschlag den Wettbewerb. Er unterschrieb am 8. Januar 1887 einen Vertrag mit der Stadt, die eine Subvention in Höhe von 1,5 Millionen Goldfranken zur Verfügung stellte, und bereits am 26. Januar wurde mit dem Bau begonnen. Da Eiffel die restlichen Baukosten von insgesamt über sieben Millionen Franken selbst zu tragen hatte, sicherte ihm der 18 Paragraphen umfassende Vertrag eine zwanzigjährige Nutzungskonzession zu. Den Vertrag unterzeichnete Eiffel persönlich, nicht im Namen seiner Baufirma. Die Finanzierung der restlichen Kosten erfolgte über eine Aktiengesellschaft mit einem Grundkapital von fünf Millionen Franken, von denen er die Hälfte übernahm; die andere Hälfte stellten zwei Pariser Großbanken als Kredite zur Verfügung. Den Inhabern von Eiffelturm-Aktien, welche die höchsten Renditen in der französischen Börsengeschichte ausschütteten, war es erlaubt, den Turm einmal im Jahr kostenfrei zu benutzen.
Auch wenn Eiffel den Turm als geschlossenes Projekt aus seiner Hand anpries und sich damit eine fremde Idee zu eigen machte, gilt es historisch als gesichert, dass ohne Eiffels persönliches und unternehmerisches Engagement der Bau in dieser Form nie zustande gekommen wäre.
Bauarbeiten von Januar 1887 bis März 1889.
Unter regem Interesse der Öffentlichkeit begannen am 28. Januar 1887 die Bauarbeiten mit den Grabungsarbeiten für die Fundamente. Dafür wurden insgesamt 30.973 Kubikmeter Erdreich ausgehoben. Da die Fundamente unter dem Niveau des Seineflussbetts gründen, leitete man Druckluft in die wasserdichte Metallverschalung, damit die Arbeiten unterhalb des Wasserspiegels ausgeführt werden konnten. Dieses auf den Bergbauingenieur Jules Triger zurückgehende Verfahren hatte Gustave Eiffel bereits 1857 beim Bau der 500 Meter langen Eisenbahnbrücke von Bordeaux erprobt, und wandte es bei den zwei zur Seine ausgerichteten Pfeilerfundamenten an.
Eiffel verwendete als Baumaterial im Puddelverfahren produziertes Schmiedeeisen, was zu seiner besonderen Haltbarkeit beigetragen hat. Da die Eisenverbindung mit geringem Kohlenstoffgehalt nicht geschweißt, sondern nur genietet werden konnte, ließ Eiffel in seinem Firmensitz in Levallois-Perret die notwendigen Einzelteile im Baukastenprinzip vorproduzieren und in Paris vor Ort zusammensetzen. Die Teile wurden exakt berechnet, geschnitten und mit den Löchern für das spätere Nieten versehen. Für die Vorproduktion bis zur Errichtung hatte Eiffel einen festen Ablaufplan. Fehlerhafte Teile wurden wieder zur Fabrik zurückgeschickt und nicht vor Ort angepasst. Ein Stab von etwa 40 technischen Zeichnern, Architekten und Ingenieuren erfasste in 700 Gesamtansichten und 3.600 Werkzeichnungen das gesamte, aus 18.038 Einzelteilen bestehende Bauwerk.
Am 1. Juli 1887 begann die Errichtung der vier Turmfüße. Die zunächst freitragend montierten Sparren wurden von 30 Meter hohen provisorischen Baugerüsten getragen. Am 7. Dezember 1887 erfolgte die Montage der ersten Etage, auf deren Höhe ein 45 Meter hohes Gerüst zur Abstützung der Horizontalbalken diente. Oberhalb der Etage stützten sich die Strebepfeiler von selbst. Alle Werkstücke wurden von dampfgetriebenen Kränen auf den Führungsschienen positioniert, auf denen später die unteren Fahrstühle verkehren sollten. Einer der heikelsten Bauabschnitte war die Verbindung der vier horizontalen Tragbalken in der ersten Etage. Für deren exakte Ausrichtung nutzte Eiffel sogenannte Sandkisten, mit denen die Träger millimetergenau ausgependelt werden konnten. In zwei Pfeilern befanden sich manuell mit Handpumpen bedienbare hydraulisch verstellbare Hubspindeln, mit denen die Sparren auf ihre Position gebracht wurden. Damit war eine sehr präzise Justierung der Balken möglich. Nachdem die Tragpfeiler fest miteinander verbunden waren, ersetzte man die Hubspindeln durch verankerte Stahlkeile. Die sorgfältige Planung und Ausführung führte dazu, dass die Nietlöcher erst ab einer Höhe von 57 Metern angepasst werden mussten. Vermutlich wurde die hohe Präzision durch Zusammenlegen der Teile in der Werkstatt und anschließendes Aufreiben der Nietlöcher erzielt. Eiffel selbst führte dazu aus:
Am 14. August 1888 wurde die zweite Etage errichtet und der sich nach oben anschließende Teil freitragend montiert. Gleichzeitig stattete man die Plattformen aus. Die im Werk vorgebohrten Einzelteile wurden vor Ort mit konischen Dornen unter Schlageinwirkung in ihre endgültige Position gebracht. Insgesamt halten im Eiffelturm 2,5 Millionen Niete die Bauteile zusammen. Das Vernieten führten jeweils vier Männer durch. Der erste Arbeiter ließ den Niet heißstauchen und brachte ihn mithilfe einer kleinen Esse zum Glühen. Als zweiten Schritt führte ein anderer Arbeiter den Niet an das Bohrloch. Ein dritter schlug den Schließkopf in Form. In einem letzten Schritt wurde der Bolzen gestaucht.
An den Bauarbeiten waren bis zu 250 Personen beteiligt, rund 150 davon waren für das Vernieten der Bauteile vor Ort eingesetzt. Neben Zimmerleuten befanden sich unter den Bauarbeitern auch Schornsteinfeger, da sie das Arbeiten in großen Höhen gewohnt waren. Die Arbeitsschichten dauerten in den Wintermonaten neun und in den Sommermonaten zwölf Stunden. Im September 1888 kam es zu einem Streik der Arbeiter; drei Monate später legten sie erneut die Arbeit nieder und forderten mehr Lohn. Gustave Eiffel verhandelte mit ihnen und richtete in der ersten bereits fertiggestellten Plattform eine Kantine für sie ein. Während der gesamten Arbeiten kam es zu einem einzigen tödlichen Unfall. Ein italienischer Arbeiter verunglückte beim Einbau der Aufzüge nach der offiziellen Eröffnung.
Gleichzeitig mit der freitragenden Montage der obersten Stockwerke ab Dezember 1888 wurden die Plattformen ausgestattet. Nachdem am 15. März die Laterne auf der Spitze des Turms errichtet worden war, konnten wenige Tage später, am 31. März 1889, planmäßig wenige Wochen vor Eröffnung der Weltausstellung, die Arbeiten abgeschlossen werden.
Proteste und Widerstand gegen die Errichtung.
Bereits vor dem Baubeginn formierte sich unter Intellektuellen und Künstlern Widerstand gegen den Bau des Eiffelturms. Der Kunst- und Kulturhistoriker Jacob Burckhardt sah in dem Bauwerk eine Reklame für die gedankenlosen Tagediebe in ganz Europa und Amerika. Zahlreiche Persönlichkeiten, darunter Charles Gounod, Alexandre Dumas, Charles Garnier, William Adolphe Bouguereau und auch Guy de Maupassant als einer der stärksten Kritiker, veröffentlichten am 14. Februar 1887, wenige Tage nach Baubeginn, in der damals renommierten Zeitung "Le Temps" einen "Protest der Künstler":
Das Protestschreiben blieb kein Einzelfall; weitere begleiteten die Bauarbeiten. Léon Bloy beschrieb den Eiffelturm als „wirklich tragische Straßenlaterne“, Paul Verlaine als „Skelett von einem Glockenturm“ und François Coppée als „Eisenmast mit starrer Takelage, unvollkommen, konfus und unförmig“. Die starke Ablehnung richtete sich zum einen gegen die für die damalige Zeit immense Höhe, zum anderen empfand man die offen zur Schau gestellte Konstruktionsweise aus Eisen mit fehlender Fassade als geradezu skandalös.
Ein weiterer Kritikpunkt der Gegner war der Umstand, dass der Turm nicht wie die andere Festarchitektur nach der Ausstellung wieder abgebaut werden, sondern dauerhaft stehen bleiben sollte. Der Protest, der sich vor allem aus akademisch-elitären Kreisen kam, ließ sich auch durch Eiffels gewieftes Entgegenkommen nicht beruhigen, den Turm für einen Bruchteil der Baukosten in Einzelteile zu zerlegen und ihn an anderer Stelle wieder aufzubauen. Jeder praktische Aspekt, der sich den Notwendigkeiten des Alltags unterwarf, konnte dem hehren Kunstbegriff der Traditionalisten nicht genügen – Industrie und Kunst hatten in ihren Augen strikt getrennt zu bleiben. In der breiten Masse war der Eiffelturm von Anfang an sehr beliebt und die Baustelle wurde rege besucht.
Neben polemischen Schriften, Behauptungen und (angeblichen oder tatsächlichen) Befürchtungen gab es auch Techniker, die befürchteten, die Fundamente des Turms wären für sein Gewicht zu schwach. Ein Mathematiker prophezeite seinen Einsturz, sobald er eine Höhe von 228 Metern überschreite. Ein Anlieger am Champ de Mars strengte einen Prozess gegen den Staat und die Stadt an, aus Angst, der Eiffelturm könne einstürzen und sein Haus zerstören. Das Gericht erlaubte den Weiterbau nur mit der Auflage, dass Gustave Eiffel bei etwaigen Schäden haften müsse.
Eröffnung und Reaktionen.
Am Eröffnungstag, dem 31. März 1889, bestieg Gustave Eiffel – da der Fahrstuhl noch nicht fertiggestellt war – mit einer Delegation gegen 13:30 Uhr den Turm und hisste an dessen Spitze eine französische Trikolore, die 7 Meter lang und 4,40 Meter breit war.
Der in der Presse offen ausgetragene Protest gegen den Eiffelturm verstummte nach seiner Eröffnung fast vollständig und schlug teilweise sogar in Begeisterung und Stolz um. In einer Pressemeldung hieß es dazu:
Heinrich Schliemann, dem ein Aufstieg auf den Eiffelturm bereits vor der offiziellen Eröffnung ermöglicht worden war, pries das Bauwerk in einem Brief an Rudolf Virchow am 24. Mai 1889 als Wunderwerk der ingenieurtechnischen Fähigkeiten, ohne das der vierte Teil der Ausstellung – Schliemann meinte die vierte Weltausstellung in Paris – keinen Reiz hätte. Trotz der Euphorie, die ihn als gelungene nationale Selbstdarstellung und Demonstration des technischen Fortschritts rühmte, blieb auch unversöhnliche Kritik. Auf jeden Fall erregte er die Gemüter jener Zeit sehr stark und übte eine enorme Anziehungskraft auf die Menschen aus, so der französische Philosoph, Schriftsteller und Literaturkritiker Roland Barthes.
Für die breite Öffentlichkeit war der Turm erst seit dem Eröffnungstag der Weltausstellung, dem 15. Mai 1889, zugänglich. Das Eintrittsgeld betrug 1889 für die erste Etage zwei, für die zweite drei und für die dritte fünf Francs. Der Eintritt zur Weltausstellung kostete einen Franc. Insgesamt bestiegen während der Weltausstellung 1889 1.896.987 Menschen den Eiffelturm. Damit amortisierten sich seine Baukosten bereits zu drei Vierteln. Zahlreiche prominente Persönlichkeiten der Zeitgeschichte statteten dem höchsten Bauwerk der Welt ebenfalls einen Besuch ab. Am Eröffnungstag erschien eine Sonderausgabe der Tageszeitung "Le Figaro" direkt aus dem Eiffelturm. Die Redaktion hatte ihre Arbeitsräume aus diesem Anlass in der zweiten Aussichtsplattform eingerichtet. Besucher, welche die Zeitung an diesem Tag direkt bei der Redaktion kauften, erhielten eine signierte Ausgabe als „Zertifikat“ für ihre Turmbesteigung. Zum Zeitpunkt der Eröffnung und Schließung jedes Messetages wurde jeweils ein Schuss einer Salutkanone von der Spitze des Turms abgefeuert.
Der erste Eintrag im Gästebuch des Eiffelturms war der des britischen Kronprinzen, des späteren Königs Eduard VII., der am 10. Juni 1889 den Turm zusammen mit fünf Familienmitgliedern bestieg und den Eiffel persönlich führte. Am 1. August 1889 besuchte der damalige Schah von Persien Nāser ad-Din Schāh das neue Bauwerk. Außerdem finden sich dort die Unterschriften des Prinzen Georg von Griechenland, des späteren Königs von Belgien Albert I., des russischen Zaren Nikolaus II., Sarah Bernhardts und des japanischen Kaisersohnes Yoshihito. Der Erfinder Thomas Edison überreichte Gustave Eiffel am 10. September 1889 eine Widmung für die „Errichtung des gigantischen und originellen Musterstücks moderner Baukunst“ und nahm bei seinem Besuch die Stimme Eiffels auf. In der dritten Plattform unterhalb der Turmspitze ist dieses Ereignis im ehemaligen Büro Eiffels mit Wachsfiguren nachgebildet. Auch Mahatma Gandhi, der damals in London studierte, bestieg während der Weltausstellung den Eiffelturm.
Als der Eiffelturm eröffnet wurde, war er mit einer Gesamthöhe von damals 312 Metern das höchste Bauwerk der Welt und löste damit das 169,3 Meter hohe Washington Monument, einen Obelisken aus weißem Marmor in den Vereinigten Staaten, als Rekordhalter ab. Das höchste begehbare Gebäude jener Zeit war die 167,5 Meter hohe Synagoge Mole Antonelliana in Turin, die 1888 fertiggestellt wurde.
Die ersten 20 Jahre.
Der Erfolg und das Fortbestehen des Eiffelturms über die zwanzigjährige Konzession hinaus war ungewiss. Eiffel versuchte immer wieder durch die Einbindung von Gelehrten und eigene Forschungen den Nutzen des Bauwerkes darzulegen.
Am 5. November 1898 konnten Eugène Ducretet und Ernest Roger eine drahtlose Telegraphenverbindung zwischen dem Eiffelturm und dem vier Kilometer entfernten Panthéon herstellen. Die elektromagnetische Informationsübermittlung blieb zunächst rein militärischen Zwecken vorbehalten. Im selben Jahr wurde auf dem Eiffelturm eine Wetterwarte eingerichtet. Durch den enormen Höhenunterschied von 300 Metern war es möglich, vielfältige physikalische Experimente durchzuführen. So wurden zur Justage von Luftdruckmessern ein übergroßes Manometer installiert, spektroskopische Messungen durchgeführt, ein Foucaultsches Pendel eingerichtet und Windgeschwindigkeit und Atmosphärentemperatur gemessen. Sogar Experimente zur Heilwirkung von Höhenluft führte man durch. Für seine astronomischen und physiologischen Beobachtungen richtete Eiffel ein eigenes Büro in der dritten Plattform ein. Besondere Bekanntheit erlangten Eiffels Messungen zur Aerodynamik. Eine erste Versuchsreihe begann er 1903: Er spannte zwischen der zweiten Plattform und dem Erdboden ein Kabel, an dem er verschiedene Profile nach unten gleiten ließ. 1904 konnten Zeitsignale auf der Wellenlänge 2000 Meter mit unterschiedlichen Apparaten empfangen werden. 1909 erweiterte er seine Studien durch Eröffnung eines Windkanals am Fuße des Turms und einer größeren Anlage an der Rue Boileau im Jahre 1912.
Für die Weltausstellung 1900, die zum fünften Mal in Paris stattfinden sollte, erwog Eiffel verschiedene Umbaupläne. Die allgemeine Empfindung der Ästhetik des Turmes hatte sich in den wenigen Jahren seines Bestehens derart gewandelt, dass seine Optik wegen ihrer Modernität und Radikalität überholt wirkte. Gefragt waren üppigere Formen, wie in der Belle Époque üblich. Die Ausstellung zeichnete sich insgesamt durch eine retrospektive Ausrichtung aus und war damit eher eine Schlussfeier des 19. als eine Eröffnungsfeier des 20. Jahrhunderts.
Aus diesem Grund versuchten Veranstalter und Architekten den Eiffelturm hinter einer Stilhülle zu verbergen. Die Vorschläge dazu reichten von relativ moderaten Veränderungen wie dem Anbringen von Schnörkeln, Wimpeln, Balkonen und Girlanden bis hin zu massiven Umbauplänen, die eine völlige Neukonzeption des Turms vorsahen. Der Entwurf von Guillemonats sah beispielsweise vor, den Turm bis zur ersten Plattform abzutragen und einen riesigen Globus darauf zu errichten. Zum massivsten Umbauvorschlag mit der Projektbezeichnung „la Tour Eifel (sic!) dans le mont Samson“ zählt der eines gewissen Samson, der den Turm als Stützgerüst für einen künstlichen Berg vorsah und den Eiffelturm damit komplett hinter einer Bergkulisse mit Dörfern, Straßen und Vegetation hätte verschwinden lassen. Abgesehen von der Tatsache, dass Samson nicht wusste, wie man den Eiffelturm korrekt buchstabierte, zeugte auch die wenig professionell ausgeführte Planskizze von mangelnder Seriosität. Der Umbauvorschlag von Gautier wollte den Eiffelturm als Stützkonstruktion für ein riesenhaftes pagodenähnliches Tor verwenden. Sowohl ein Abriss als auch die angestrebten Umbauvorschläge scheiterten am Eigentumsrecht Eiffels.
Am 28. Dezember 1897 einigte man sich schließlich, den Eiffelturm weitgehend unverändert in die Weltausstellung zu integrieren. Sein technisches Aussehen wurde lediglich durch eine neue Lichtinstallation, welche die Konturen des Bauwerks hervorhob, zu überspielen versucht. Eiffel beließ es dabei, das Bauwerk nach oben hin in abgetönter orangeroter Farbe neu zu streichen und den Plattformen ein neues äußeres Aussehen zu geben. Neben einer neuen Aufzuganlage stellte er auch seinen Salon in der dritten Plattform der Öffentlichkeit zur Verfügung. Doch zur Weltausstellung zog der Turm mit etwa einer Million nur noch halb so viele Besucher an; die Zahl sank in den Folgejahren weiter ab und pendelte sich bis zu Beginn des Ersten Weltkriegs auf jährlich rund 180.000 ein. Rein wirtschaftlich gesehen spielte es eine untergeordnete Rolle, denn die Baukosten des Eiffelturms waren bereits nach eineinhalb Jahren amortisiert. Eiffel war durch sein alleiniges Vermarktungsrecht und sein prosperierendes Unternehmen bereits mehrfacher Millionär geworden und konnte sich neben einem Stadtpalais in Paris weitere Häuser in Sèvres, Beaulieu-sur-Mer an der Côte d’Azur und in Vevey am Genfersee leisten.
Neben der wissenschaftlichen Nutzung wuchs vor allem auch der militärische Wert des Turmes. Am 15. Dezember 1893 erlaubte Eiffel dem Kriegsminister Auguste Mercier, auf dem Turm Antennen zu befestigen, und übernahm sogar deren Kosten. Am 21. Januar 1904 unterstützte er Hauptmann Gustave-Auguste Ferrié, einen Offizier der Pioniertruppen, die drahtlose Telegrafie für die militärische Nutzung voranzutreiben. Ferrié richtete das militärische Netzwerk ein und wurde zum zweitwichtigsten Mann neben Eiffel. Nachdem bereits 1898 eine drahtlose Verbindung hergestellt worden war, wurden 1903 zwischen dem Eiffelturm und einigen Militäranlagen in Paris weitere Funkverbindungen geschaffen und ein Jahr später wurde die Verbindung in den Osten Frankreichs erweitert. 1906 wurde ein Radiosender auf dem Turm eingerichtet. Die nach 20 Jahren ausgelaufene Konzession wurde am 1. Januar 1910 um weitere 70 Jahre verlängert. Mit der gestiegenen strategischen Bedeutung war auch der Fortbestand des Eiffelturms gesichert; sie war sogar ausschlaggebend für die Fortsetzung der Konzession, denn der wissenschaftliche Nutzen blieb real betrachtet eher bescheiden.
Wissenschaftliche, fernmeldetechnische und militärische Nutzung.
Sender und wissenschaftliche Nutzung.
Ab dem 23. Mai 1910 diente der Eiffelturm der französischen Marine als Zeitzeichensender. Ein Sender auf dem Eiffelturm strahlte in regelmäßigen Abständen Signale aus, mit denen man die Uhren exakt synchronisieren konnte.
Das Signal konnte nachts bis zu einer Entfernung von 5200 Kilometern und tagsüber bis etwa zur Hälfte dieser Strecke empfangen werden. Gustave-Auguste Ferrié, ein Offizier des Genie-Korps der französischen Streitkräfte, forschte viele Jahre zum Funkverkehr und war an dem Projekt beteiligt.
Ebenfalls 1910 gelang es, erste Funkverbindungen mit Luftschiffen und ein Jahr später mit Flugzeugen herzustellen.
Messungen und wissenschaftliche Experimente am Eiffelturm gingen weit über die Sende- und Übertragungstechnik hinaus. Der Physiker Theodor Wulf (1868–1946) maß 1910 vier Tage lang an der Spitze und am Fuße des Turms die Strahlungsenergie und stellte einen signifikanten Unterschied fest. Mit diesem gelang es ihm, die kosmische Strahlung nachzuweisen. Während des Ersten Weltkrieges musste der französische Physiker und spätere Nobelpreisträger Louis de Broglie sein Studium unterbrechen und leistete seinen Militärdienst bis 1919 auf der funktelegraphischen Station des Eiffelturms ab.
Erster Weltkrieg.
Mit Beginn des Ersten Weltkriegs wurde der Eiffelturm für die Öffentlichkeit gesperrt. Er hatte sich als Telekommunikationszentrum für das Militär etabliert, das dort verschlüsselte feindliche Funksprüche abfing, deren Nachrichteninhalt entziffert werden konnte. Zu den bedeutendsten Fällen gehört ein als Radioprogramm getarnter Funkspruch, der zur Verhaftung der Spionin Mata Hari führte, sowie das "Radiogramme de la Victoire" ().
Hörfunksender und -studio.
Bereits vor dem Ersten Weltkrieg fanden erfolgreiche Tests zur drahtlosen Übertragung von Telegrafie-Signalen statt. Am 24. Dezember 1921 begann nun auch das Senden von Tonsignalen. Lucien und Sacha Guitry strahlten erstmals vom Eiffelturm ihr Radioprogramm "(Radio Tour Eiffel)" aus. Damit schrieben sie Rundfunkgeschichte, denn die ausgestrahlte Sendung war in Europa die erste öffentliche Radiosendung. Ein Jahr später, am 6. Februar 1922, wurde im Nordpfeiler ein temporäres Studio eingerichtet, aus dem Guitry, Yvonne Printemps und Direktor Ferrié sendeten.
Die Radiosendungen erfolgten von 1922 bis 1928 auf Wellenlängen zwischen 2600 m und 3200 m, also Frequenzen von 93,7 kHz und 115,3 kHz mit Sendeleistungen von bis zu 12 kW, von 1929 bis 1933 auf der Wellenlänge 1445,8 m (207,4 kHz) mit bis zu 15 kW Sendeleistung und von 1933 bis 1940 auf der Wellenlänge 206 m (1455,3 kHz) mit bis zu 80 kW Sendeleistung.
Im Mai 1925 gab sich der Betrüger Victor Lustig als stellvertretender Generaldirektor des Postministeriums aus und fälschte eine Ausschreibung, die den Eiffelturm zum Verkauf anbot. Lustig schaffte es, ihn an André Poisson zu veräußern, der sich damit den Aufstieg in die Pariser Geschäftswelt erhoffte. Um Poissons anfängliche Zweifel zu zerstreuen, mimte Lustig ein Geständnis, er sei ein korrupter Beamter, der für seinen teuren Lebensstil etwas dazuverdienen wolle. Lustig tauchte nach Abschluss des Handels unter und setzte sich nach Wien ab. Als der Schwindel aufflog, zog Poisson es aus Scham vor, den Betrug nicht der Polizei anzuzeigen. Nach einem Monat versuchte Lustig den Betrug zu wiederholen. Der Käufer schöpfte jedoch Verdacht und ging zur Polizei, worauf Lustig floh.
Wetter- und Fernsehsender.
1925 ließ Édouard Belin das erste Fernsehsignal vom Turm ausstrahlen. Damit wurde der Eiffelturm zum ersten Fernmelde- sowie Fernsehturm und blieb bis 1953 weltweit, wie weiter unten erwähnt, auch der höchste Turm dieser Art.
Im Jahr 1929 strahlte der Eiffelturm die Daten von 350 Wetterstationen aus und ermöglichte damit einen Austausch zwischen Europa, Nordafrika und den Inseln im Atlantischen Ozean einschließlich Islands und der Kapverdischen Inseln.
Mit der Einweihung des 319 Meter hohen Chrysler Building in New York City 1930 verlor das Pariser Wahrzeichen den Titel des höchsten Bauwerks der Welt, den es fast 41 Jahre innegehabt hatte. Bis zur Fertigstellung des Tokyo Tower im Jahr 1953 blieb es noch der höchste Fernsehturm.
Die erste offizielle Fernsehübertragung vom Eiffelturm am 26. April 1935 um 20:15 Uhr war die Geburtsstunde des Fernsehens in Frankreich. Genutzt wurde wie schon bei den Sendungen von Édouard Belin die Technik des sogenannten "„mechanischen“" und teilweise des „elektronischen“ Fernsehens. Dazu strahlte ein 500-Watt-Sender auf der Wellenlänge 175 Meter, der allerdings bald danach durch einen 10 Kilowatt starken Sender ersetzt wurde. Das Programm strahlte man in einer halbelektronischen 60-Zeilen-Norm mit 25 Bildern pro Sekunde aus, die im Dezember von einer 180-Zeilen-Norm ersetzt wurde.
Entwicklung zur bedeutenden Sehenswürdigkeit.
1937 bis 1979.
Während der Weltfachausstellung 1937, die bereits im Zeichen der konkurrierenden Weltmächte und des drohenden Konfliktes mit dem „Dritten Reich“ stand, wurde unterhalb der ersten Plattform des Eiffelturms ein riesiger, von dem Architekten André Grasset gestalteter Kronleuchter aufgehängt. Darüber hinaus tauchte man den Turm mit 30 Projektoren in ein weißes Licht mit blauen und roten Blitzen. Die Veranstaltung war die letzte der sechs Weltausstellungen in Paris. Der Eiffelturm war seit 1889 fester Bestandteil der Ausstellungsarchitektur, zog aber mit jedem Mal weniger Besucher an.
Beim Staatsbesuch des britischen Königs Georg VI. im Jahr 1938 wurde ihm zu Ehren der Union Jack seitlich am Turm gehisst. Die 120 Kilogramm schwere Flagge war 30 Meter breit und 40 Meter lang.
Mit der Besetzung von Paris 1940 wurden die Aufzugkabel abgetrennt. Eine Reparatur war aufgrund der mangelnden Güterversorgung während des Zweiten Weltkrieges praktisch unmöglich. Für die deutschen Truppen und Adolf Hitler bedeutete dies, dass sie den Eiffelturm nur über die Treppe besteigen konnten. Deutsche Soldaten erhielten den Auftrag, bis zur Spitze hochzusteigen, um eine Hakenkreuzflagge an der Spitze des Turms zu hissen. Da sie zu groß war, wurde sie bereits nach wenigen Stunden weggeweht und etwas später durch eine kleinere ersetzt. Auf der ersten Aussichtsplattform ließ die Wehrmacht zudem ein Transparent mit der Aufschrift „Deutschland siegt auf allen Fronten“ anbringen. Als Hitler Paris am 24. Juni 1940 selbst besuchte, zog er es vor, den Eiffelturm nicht zu besteigen. Darauf hieß es, dass Hitler zwar Frankreich, aber nicht den Eiffelturm erobert habe. Auch die Hakenkreuzflagge wurde während der Besatzungszeit von einem Franzosen in einer heimlichen Aktion durch die französische Trikolore ersetzt. Trotz der Widrigkeiten inszenierten die Deutschen den Eiffelturm zu propagandistischen Zwecken. Hitler ließ sich zusammen mit weiteren namhaften Größen seines Regimes wie beispielsweise Albert Speer und Arno Breker in verschiedenen Posen vor dem Eiffelturm fotografieren, um vor der heimischen Bevölkerung den Sieg über die Franzosen zu demonstrieren.
Wie schon während des Ersten Weltkrieges blieb der Turm auch während des Zweiten Weltkrieges für die Öffentlichkeit geschlossen. US-amerikanische Truppen befreiten Paris am 25. August 1944 und installierten auf der zweiten Etage des Eiffelturms ihre Sendestationen, um mit deren Hilfe mit den Streitkräften am Ärmelkanal kommunizieren zu können. Nach der Wiedereröffnung für den Publikumsverkehr im Juni 1946 bestiegen in dem folgenden halben Jahr über 600.000 Besucher den Turm. Mit dem stärker werdenden Tourismus stieg auch die Besucherzahl anhaltend auf jährlich über eine Million und steigerte sich in den folgenden Jahrzehnten kontinuierlich.
Die 1950er Jahre waren geprägt durch das sich durchsetzende Medium des Fernsehens. Im April 1952 wurde das erste Mal eine Livesendung von Paris nach London gesendet. Die technische Schwierigkeit bestand in der Überbrückung der unterschiedlichen Übertragungsstandards zwischen Frankreich und Großbritannien. Mit der Sendung schrieb der Eiffelturm ein weiteres Mal Fernsehgeschichte. Die Show moderierten Georges de Caunes und Jacqueline Joubert vom französischen Fernsehen und Miss Reeves von der BBC. Ein Jahr später folgte der nächste Meilenstein mit der Einrichtung des Eurovision-Verbundes. Damit konnte am 2. Juni die Krönung von Elisabeth II. an alle Teilnehmerstaaten der Eurovision übertragen werden; in Frankreich wurde die Zeremonie landesweit vom Eiffelturm aus ausgestrahlt. 1956 brach im Senderaum ein Feuer aus und zerstörte die Turmspitze sowie die Sendeeinrichtungen. Ein Jahr später errichtete man neue Antennenplattformen und installierte neue Antennen. Nach dem Umbau strahlte der Turm Radio- und drei Fernsehprogramme aus. Seine neue Antenne erhöhte das Wahrzeichen auf insgesamt 320,75 Meter.
Zum 75-jährigen Jubiläum des Eiffelturms im Jahr 1964 lud die Betreibergesellschaft insgesamt 75 um das Jahr der Errichtung des Turms 1889 geborene Pariser Bürger zu einer festlichen Gala ein. Zu den berühmtesten Gästen zählte Maurice Chevalier.
Im Laufe der Jahre wurden nicht nur zu den Jubiläen besondere Ereignisse am Eiffelturm veranstaltet. Durch die vermehrte Vergabe von Dreherlaubnissen für Kinofilme stieg der Status des Bauwerks weiter. Neben immer wieder außergewöhnlichen, meist sportlichen Aktionen wurde der Eiffelturm auch zunehmend im Alltagsleben der Pariser verankert, beispielsweise durch die Eröffnung einer Schlittschuhbahn in der ersten Etage im Winter.
Aufgrund des traditionellen, an akademisch-klassizistischen Idealen orientierten Kunstverständnisses in Frankreich tat sich der Eiffelturm auch noch im fortgeschrittenen 20. Jahrhundert schwer mit seiner Anerkennung als Kulturdenkmal. Erst am 24. Juni 1964 wurde das Bauwerk in das "Inventaire des monuments historiques" eingetragen.
Seit 1980: Kulturerbe der UNESCO und Umbaumaßnahmen.
Nachdem zum 1. Januar 1980 die an Eiffel vergebene und inzwischen auf seinen Erben übergegangene Konzession ausgelaufen war, übernahm die Société nouvelle d’exploitation de la tour Eiffel (SNTE), eine zu 100 % der Stadt Paris gehörende Tochtergesellschaft, den Betrieb des Wahrzeichens. Sie kümmert sich seither um die Erhaltung und Vermarktung des Bauwerks. Am 9. September 1983 wurde der hundertmillionste Besucher des Eiffelturms mit einem Geschenk begrüßt. Die Sängerin Mireille Mathieu überreichte der Frau die Schlüssel für einen Citroën BX.
Seit 1991 gehört das Seineufer mit seinen Bauwerken zwischen dem Pont de Sully und dem Pont d’Iéna am Eiffelturm in Paris zum Kulturerbe der UNESCO.
Im Jahr 2000 übernahm die Rundfunkgesellschaft TDF die Montage von UHF-Antennen und ließ seine Gesamthöhe von 318,7 Meter auf seine zwischenzeitliche Höhe von 324 Meter anwachsen. 2005 strahlte der Eiffelturm erstmals digitales Fernsehen aus. Die SNTE ging zum 1. Januar 2006 für zunächst zehn Jahre in die Société d’exploitation de la tour Eiffel (SETE) über. Von Februar 2012 bis 2013 wurden umfangreiche Renovierungen und Umgestaltungen in der ersten Plattform durchgeführt, die zu diesem Zeitpunkt von etwa der Hälfte der Besucher gemieden wurde. Unter anderem wurden in Anlehnung an die ursprünglichen Glassäle drei überdachte kastenförmige, dunkelrote Pavillons – teilweise mit Glasboden – aus Stahl und Glas konstruiert, die an den Seitenwänden zwischen den Pfeilern und parallel zu ihnen verlaufen. Während der 25 Millionen Euro teuren Umbaumaßnahmen wurde der Besucherbetrieb weiter aufrechterhalten. Darüber hinaus wurden Behindertenaufzüge und eine Konferenzhalle eingerichtet.
Im Herbst 2017 wurde mit dem Bau einer Einfriedung rund um den Eiffelturm begonnen. Zwei klare Glaswände – zur Seine und gegenüber zum Marsfeld hin – sind 3 m hoch und 6,5 cm dick und dienen als Schutz vor Beschuss. An den zwei anderen Seiten wurden 3,24 m hohe Metallzäune errichtet, deren Pfeiler schräg stehen und so die konische Form des Turms widerspiegeln. Die Errichtung – sie wurde am 14. Juni 2018 von der Betreibergesellschaft Sete präsentiert – hat 35 Mio. Euro gekostet und wurde im Dezember 2018 abgeschlossen.
Geplant wurde die Glaswand vom in Paris lebenden und aus Graz stammenden Architekten Dietmar Feichtinger mit der Absicht, „die Einzäunung so diskret wie möglich zu gestalten.“ Schon bisher mussten Besucher vor dem Besteigen des Turms durch Sicherheitsschleusen gehen.
Beschreibung.
Lage und Umgebung.
Der Eiffelturm befindet sich im Westen des 7. Arrondissements der Pariser Innenstadt am nordwestlichen Ende des Champ de Mars. Er steht auf 33 Meter Höhe über Meer nicht weit vom Ufer der Seine entfernt, wo sich auch Anlegestellen von Ausflugsbooten befinden. Unweit davon liegt südwestlich des Eiffelturms die langgestreckte Île aux Cygnes (Schwaneninsel) in der Seine. In der unmittelbaren Sichtachse des Bauwerks steht südöstlich die École Militaire und nordwestlich auf dem gegenüberliegenden Flussufer über der 1937 auf 35 Meter verbreiterten Pont d’Iéna das Palais de Chaillot. Südöstlich der École Militaire befindet sich der Sitz der UNESCO in einem 1958 erbauten Gebäude mit Y-förmigem Grundriss. Rund drei Kilometer Luftlinie in südöstlicher Richtung entfernt steht etwas nördlich der exakten Sichtachse das 210 Meter hohe Bürohochhaus Tour Montparnasse. Nordöstlich befindet sich in der Nähe des Eiffelturms das Völkerkundemuseum Musée du quai Branly.
Folgende für den Fahrzeugverkehr freigegebene Straßen tangieren das Turmareal: südwestlich die Avenue Gustave Eiffel, im Nordosten die Avenue de la Bourdonnais, im Nordwesten der stark befahrene Quai Branly, von dem der Pont d’Iéna über die Seine abzweigt, und im Südosten die Avenue de Suffren. Die vier Straßen begrenzen ein bewaldetes, parkähnliches rechteckiges Grundstück, auf dem mittig der Eiffelturm steht. Die Durchfahrt ist für den motorisierten Verkehr nicht gestattet.
Die dem Eiffelturm nächsten Haltestellen der Métro Paris sind Bir-Hakeim (Tour Eiffel) der Linie 6 und École Militaire der Linie 8. Die Linie C der Pariser S-Bahn RER hält südwestlich des Turms am Bahnhof Champ de Mars - Tour Eiffel. In unmittelbarer Nähe des Eiffelturms halten verschiedene Buslinien.
Architektur.
Wie Gustave Eiffel in einem Vortrag vor der "Société des Ingénieurs civils" am 30. März 1885 erklärte, ging es in der Architektur des Turms darum,
So ausgeklügelt die Architektur zur Optimierung der Windlast ist, so vergleichsweise schlicht ist die grundsätzliche Konzeption des Eiffelturms, der die großen Eisenbahnbrücken aus Eisenfachwerk zum baulichen Vorbild hat. Sechzehn vertikal versetzte und in Vierergruppen zusammengefasste Hauptstreben ragen bogenförmig in die Höhe und werden über die drei horizontalen Besucherplattformen verbunden. Oberhalb der zweiten Plattform werden die Streben zu einem Pylon vereint.
Turmbasis und Fundament.
Der Eiffelturm steht auf einer Höhe von 30,5 Meter über dem Meeresspiegel am nordwestlichen Ende des Champ de Mars (→ Lage). Das Bauwerk steht auf vier mächtigen Stützpfeilern aus Eisenfachwerk mit einer Breite von jeweils 26,08 Metern; sie leiten das gesamte Gewicht in das bis in 15 Meter Tiefe reichende Fundament weiter. Die Pfeiler ruhen auf massivem Mauerwerk und sind mit 16 Sparren im 54-Grad-Winkel im Boden verankert. Schrauben von 7,80 Metern Länge verbinden dabei den Gusseisen-Schuh mit dem Unterbau.
Die Turmkonstruktion ist durch den Unterbau so gelagert, dass sie je nach Windlast einen Druck von etwa 5 kg/cm² an den Erdboden abgibt. Das entspricht etwa dem Bodendruck, den ein auf einem Stuhl sitzender Erwachsener auf den Boden ausübt – ein Vergleich, den Eiffel selbst errechnete und in seiner Publikation "La Tour de 300 mètres" angab.
Die Pfeiler haben im unteren Bereich zueinander einen Abstand von 74,24 Meter, was einer Spreizung des Turms an der Basis von insgesamt 124,90 Metern entspricht. Der Grundriss der Standfläche ist quadratisch. Der Eiffelturm wurde so konstruiert, dass jeder seiner Pfeiler exakt auf eine Himmelsrichtung ausgerichtet ist. Die Nord- und Westpfeiler zeigen in Richtung der Seine, die Ost- und Südpfeiler in Richtung des Champ de Mars. In jedem der Pfeiler befinden sich Eingänge mit Kartenverkaufsständen, Treppenhäuser und Aufzüge, die je nach Besucherandrang und Anlass unterschiedlich geöffnet sein können. Der Abstand der Pfeiler, die über mächtige Bögen miteinander verbunden sind, verringert sich mit zunehmender Höhe. Die ebenfalls aus filigran wirkendem Eisenfachwerk gefertigten Bögen 39 Meter über dem Boden und mit einem Durchmesser von 74 Metern haben rein dekorativen Charakter und keine tragende Funktion. Zwischen den Pfeilerfüßen ist der Durchgang ausschließlich Fußgängern vorbehalten. Am Nordpfeiler steht zu Ehren des Erbauers Gustave Eiffel eine goldfarbene Büste auf einem länglichen Sockel.
Südwestlich des Westpfeilers ragt ein von Sträuchern überwucherter roter Backstein-Schornstein an einer künstlichen Grotte hervor. Er stammt aus dem Jahr 1887 und wurde während der Bauphase für die Errichtung des Südpfeilers verwendet. Im Zuge der neu gestalteten Einfriedung des Eiffelturms 2018 wurde der gesamte Bereich unterhalb der Pfeiler und teilweise darüber hinaus in einen neuen Garten gestaltet. Auf dem Areal befinden sich Pflanzen und Bäume, die teilweise bereits vor Errichtung des Eiffelturms standen. Zu den ältesten Bäumen gehört eine 20 Meter hohe Platane, die im Jahr 1814 gepflanzt wurde. Die etwa 2000 Hektar große Grünfläche mit etwa 2000 Sträuchern und 20.000 mehrjährigen Pflanzen, wie Farne, Maiglöckchen oder Hortensien wurden neu gepflanzt, um dem Besucher einen Eindruck von der Wendezeit zum 20. Jahrhundert zu vermitteln, welche viele Pariser Gärten zur Zeit der Belle Epoque hatte.
Erste Etage.
Die erste Etage oberhalb der Bögen auf 57,6 Meter Höhe bietet auf einer Nutzfläche von 4415 Quadratmetern Platz für gleichzeitig rund 3000 Besucher. Auf dieser Ebene befinden sich das Restaurant "58 Tour Eiffel", ein Selbstbedienungslokal und der Kinosaal "Cineiffel", der auch als Ausstellungsraum genutzt werden kann. Der Rundumbalkon auf dieser Ebene ist an der Brüstung mit Panoramatafeln ausgestattet, damit die von dort sichtbaren Pariser Sehenswürdigkeiten besser lokalisiert werden können. Es gibt einen Andenkenladen und im Südpfeiler eine kleine, täglich geöffnete Postannahmestelle "(Bureau de Poste Tour Eiffel)", die einen eigenen Poststempel als Erinnerungsbeleg führt. Im ersten Stock bietet sich der 300 Quadratmeter große mietbare "Gustave-Eiffel-Saal" für Tagungen, Konferenzen, Konzerte oder Empfänge an.
Zu Beginn hatte der Eiffelturm auf seiner ersten Etage aufwändig verglaste Säle, die von außen durch bogenförmige Dachkonstruktionen auffielen. Darin befanden sich unter anderem vier Restaurationsbetriebe, die thematisch verschieden ausgestaltet waren. Zwischen dem Nord- und Ostpfeiler war das russische Restaurant angesiedelt, das heute Gustave-Eiffel-Raum heißt. Zwischen dem Süd- und dem Westpfeiler war die angloamerikanische Bar, zwischen dem Ost- und Südpfeiler befand sich das französische Restaurant und zwischen dem Nord- und Westpfeiler war das flämische Restaurant angesiedelt. Letzteres wurde nach der Ausstellung 1889 in ein niederländisches Restaurant umgebaut und nach 1900 als Theatersaal genutzt. Sämtliche dieser Bauten und die historischen Ornamente wurden im Zuge der Weltausstellung 1937 abgebrochen und durch von außen weniger auffällige ersetzt, um sie dem geänderten Geschmack anzupassen.
Entlang eines Frieses auf der ersten Etage sind 72 Namen bedeutender Wissenschaftler und Techniker angebracht, auf jeder Seite 18. Durch einen Neuanstrich des Turms Anfang des 20. Jahrhunderts verschwanden die Namen; in den Jahren 1986 und 1987 wurden sie wieder sichtbar gemacht. Es handelt sich vornehmlich um Ingenieure und Mathematiker, die während der Französischen Revolution und der ersten Hälfte des 19. Jahrhunderts gewirkt haben. Die Auswahl der Namen traf Eiffel selbst; für einige Namen wurde er kritisiert. Er überging bewusst Wissenschaftler mit langen Familiennamen und auch Frauen, die sich in der Wissenschaft verdient gemacht haben, beispielsweise auch die bedeutende französische Mathematikerin Sophie Germain.
Zweite Etage.
Auf 115,7 Metern Höhe befindet sich die zweite Etage mit einer Fläche von 1430 Quadratmetern, die Platz für rund 1600 Besucher gleichzeitig bietet. Bis zur zweiten Etage gelangt man wahlweise über den Fahrstuhl oder eines der in den Pfeilern befindlichen Treppenhäuser; von der Basis bis zur zweiten Etage führen 704 Treppenstufen hinauf. Auf dieser Ebene findet der Umstieg zu den Aufzügen statt, die bis zur Spitze weiter führen.
Hier befindet sich das Restaurant "Jules Verne" mit 95 Sitzplätzen. Es bietet eine gehobene Gastronomie, wurde vom Guide Michelin mit einem Stern ausgezeichnet und erhielt vom Gault-Millau 16 von 20 möglichen Punkten. Das Restaurant mit einer Grundfläche von 500 Quadratmetern liegt leicht erhöht auf dem Südpfeiler auf einer Höhe von 123 Metern und ist über einen separaten Aufzug erreichbar. Seit 2007 steht es unter der Leitung des Kochs Alain Ducasse.
Außerdem gibt es auf dieser Ebene einen Schnellimbiss und einen Andenkenladen. In eigens für die Besucher eingerichteten Schaukästen wird die Geschichte zum Eiffelturm in Wort und Bild nacherzählt.
Dritte Etage und Turmspitze.
Die dritte und oberste Plattform befindet sich auf 276,1 Metern Höhe und hat eine Fläche von 250 Quadratmetern. Diese Etage ist für die Öffentlichkeit ausschließlich über die Aufzüge erreichbar. Es besteht jedoch eine durchgehende Treppe, die beginnend im Ostpfeiler bis zur Spitze 1665 Stufen hat. Sie ersetzte 1983 die ursprüngliche Treppe mit 1710 Stufen und ist leichter und weniger gefährlich. Bis heute (2020) ist die oberste Aussichtsplattform die vierthöchste öffentlich zugängliche Europas; die höchste Aussichtsplattform hat derzeit der Oko Tower 1 in Moskau.
Oberhalb der überdachten Plattform gelangt man über Treppen auf die durch Stahlgitter gesicherte, rund 100 Quadratmeter große Freiluftplattform. Der gesamte Bereich der dritten Etage kann bis zu 400 Personen gleichzeitig aufnehmen. Bei gutem Wetter kann man von hier aus bis 80 Kilometer weit sehen. Tafeln weisen in der entsprechenden Himmelsrichtung auf große Städte in der Welt hin und geben die Luftlinie vom Eiffelturm aus an. Neben einer Champagner-Bar wurde das Arbeitszimmer Eiffels originalgetreu restauriert und mit Wachsfiguren ausstaffiert, welche Eiffel, seine Tochter Claire und den amerikanischen Erfinder Thomas Edison zeigen, wie sie den Phonographen ausprobieren, den Edison für Eiffel als Präsent zur Turmeröffnung mitgebracht hatte.
Oberhalb der Besucherplattform auf einer Höhe von 295 Metern befindet sich für jede Himmelsrichtung je ein Leuchtfeuer. Die Bewegung wird durch eine Software gesteuert und ist so synchronisierbar, dass mit den Leuchtfeuern ein durchgängig drehbares Kreuz simuliert wird. Auf dieser Höhe befinden sich auch mehrere Richtantennen. Darüber sind die Dipolantennen für die Radiofrequenzen angebracht; diese befinden sich auf 291 Meter und 294 Meter. Im unteren Bereich des eigentlichen Antennenmastes, der sich von der ehemaligen Laterne erhebt, sind auf mehreren Etagen in alle Himmelsrichtungen weitere Doppel-Dipolantennen angebracht, die sich auf 299 Meter und 304 Meter befinden. Darüber befinden sich die UHF-Antennen – erkennbar durch die abschirmenden, auffällig weißen Wetterschutzkästen. Die Turmspitze wird bekrönt von weiteren in die vier Himmelsrichtungen weisenden Dipolantennen, meteorologischen Messinstrumenten und einer Wartungsplattform.
An der Spitze des Turms befinden sich über 120 Antennen zur Übertragung von dutzenden Radio- und Fernsehprogrammen (→ Nutzung als Sendeturm). Die Antennenhöhe variierte dabei im Laufe der Jahrzehnte. Seit seiner Eröffnung ist die eigentliche bauliche Struktur 300,51 Meter hoch und erreichte mit der Laterne und dem Fahnenmast an seiner Spitze eine Gesamthöhe von 312,27 Metern. Die Laterne ist durch die zusätzliche Montage von Antennenplattformen nur noch im oberen Drittel durch die gebogenen, zum Antennenmast zusammenlaufenden Fachwerkträger zu erkennen. Mit einer neuen Antenne veränderte sich 1991 die Gesamthöhe auf 317,96 Meter und der Umbau von 1994 an der Turmspitze machte ihn insgesamt 318,70 Meter hoch. Die letzte Veränderung in der Gesamthöhe erfuhr der Turm im Jahr 2000, als er auf die Höhe von 324 Metern anwuchs. Eine weitere Antennenanpassung im März 2022 erhöhte den Eiffelturm um weitere 6 Meter auf 330 Meter.
Aufgrund von Windeinwirkungen schwankte die Turmspitze während eines Sturms 1999 bis zu ca. 13 Zentimeter aus ihrer Ruhelage. Die Ausdehnung des Turms infolge starker Sonneneinstrahlung kann in der Höhe mehrere Zentimeter ausmachen, der bisherige Spitzenwert von 18 Zentimetern wurde im Sommer 1976 erreicht. Eiffels Berechnungen entsprechend könnte sich der Turm sogar um bis zu 70 Zentimeter ausdehnen. Zudem neigt er sich geringfügig zur sonnenabgewandten Seite, da sich die der Sonne zugewandte Seite stärker als die drei anderen ausdehnt. An der Spitze kann sich dieser Effekt zu mehreren Zentimetern summieren.
Technik.
Aufzüge.
Die Auffahrt im Eiffelturm wird von insgesamt neun verschiedenen Aufzügen ermöglicht – fünf in den Turmpfeilern, die zwischen dem Eingang und der zweiten Etage verkehren, und zwei Paar Aufzüge mit Doppelkabinen zwischen der zweiten und dritten Etage.
Zwischen dem Erdgeschoss und der zweiten Etage verkehren teilweise doppelstöckige Schrägaufzüge, die sich dem variablen Neigungswinkel von 54° bis 76° der Turmpfeiler anpassen. Der weitere Aufstieg erfolgt nach einem Umstieg im zweiten Stockwerk über einen Vertikalaufzug. Spezielle Fahrstühle für den Eiffelturm, für den die enorme Höhe wie auch die Neigung der Turmpfeiler charakteristisch sind, stellten für die damalige Zeit eine technische Herausforderung an die Industrie dar, die zu jener Zeit selbst erst seit einigen Jahren bestand, denn der erste Hydraulikaufzug wurde bei der Weltausstellung 1867 präsentiert. Trotz vieler Erneuerungen und Modernisierungen arbeiten die Aufzüge vom Grundprinzip so, wie sie Eiffel zur Erbauung des Turms konzipiert hatte. Der Maschinenraum mit dem Hydraulikantrieb der Aufzüge ist im Rahmen von Sonderführungen im Untergeschoss des Bauwerks zu besichtigen.
Schrägaufzüge in den Turmpfeilern.
Eiffel setzte beim Bau des Turms bewusst auf unterschiedliche Techniken und Hersteller, um bei einem Fehler unabhängig zu bleiben. Im Nord- und Südpfeiler arbeiteten bis 1910 Otis-Aufzüge. Die zweigeschossigen Kabinen wurden mittels Kabelzug emporgezogen. Bis 1897 befanden sich im Ost- und im Westpfeiler Aufzüge von Roux, Combaluzie und Lepape; sie konnten mit Hilfe einer endlosen Doppelkette bis zu 200 Personen befördern. Beide Systeme wurden durch eine hydraulische Förderanlage betrieben. Anlässlich der Weltausstellung 1900 ersetzte Eiffel die Fahrstühle und auch die Dampfmaschinen, welche die Hydraulik antrieben, durch Elektromotoren. Zwei historische Anlagen, 1899 von "Fives-Lilles" im Ost- und Westpfeiler installiert, sind heute noch bei einer Sonderführung zu besichtigen. Die Aufzüge wurden in den Jahren 1986 und 1987 modernisiert und seit den 1990er Jahren mehrfach generalüberholt. Im Jahr 2010 baute man moderne und klimatisierte zweigeschossige Fahrkabinen ein, die jeweils 56 Besucher transportieren können.
Im Südpfeiler befindet sich ein Schrägaufzug von Otis, der seit 1983 ausschließlich für Besucher des Jules-Verne-Restaurants verwendet wird. 1989 wurde dieser Aufzug durch einen vier Tonnen tragenden Lastenaufzug ergänzt. Im Nordpfeiler wurde 1965 ein Schrägaufzug von Jeumont-Schneider eingebaut; er wurde in den 1990er Jahren grundlegend überholt. Die Kapazität des Aufzugs im Nordpfeiler beträgt 920 Personen pro Stunde, der im Ost- und Westpfeiler schafft 650 Personen in der Stunde. Der kleine Aufzug zum Restaurant kann maximal zehn Personen pro Fahrt befördern. Der Warenaufzug im Südpfeiler kann wahlweise 30 Personen oder vier Tonnen Güter pro Fahrt transportieren.
Vertikalaufzüge ab der zweiten Etage.
Die ursprünglichen Vertikalaufzüge für die Passage von der zweiten zur dritten Etage wurden von Léon Edoux, einem Klassenkameraden von Eiffel, gebaut. Die ebenfalls hydraulisch betriebenen Fahrstühle benutzten anstelle eines Gegengewichts zwei gegenläufige Fahrkörbe, die sich gegenseitig im Gleichgewicht hielten. Das Prinzip erforderte, dass die Besucher auf halber Höhe – etwa auf 228 Meter – die Kabinen wechseln mussten. Die eigens dafür als Steg genutzte Zwischenplattform ist heute noch am Turmschaft erkennbar. Da der hydraulische Druck zum Antrieb der Fahrstühle mit Wasser aufgebaut wurde, das in Tanks in den Aussichtsplattformen untergebracht war, konnten in den Wintermonaten die Aufzüge nicht benutzt werden. Diese Aufzüge verkehrten fast 100 Jahre und wurden erst 1983 durch elektrische Fahrstühle der Firma Otis ersetzt. Die insgesamt vier Fahrkörbe verbinden die zweite und dritte Aussichtsplattform direkt miteinander. Diese Anlage kann bis zu 1140 Personen pro Stunde befördern.
Anstrich.
Die Eisenfachwerkkonstruktion des Eiffelturms aus Puddeleisen wird mit mehreren Farbschichten vor Rost und Verwitterung geschützt. Bereits Gustave Eiffel betonte, dass der Anstrich für die Haltbarkeit von großer Bedeutung sei. Die erste Streichung erhielt der Turm bereits zwei Jahre nach seiner Eröffnung und er wurde bisher 19-mal neu angestrichen, zuletzt von März 2009 bis Oktober 2010 zum 120-jährigen Bestehen des Bauwerks. Damit wird der Eiffelturm im Durchschnitt alle sieben Jahre komplett neu lackiert. Die Anstricharbeiten werden von 25 Malern von Hand erledigt und kosten jeweils rund drei Millionen Euro.
Für die Fläche von 250.000 Quadratmetern werden etwa 60 Tonnen Lack – inklusive 10 Tonnen Primer – benötigt, wovon sich rund 45 Tonnen durch Erosion abschmirgeln. Die speziell ausgebildeten Maler werden während der Arbeiten mit rund 60 Kilometern Sicherheitsseilen gesichert. Von der Turmbasis bis zu seiner Spitze wird der verwendete Lack leicht abgetönt, um den Turm vor dem Hintergrund einheitlich gleichfarbig aussehen zu lassen.
Der Eiffelturm wurde farblich mehrfach neu gestaltet. Während zu Beginn der Errichtung des Turms noch ein venezianisches Rot vorherrschte, schwenkte man zur Eröffnung 1889 auf Rotbraun um. Dies wurde bereits 1892 durch Ockerbraun ersetzt. 1899 verwendete man ein in fünf Töne abgestuftes Gelborange und 1907 lackierte man das Wahrzeichen in Gelbbraun. Es folgten Orangengelb und Kastanienbraun, bis man seit 1968 den letzten Wechsel auf einen Bronzebraunton vollzog. Der Farbton „Eiffelturmbraun“ enthält die Farbpigmente Rot, Schwarz und Gelb. Diese werden vom deutschen Spezialchemie-Konzern Lanxess hergestellt und vom norwegischen Lackhersteller Jotun eigens für den Eiffelturm gemischt. Der urheberrechtlich geschützte Speziallack zeichnet sich durch ein hohes Maß an Haltbarkeit und Flexibilität aus und hält das Abplatzen unter Wind und Temperaturschwankungen so gering wie möglich.
Beleuchtung und Lichtkunst.
Generelle Beleuchtung.
Bereits zur Zeit seiner Fertigstellung war der Eiffelturm mit Gaslaternen beleuchtet. An der Turmspitze befanden sich zudem zwei auf Schienen verschiebbare Leuchtprojektoren, die mit einem hellen Leuchtfeuer den Pariser Nachthimmel in die Farben der französischen Trikolore eintauchten. Im Jahr 1900 wich die Gasbeleuchtung einer moderneren elektrischen Lichterkette aus 5000 Glühbirnen, welche die Konturen des Turms nachzeichnete. 1907 brachte man auf der ersten Aussichtsplattform eine sechs Meter hohe Uhr mit leuchtenden Ziffern an. Davor signalisierte man um 12 Uhr mit einem abgefeuerten Kanonenschuss die Mittagszeit.
Vom 4. Juli 1925 an leuchtete am Eiffelturm eine aus 250.000 Glühbirnen bestehende Reklame mit den auf drei Seiten des Eiffelturms vertikal angebrachten Lettern CITROËN. Die von André Citroën entworfene Werbung war damals die größte Leuchtreklame der Welt. 1933 ergänzte Citroën die Reklame um eine Uhr mit 15 Metern Durchmesser und farbigen Zeigern. Die Leuchtschrift des kostspieligen Lichtspektakels konnte bis zu einer Entfernung von 40 Kilometern entziffert werden und wurde 1936 wieder eingestellt.
Zur Weltfachausstellung Paris 1937 hüllte der Architekt André Granet den Eiffelturm in Lichtstrahlen. 1985 installierte der Lichtingenieur Pierre Bideau eine neue Leuchteinheit am Eiffelturm, die zum Jahreswechsel 1986 eingeweiht wurde. Sie besteht aus 352 Natrium-Hochdruckscheinwerfern von je 600 Watt Stärke in Gruppen von vier bis sieben Leuchteinheiten und weist insgesamt eine Leistung von 320 kW auf. Die Anlage strahlt von unten bis zur Spitze und beleuchtet das Bauwerk vom Turminnern, wodurch sie die Struktur besser sichtbar macht. Der jährliche Stromverbrauch beträgt rund 680.000 kWh und sank mit der Neuinstallation um rund 40 %. Eine Glühbirne hat bei dieser Dauerbelastung eine mittlere Lebenserwartung von gut 6000 Stunden. 20.000 Lampen bringen seit dem 21. Juni 2003 von der Dämmerung bis 1 Uhr morgens – in den Sommermonaten bis 2 Uhr morgens – den Turm zu Beginn jeder Stunde für fünf Minuten wie einen Diamanten zum Glitzern.
2015 erfolgte im Rahmen einer energetischen Sanierung des Turmes eine erneute Änderung der Beleuchtung. Die zuvor installierten Lampen wurden durch energiesparende LED-Beleuchtung ausgetauscht. Zudem wurde eine Wärmepumpenheizung, eine Photovoltaikanlage sowie zwei Kleinwindenergieanlagen mit Horizontalrotor eingebaut, um einen Teil des Energiebedarfs des Turms mittels erneuerbarer Energien zu decken.
Am 5. April 1997 – genau 1000 Tage vor Beginn des Jahres 2000 – eröffnete Jean Tiberi als Pariser Bürgermeister einen Countdown auf 100 Metern Höhe am Schaft des Eiffelturms. Auf der Nordwestseite zum Trocadéro leuchteten Tag und Nacht 33 Meter hohe, 12 Meter breite, 50 Tonnen schwere und aus 1342 Projektoren zusammengesetzte Leuchtziffern, welche die verbleibenden Tage bis zum Jahr 2000 anzeigten. Die Neujahrsnacht am 1. Januar 2000 wurde mit einem Feuerwerk am Eiffelturm eingeläutet. Die Countdown-Anzeige wechselte den Schriftzug zu "2000" und leuchtete das ganze Jahr hindurch.
Anlassbezogene Sonderbeleuchtung.
Der Eiffelturm erhält zu bestimmten Anlässen entsprechende Sonderbeleuchtungen. So strahlten im Jahr seines hundertjährigen Bestehens 1989 die Lettern "100 ans" (100 Jahre) vom Turmschaft. Im Zuge des französisch-chinesischen Kulturaustauschprogramms wurde der Turm zwischen dem 24. und 29. Januar 2004 – der Zeit, in der die Chinesen Neujahr feiern – in rotes Licht getaucht. Der Einweihung der Lichtzeremonie wohnten der französische und der chinesische Kulturminister bei sowie die Bürgermeister von Paris und Peking. Das 20-jährige Jubiläum des Europatages am 9. Mai 2006 wurde am Eiffelturm mit blauem Licht gewürdigt. Am 1. Februar 2007 beteiligte sich der Eiffelturm an der Umweltschutzaktion Earth Hour und schaltete an diesem Tag von 19:55 Uhr bis 20:00 Uhr die Beleuchtung vollständig aus, um für das Energiesparen zu werben. Diese Aktion wurde im selben Jahr am 22. Oktober wiederholt. Zur Rugby-Union-Weltmeisterschaft 2007 vom 7. bis zum 20. Oktober wurde der untere Teil des Turms bis zur zweiten Aussichtsplattform in grünem Licht bestrahlt, was die Spielfläche symbolisierte. Zusätzlich wurde der Eiffelturm mit einem überdimensionalen Tor und einem Rugbyball bestrahlt. 2008 wurde von Juli bis Dezember anlässlich der Ratspräsidentschaft Frankreichs der Turm blau beleuchtet und zeigte die zwölf gelben Sterne der Europaflagge.
Nach den Anschlägen vom 13. November 2015 in Paris wie auch dem Anschlag in Nizza am 14. Juli 2016 erstrahlte der Eiffelturm drei Tage lang in den französischen Landesfarben; aufgeteilt jeweils durch die drei Plattformen. Nach dem rechtsradikalen Anschlag in München 2016 leuchtete der Eiffelturm am Folgetag in den deutschen Nationalfarben Schwarz, Rot und Gold, nach den Terroranschlägen in Brüssel am 22. März 2016 in den Farben Belgiens, und von Freitag, dem 25. Februar 2022 bis zum darauf folgenden Sonntag als Zeichen der Solidarität mit der von Russland überfallenen Ukraine in den ukrainischen Farben Blau und Gelb.
Urheberrecht des bestrahlten Eiffelturms.
Da in Frankreich keine Panoramafreiheit gilt, beansprucht die Betreibergesellschaft SETE das Urheberrecht für nächtliche Aufnahmen, in denen der bestrahlte Eiffelturm als Hauptobjekt zu sehen ist, obwohl am Bauwerk selbst keine Urheberrechte mehr bestehen. Sie sieht die Illumination als Kunstwerk für sich an, wobei diese Einstellung umstritten ist und gerichtlich nie bestätigt wurde. Das Gerichtsurteil von 1992, auf das sich gestützt wird, bezieht sich ausschließlich auf eine Lichtshow aus dem Jahr 1989 und nicht die tägliche nächtliche Beleuchtung des Turmes.
Private Bilder ohne kommerzielle Nutzung stellen unabhängig davon generell keinen Verstoß dar. Lediglich bei Bildern mit einer kommerziellen Nutzung ist eine Genehmigung erforderlich, wenn das Bauwerk urheberrechtlich geschützt ist. Detailaufnahmen oder Panoramaaufnahmen, bei denen der Eiffelturm nur als Beiwerk sichtbar ist, können unabhängig vom Zweck genehmigungsfrei veröffentlicht werden. Dies gilt aufgrund des Schutzlandprinzips nicht für die Verbreitung z. B. in Deutschland.
Tourismus.
Einrichtungen für den Publikumsverkehr.
Der Eiffelturm ist grundsätzlich an 365 Tagen im Jahr ohne Ruhetag für die Öffentlichkeit zugänglich. Lediglich bei starken Stürmen kann es zur Schließung oder zu Einschränkungen kommen. Insgesamt sind am oder für das Wahrzeichen mehr als 600 Menschen beschäftigt. Darunter sind 280 Verwaltungsangestellte, die für die SETE arbeiten. Etwa 240 sind in den Restaurationsbetrieben angestellt, 50 im Souvenirverkauf und 50 üben weitere, meist technische Tätigkeiten aus. Im Turm befindet sich eine Poststelle, und ein eigenes Einsatzkommando der Polizei bewacht das Monument. Durch die vergleichsweise hohen Einnahmen bedingt gehört der Eiffelturm zu den wenigen französischen Sehenswürdigkeiten, die ganz ohne staatliche Subventionen auskommen.
Besucherzahlen und -statistik.
Im Jahr seiner Eröffnung bestiegen im Rahmen der Weltausstellung 1889 knapp 1,9 Millionen der insgesamt 32,3 Millionen Ausstellungsbesucher den Eiffelturm. In den folgenden zehn Jahren ebbte die Besucherzahl auf ein Mittel von rund 250.000 ab. Während der Weltausstellung 1900 verbuchte der Eiffelturm trotz deutlich mehr Ausstellungsbesuchern (50,8 Millionen) lediglich eine Besucherzahl von knapp über 1 Million. In den Folgejahren sank die Zahl weiter unter das Niveau der ersten zehn Jahre, bis der Turm während des Ersten Weltkrieges in den Jahren 1915 bis 1918 für die Öffentlichkeit gesperrt wurde. Mit der Wiedereröffnung 1919 stieg die Zahl der jährlichen Besucher auf knapp 480.000. Zwei markante Ausreißer gab es 1931 und 1937 zur Pariser Kolonial- bzw. zur Weltfachausstellung mit jeweils über 800.000 Gästen. Wegen des Zweiten Weltkrieges wurde der Eiffelturm 1940 geschlossen; er eröffnete im Juni 1946 wieder. Bereits Anfang der 1950er Jahre kamen rund 1 Million Besucher; in den folgenden Jahrzehnten kamen immer mehr, darunter auch viele ausländische Touristen. Mitte der 2000er Jahre kamen über 6,5 Millionen Menschen; 2011 und 2014 waren es jeweils gut 7 Millionen. Der Umsatz 2011 erreichte 85,7 Millionen Euro. Mit der gestiegenen Besucherzahl, die an Spitzentagen rund 35.000 erreicht, steigen die Wartezeiten zeitweise auf mehrere Stunden an; eine Überfüllung wurde befürchtet. Einschließlich 2011 waren seit Eröffnung über 260 Millionen Menschen auf dem Eiffelturm. Am 28. September 2017 wurde der 300-millionste Besucher gezählt.
In den 2010er Jahren pendelte sich die jährliche Besucherzahl bei etwa sechs Millionen ein. Lediglich im Jahr 2020 fiel sie aufgrund der weltweiten COVID-19-Pandemie und der damit notwendigen Schließungen vieler öffentlicher Bauwerke auf gut eine Million.
Laut einer statistischen Befragung von 7.989 Besuchern ergab sich 2009 folgendes Profil: Der überwiegende Teil der Besucher kam aus Westeuropa (43 %), dem metropolitanen Frankreich (29 %) und Nordamerika (11 %). Abgesehen von Frankreich waren die stärksten Besucherländer Deutschland mit 8,5 %, das Vereinigte Königreich mit 8,1 %, gefolgt von den Vereinigten Staaten (7,6 %), Spanien (7,3 %), Italien (4,8 %) und Australien (4,1 %). Teilt man das Alter der Besucher in die Kategorien „unter 25“, von „26 bis 35“, von „36 bis 45“ und „darüber“ auf, so nehmen sie jeweils rund ein Viertel ein. Über 56 Jahre waren nur 6,4 %. Der größte Teil der Besucher kam mit ihrer Familie (63,8 %); rund 23 % besuchen den Eiffelturm mit Freunden und 7,8 % in organisierten Reisegruppen. Knapp die Hälfte (46,1 %) kam mit der Metro, 17,3 % kamen zu Fuß, 12 % mit dem eigenen Auto und 7,5 % per Bus. Etwa 46 % der Befragten waren vorher schon einmal auf dem Eiffelturm.
Ereignisse.
Unfälle und Todesfälle.
Die Allgegenwart des Eiffelturms im Pariser Stadtbild verleitete immer wieder Menschen zu wagemutigen Abenteuern oder sportiven Höchstleistungen. Am 13. Juli 1901 entging der brasilianische Flieger Alberto Santos Dumont mit seinem Luftschiff nur knapp einer Kollision, als er das Fluggerät zwischen Saint-Cloud und Champ de Mars manövrierte.
Der Turm inspirierte einige Menschen, mit selbstgebastelten fallschirmähnlichen Konstruktionen einen Sprung vom Eiffelturm zu wagen. Zu den tragischen Figuren gehört der Schneider Franz Reichelt, der sich einen Gehrock mit breitem Cape schneiderte und Sprungfedern daran montierte. Sein angekündigtes Vorhaben lockte zahlreiche Schaulustige an. Nach einigem Zaudern sprang der gebürtige Österreicher Reichelt am 4. Februar 1912 mit seiner flugunfähigen Ausstattung von der ersten Plattform vor den Augen der anwesenden Journalisten und Zuschauer und verunglückte dabei tödlich. Von diesem Ereignis existiert sogar ein historisches Filmdokument.
Der Franzose Marcel Gayet kam 1928 bei einem ähnlichen Versuch durch einen Sprung von der ersten Etage ums Leben. Weitere Versuche mit neuartigen Fallschirmen glückten, was die Macher der James-Bond-Filme zu einer entsprechenden Szene inspirierte. Der damals 23-jährige Flieger Léon Collot verunglückte im November 1926 – nach anderen Quellen am 24. Februar 1926 – bei dem Versuch, mit seinem Leichtflugzeug den Turmbogen an der Basis zu durchfliegen. Er wurde von der Sonne geblendet und verfing sich in einer Radioantenne, die damals noch zwischen Turmspitze und Boden gespannt war.
Das Pariser Wahrzeichen war auch Schauplatz vieler Suizide. Der erste Selbstmord wurde am 15. Juni 1898 gemeldet, als sich eine Frau erhängt hatte. Insgesamt haben sich etwa 400 Menschen am Eiffelturm das Leben genommen.
Sportliche Leistungen und Rekorde.
Der Eiffelturm regte die Menschen immer wieder zu artistischen oder sportlichen Herausforderungen an. Graf Lambert überflog am 18. Oktober 1909 den Turm erfolgreich mit seinem Flugzeug. Daneben war der Turm auch Schauplatz von nicht alltäglichen Leistungen, Spaßrekorden oder sonstigen medial beachteten Aktionen. Bereits 1905 lobte die Zeitung "Le Sport" einen Wettbewerb für die schnellste Besteigung bis zur zweiten Plattform aus. Am Treppenlauf-Wettbewerb am 26. November beteiligten sich 227 Läufer. Der Gewinner Forestier schaffte dies in 3 Minuten 12 Sekunden und erhielt für seine Leistung ein Peugeot-Fahrrad. Zum 75. Geburtstag des Eiffelturms kletterten im Mai 1964 die Bergsteiger Guido Magnone und René Desmaison offiziell genehmigt den Eiffelturm an seiner Außenseite hoch. Das Spektakel wurde über Eurovision gesendet.
Am 4. Juni 1948 stieg ein 85-jähriger Elefant, der aus dem Zirkus "Bouglione" entlaufen war, bis zur ersten Plattform empor. 1983 fuhren Charles Coutard und Joël Descuns mit ihren Motocross-Motorrädern die Treppen im Eiffelturm hinauf und hinunter. Ein Jahr später gelang es Amanda Tucker und Mike MacCarthy, ohne offizielle Erlaubnis mit ihren Fallschirmen von der dritten Plattform abzuspringen. Der Neuseeländer A. J. Hackett wagte 1987 erstmals einen Bungee-Sprung von der zweiten Aussichtsplattform.
Dem Hochseilartisten Philippe Petit glückte 1989 die Überquerung von rund 800 Metern auf einem vom Palais de Chaillot zur zweiten Etage des Eiffelturms gespannten Kabel über die Seine. Petit setzte sich etwa 15 Jahre für die Bewilligung dieses Vorhabens ein. Den etwa einstündigen Lauf verfolgten rund 250.000 Zuschauer.
1995 brach der Triathlet Yves Lossouarn den Rekord für die Turmbesteigung. Bis zur Spitze benötigte er 8 Minuten und 51 Sekunden. In dem vom Fernsehsender "arte" initiierten Sportereignis ging er als Sieger eines Starterfelds von 75 Athleten hervor. Auch Base-Jumper sprangen mehrfach vom Eiffelturm, darunter auch der bekannte Schweizer Ueli Gegenschatz, der am 1. April 2008 von der höchsten Plattform herunter sprang.
Großveranstaltungen und Konzerte.
Neben den vier Weltausstellungen in den Jahren 1889, 1900, 1931 und 1937 wurde der Eiffelturm immer wieder für Konzerte oder andere Großveranstaltungen als Kulisse oder Veranstaltungsort verwendet.
Am 25. September 1962 sang Édith Piaf auf der ersten Etage des Eiffelturms vor 25.000 Zuhörern ihr letztes Konzert. Gleichzeitig wurde die Veranstaltung als Werbeplattform für den Film Der längste Tag genutzt. Die Chansonniers Charles Aznavour und Georges Brassens gaben 1966 ebenfalls am Eiffelturm ein Konzert. Am 14. Juli 1995 hielt Jean-Michel Jarre unter der Schirmherrschaft der UNESCO ein Konzert für mehr Toleranz am Fuße des Eiffelturms ab. Das weltweit übertragene Konzert hatte 1,2 Millionen Zuhörer.
Zum 12. Weltjugendtag 1997 versammelten sich am 21. August rund 300.000 Pilger auf dem Champ de Mars vor dem Eiffelturm, wo der damalige Papst Johannes Paul II. eine Ansprache hielt.
Das Orchestre de Paris und das Boston Symphony Orchestra hielten im Mai 2000 unter der Leitung von Seiji Ozawa ein freies Konzert vor dem Eiffelturm, der zu diesem Anlass extra beleuchtet wurde. Den Konzerten wohnten rund 800.000 Menschen bei. Im selben Jahr gab am 10. Juni Johnny Hallyday vor 600.000 Zuschauern ein Freiluftkonzert, das von einer licht- und pyrotechnischen Show begleitet wurde.
Rezeption und Wirkung.
Rezeption in der Architektur.
Die vom Eiffelturm ausgelöste Turmbauwelle.
Der Bau des Eiffelturms brachte der Stadt einen beträchtlichen Prestigezuwachs und löste eine weltweite Turmbauwelle aus. Viele andere Städte, in der Anfangszeit besonders in der bedeutenden Kolonialmacht des Vereinigten Königreichs Großbritannien, versuchten dem Projekt nachzueifern. Zu den ersten Nachbauten zählt der in den Jahren 1891 bis 1894 erbaute 158,1 Meter hohe Blackpool Tower im englischen Badeort Blackpool. Dieser Turm gilt trotz seiner starken Anleihen beim Eiffelturm architektonisch als gelungen und wurde in den Denkmalschutz mit der höchsten Klassifizierungsstufe (Grade I) in England aufgenommen. Der Turm erwächst aus einem großen, mehrstöckigen Basishaus im viktorianischen Stil und beherbergt eine Reihe von Attraktionen, unter anderem einen renommierten Zirkus. Der Blackpool Tower wurde in den letzten Jahren aufwändig restauriert und gilt nach wie vor als Anziehungspunkt für Touristen in der Region von Nordwest-England. Weniger erfolgreich war der nach einem ähnlichen Konzept errichtete New Brighton Tower (Baubeginn 1896); er musste, weil die Stahlgitterkonstruktion marode geworden war, in den 1920er Jahren abgetragen werden. Auch dieser 172,8 Meter hohe Turm hatte ein Basishaus mit einem vielfältigen Freizeitangebot, unter anderem befand sich dort der größte Ballsaal Großbritanniens. Beide Türme waren nach ihrer Erbauung jeweils die höchsten Bauwerke des Landes.
Auch die britische Hauptstadt London schrieb 1890 ein ehrgeiziges Turmbauprojekt aus. Die Projektvorschläge sahen Türme aus Stahl zwischen 300 und 456 Meter Höhe vor. Ein Jahr später begann der Bau des Watkin’s Tower, der auf 358 Meter und damit rund 50 Meter höher als der Eiffelturm projektiert war. Der Initiator des Vorhabens, Sir Edward Watkin, versuchte ursprünglich Gustave Eiffel selbst als Konstrukteur anzuwerben; der Franzose lehnte jedoch aus patriotischen Gründen ab. Als dem Projekt die finanziellen Mittel ausgingen, so dass nur ein Turmstumpf von 47 Metern übrig blieb, wurde der Turm 1907 abgebrochen. Auch weitere Turmprojekte hatten mäßigen Erfolg. Der Turmbau in Douglas, dem Hauptort der Isle of Man, musste bereits kurz nach dem Einbau der Fundamente im Oktober 1890 wieder beendet werden. Der 70 Meter hohe pyramidenförmige Turm im Seebad in Morecambe, ein Bauwerk, das sich architektonisch allerdings deutlich vom Eiffelturm unterschied, wurde zu Beginn des Ersten Weltkrieges zugunsten der Munitionsproduktion abgerissen. Auch in Deutschland gab es teilweise abenteuerliche Projektvorschläge, den Eiffelturm zu übertrumpfen. So wurde 1913 ein fragwürdiger Entwurf zum "Rheinturm" – heutzutage trägt der Fernsehturm von Düsseldorf den Namen Rheinturm – vorgestellt, einem 500 Meter hoch messenden Stahlfachwerkturm mit stilistisch starker Anlehnung an den Eiffelturm. Das Vorhaben wurde nie umgesetzt.
Formgebender Vorbildcharakter.
Im Januar 1890 war in St. Petersburg eine 60 Meter hohe vergängliche Nachbildung des Eiffelturms aus Eis zu bestaunen. 1891 errichtete man anlässlich der Industrieausstellung in Prag den 60 Meter hohen Aussichtsturm Petřín, der Formen des Eiffelturms aufgriff. Aber auch in Frankreich selbst eiferte man dem Pariser Vorbild nach. Der zwischen 1892 und 1894 errichtete, 85,9 Meter hohe Tour métallique de Fourvière in Lyon gibt die konstruktive Grundform des oberen Teils des Eiffelturms wieder. Der Turm war öffentlich zugänglich und beherbergte auch ein Restaurant. Seit 1953 dient er nur noch als Radio- und Fernsehturm. Mit der Ausbreitung von Funk- und Radiowellen wurden besonders ab den 1920er Jahren weitere Turmbauten notwendig. Auch wenn die Formgebung dieser Bauwerke teilweise wenig Ähnlichkeit mit dem Pariser Turm aufwies, genügte oft die Übereinstimmung von vier Turmfüßen und der konstruktionsbedingten Notwendigkeit einer Verjüngung zur Spitze hin, dass diese Bauwerke im Volksmund mit dem Eiffelturm in Verbindung gebracht wurden oder werden. Beispiele dafür sind der Sender Gleiwitz („Schlesischer Eiffelturm“), der ehemalige Sender Ismaning („Bayerischer Eiffelturm“) oder der Bismarckturm in Wiesbaden („Wiesbadener Eiffelturm“). Auch der Berliner Funkturm aus der Mitte der 1920er Jahre folgt diesem Konstruktionsprinzip.
In den 1950er Jahren wurden in Japan mehrere vom Architekten Naitō Tachū (1886–1970) entworfene Fernseh- und Aussichtstürme erbaut, die ästhetisch zwar technischer ausfallen, sich aber dennoch am Design des Eiffelturms orientieren. Im Jahr 1954 entstand der Fernsehturm Nagoya, 1956 der Fernsehturm Tsutenkaku, 1957 der Fernsehturm Sapporo und 1958 der Tokyo Tower. Besonders der Tokyo Tower, der mit seinen 333 Metern den Eiffelturm sogar um einige Meter überragt, wird häufig im Zusammenhang mit der Nachahmung der baulichen Struktur genannt. Architektonisch wird er wegen seiner Proportionen in der Verjüngung der Stahlgitterstruktur nach oben und den Turmkörben sowie der Wahl der Diagonalverbände als weniger gelungen angesehen.
Eiffelturm-Repliken.
Mit der Etablierung von Fernsehturmbauwerken aus Stahlbeton in vertikaler Kragarmbauweise, begonnen mit dem Stuttgarter Fernsehturm Mitte der 1950er Jahre, nahmen die gestalterischen Ähnlichkeiten der Türme zum Eiffelturm deutlich ab. Dennoch wurde der Eiffelturm in zahlreichen Repliken aufgrund seiner symbolhaften Ausstrahlung immer wieder aufgegriffen. Besonders in Frankreich und den Vereinigten Staaten sind teilweise nur wenige Meter hohe Nachbildungen in Kreisverkehren, als Werbeträger oder in Vorgärten anzutreffen. Vor allem die Freizeitindustrie hat die starke Werbekraft für sich entdeckt und versucht, durch Nachbauten immer wieder Aufmerksamkeit auf sich zu lenken. Zu den bekanntesten Repliken zählt eine 108 Meter hohe Nachbildung in dem Freizeitpark "Window of the World" im chinesischen Shenzhen. Eine weitere, 108 Meter hohe Nachbildung – im Maßstab 1:3 – steht 9275 km vom Original entfernt in Tianducheng, China. Der mit 165 Metern bisher höchste Nachbau steht in Las Vegas. Der Nachbau aus dem Jahr 1999 – über 100 Jahre nach Erbauung des Eiffelturms – am Hotelkomplex des Paris Las Vegas beherbergt auch ein Turmrestaurant und hat wie sein Vorbild besteigbare Aussichtsplattformen. Im selben Maßstab wurde 2016 am Cotei Strip in Macau ein weiterer Nachbau des Eiffelturms verwirklicht.
Darüber hinaus wird der Pariser Eiffelturm in fast allen Miniaturenparks nachgebildet.
Architekturhistorische Bewertung.
Der Eiffelturm wird dem Baustil des Historismus der Gründerzeit, den er selbst einleitete, zugeordnet, wodurch er sich von der klassischen Architektur des 19. Jahrhunderts unterscheidet. Er ist eine wichtige Wegmarke des Funktionalismus, der sich in Europa nur vereinzelt durch Ingenieurbauten wie beispielsweise den Kristallpalast in London manifestierte. Damit stellt der moderne Ingenieurbau die nach der Gotik verloren gegangene Einheit von Konstruktion und Baugestalt wieder her, was dem Eiffelturm eine vergleichbare Position einbringt wie einem historischen Sakralbau. Sein baulicher Ansatz des breit ausgreifenden Fundaments wegen der nach unten zunehmenden Beanspruchung durch Winddruck hat sein Naturvorbild bei den Bäumen, die im Boden mit einem weit verzweigten Wurzelwerk verhaftet sind und deren Stamm sich in der Höhe verjüngt. (→Architektur) Damit nimmt er nicht nur formal, sondern auch technologisch eine Vorreiterrolle ein, da bis zur Errichtung des Stuttgarter Fernsehturms praktisch alle freistehenden Sendetürme aus Stahl- oder Eisenfachwerk nach dem Vorbild Eiffels errichtet wurden. Die architektonisch herausragende Stellung und Bewertung des Eiffelturms beruht nicht nur auf seiner weitreichenden Wirkung, sondern auch darauf, dass er ohne jedes historische Vorbild entstanden ist.
Politische und gesellschaftliche Rezeption.
Viele traditionelle Künstler, denen die Antike Vorbild war, sahen im Eiffelturm eine Vermischung von Kunst und Alltag und lehnten ihn deshalb vehement ab. Insbesondere wandte sich die Kulturwelt des damaligen Frankreich gegen jeden staatlichen Druck, künstlerische und industrielle Arbeitskraft zur Produktverbesserung zusammenzuführen. Der Schriftsteller Charles Baudelaire, der den Eiffelturm jedoch nicht erlebte, drückte es wie folgt aus:
Damit einher ging eine Diskussion über die Radikalisierung des Kunstbegriffs; sie wurde durch die Errichtung des Eiffelturms weiter angeheizt. Der prinzipiell idealisierte Charakter der Kunst war sozial vornehmlich auf die Oberklasse bezogen und nahm mit dem neuen Pariser Wahrzeichen plötzlich auch in der Lebensgestaltung der einfachen Leute eine Rolle ein. Es verband sich die Abneigung gegenüber dem Volksvergnügen mit der Angst vor aufständischem Potential des gemeinen Volkes gegenüber der Oberschicht. Die Pariser Oberklasse hielt sich zum großen Teil vom Turm wie auch von der Massenveranstaltung der Weltausstellung fern. Der Widerwille der Oberschicht gegenüber dem „kleinen Mann“ spiegelt sich auch in der Legende wider, nach der Guy de Maupassant eigens auf den Turm gestiegen sein soll, weil dies der einzige Ort sei, an dem er ihn nicht sehen müsse, obgleich er einer der stärksten Gegner des von Hitze, Staub, und Gestank geprägten Massenbetriebs war. Die republikanische Presse war dem Projekt insgesamt gewogener als die religiös-konservativen Kräfte mit häufig monarchistischen Tendenzen. Bereits die in der Festrede zur Fertigstellung des Eiffelturms unterstrichene kollektive Leistung von Baumeistern auf der einen und Bauausführenden auf der anderen Seite stieß an einigen Stellen auf Ablehnung. Die Nähe zur Arbeiterklasse thematisierte Eiffel sogar selbst, als er sich in einem Plakat mit Maßwerkzeug, aber auch mit Arbeiterkluft zeigte und damit die Verbindung von geistiger und körperlicher Anstrengung verkörperte. Für die alten Eliten war diese Zuwendung zu den Massen eine Bedrohung ihres Führungsanspruchs.
Auch außerhalb Frankreichs wurde die Erbauung des höchsten Turms der Welt rezipiert. Besonders Deutschland, das nach dem Deutsch-Französischen Krieg in einem gespannten Verhältnis zu Frankreich stand, kommentierte die Weltausstellung und den Eiffelturm implizit politisch gefärbt. Dabei wird die ambivalente Beurteilungen zwischen bewundernder Impression und einem gewissen Unwohlsein zum Tenor der Meinungen. Die Deutsche Rundschau charakterisiert den Eiffelturm emphatisch als Maschinenungeheuer. In der mythischen Parallele zum Babel-Turm schwingen neben der Begeisterung für die Bezwingung der Mächte immer auch die Bedenken mit, diese Mächte herausgefordert zu haben. Auch aus der Sicht des Journalisten Eugen von Jagow, der sogar den ätherischen Charakter der transparenten Architektur hervorhebt und sich einer gewissen Faszination nicht entziehen kann, geißelt ebendiese Form als unarchitektonisch, verwirrend und lässt sie letztlich an sich selbst scheitert. Die schiere Höhe, die den Kölner Dom fast um das Doppelte überrage, imponiere ihm, an künstlerischer Größe und Erhabenheit sei ihm das alte Kirchengebäude aber bei weitem überlegen. Seine Schlussfolgerung ist, dass es sich bei dem Turm mehr um einen Triumph der Wissenschaft als der Kunst handelt. In einer insgesamt kunstfeindlichen Zeit sei er das Symbol der Moderne. Gerade diese Gegenüberstellung von quantitativer und qualitativer Größe entspricht der vorherrschenden Argumentationsstrategie, den elitär verstandenen Kunstbegriff von der Massenkultur abzugrenzen. Die Interpretation als Sieg der Massen gegenüber dem Individuum wird zum Teil der Auseinandersetzung mit der Demokratie, die seit Alexis de Tocqueville als Amerikakritik topischen Charakter erhielt.
Rezeption in der Kunst.
Ungeachtet der Kontroverse warf der Eiffelturm bereits vor seiner Errichtung seinen Schatten und inspirierte Jules Verne in dem im August 1886 erschienenen Science-Fiction-Roman "Robur der Sieger", seine Eindrücke von einem Turm am Champ de Mars zu verarbeiten:
Nach seiner Eröffnung gehörten die Dichter zu den ersten, die den Eiffelturm beschrieben. Der Schriftsteller Blaise Cendrars besang den „Turm, Turm der Welt, Turm in Bewegung“. Der chilenische Lyriker Vicente Huidobro beschrieb ihn als „Himmelsgitarre“ („Guitarra del cielo“) und brachte 1918 einen Gedichtband mit dem Titel "Tour Eiffel" heraus. Der auch als Regisseur tätige Schriftsteller Jean Cocteau veröffentlichte das Libretto "Les mariés de la tour Eiffel" (deutsch: Hochzeit auf dem Eiffelturm), das am 18. Juni 1921 als Ballett im Théâtre des Champs-Élysées in Paris aufgeführt wurde. Die absurde, surrealistische Geschichte eines Hochzeitspaares spielt auf dem Eiffelturm, der inmitten der namibischen Wüste steht. Der Lyriker Guillaume Apollinaire verarbeitete seine Erlebnisse des Ersten Weltkrieges mit einem Gedicht in dem Buch "Calligrammes" in Form des Eiffelturms. Die mit einem Willkommensgruß an die Welt beginnende Poesie endet mit gigantischen, französischen Beschimpfungen der Deutschen.
Auch in der Musik wird der Eiffelturm immer wieder verarbeitet. Unter anderem besangen ihn Michel Emer in "Paris, mais c’est la Tour Eiffel", Charles Trenet in "Y’a d’la joie, la Tour Eiffel part en balade", Léo Ferré in "Paris portait sa grande croix", Jacques Dutronc in "La Tour Eiffel a froid aux pieds" und Pascal Obispo in "Je suis tombé pour elle". Der estnische Komponist Arvo Pärt schuf 2009 die ein Jahr später in Paris uraufgeführte symphonische Dichtung "Silhouette – Hommage à Gustave Eiffel" für Streichorchester und Schlagzeug, die die Architektur des Turms in der Struktur der Komposition nachbildet und zugleich durch die Gestaltung der Luftbewegungen, die durch das Gestänge fließen, poetisiert.
Mit dem Eiffelturm setzte sich auch die Malerei intensiv auseinander. Er wurde in fast allen Stilen seit Ende des 19. Jahrhunderts von einer Vielzahl von international bedeutenden bildenden Künstlern gemalt. Das höchste Pariser Wahrzeichen trug gerade durch seinen technischen Charakter zu einer Debatte in der Kunst bei, welche ganz neue Ansätze für architektonische und räumliche Ausdrucksformen fand.
Bereits 1888 – also noch vor seiner Fertigstellung – malte Georges Seurat ein Bild mit dem Werktitel "La Tour Eiffel", das heute in den Fine Arts Museums of San Francisco ausgestellt ist. Zu den berühmtesten Malern, die den Eiffelturm malten, zählen unter anderem Henri Rousseau, Paul Signac, Pierre Bonnard, Maurice Utrillo, Marcel Gromaire, Édouard Vuillard. Raoul Dufy malte 1890 "Seine Grenell", das Bild befindet sich im Privatbesitz. Marc Chagall malte 1913 "Paris Through the Window", wo er das Pariser Stadtbild mit dem beherrschenden Eiffelturm und daneben einen Fallschirmspringer darstellte. Chagall griff 1954 das Motiv des Turmes ein weiteres Mal in "Champ-de-Mars" auf.
Robert Delaunay erstellte von 1909 bis in die späten 1920er Jahre sogar eine ganze Bilderserie, in der er den Turm aus vielen Perspektiven kubistisch darstellte. Zu den bekanntesten der über ein Dutzend gemalten Bilder zählt "The Red Tower" aus dem Jahr 1911, das sich im Solomon R. Guggenheim Museum befindet, und " La ville de Paris" von 1910/12, das im Centre Georges-Pompidou hängt. Delaunay nutzte die Architektur und Lichtwirkung des Bauwerks, um den Zusammenklang und das Wechselspiel der Farben zu untersuchen.
Auch zeitgenössische Maler greifen den Eiffelturm als Motiv immer wieder auf.
Rezeption im Film.
Aufgrund seiner Bedeutung und Bekanntheit zieht der Eiffelturm immer wieder in Filme ein. In fast allen Filmen mit dem Handlungsort Paris ist er Erkennungsmerkmal der städtischen Skyline. Darüber hinaus war er auch oft selbst Schauplatz von filmischen Handlungen. Die Filmgenres, in denen er thematisiert wurde, reichen vom reinen Dokumentarfilm bis hin zu Kriminalfilmen, romantischen Liebeskomödien und zu Action-, Science-Fiction- und Katastrophenfilmen. Die vielfältige Einbeziehung des Eiffelturms erklärt sich zum einen aus seinem starken Symbolcharakter, zum anderen deswegen, weil Turm und Kino im selben zeitlichen Abschnitt (→ Filmgeschichte) entstanden.
Zu den ersten Filmen überhaupt gehört das dokumentarisch ausgeführte "Panorama pendant l’ascension de la tour Eiffel" der Brüder Lumière aus dem Jahr 1897, in dem die Turmauffahrt gezeigt wird, sowie "Images de l’exposition 1900" von Georges Méliès. Der erste Science-Fiction-Stummfilm, bei dem der Eiffelturm als Objekt einbezogen wurde, war "Paris schläft" von Regisseur René Clair aus dem Jahr 1925. Er wird aufgrund seiner irrealen Atmosphäre den Avantgardefilmen zugeordnet. Dabei erwacht ein Mann auf dem Eiffelturm nach dem Experiment eines verrückten Wissenschaftlers, findet Paris als Geisterstadt vor und sucht mit wenigen ebenfalls verschont gebliebenen Menschen nach einem Ausweg. 1928 thematisierte Clair in "La Tour" die Architektur und Strenge der Konstruktion des Eiffelturms.
In der Liebeskomödie "Ninotschka" von 1939 verfolgt Graf Leon, gespielt von Melvyn Douglas, die ihm noch unbekannte Ninotschka, dargestellt von Greta Garbo, auf einem Spaziergang zum Eiffelturm, den sie besichtigen will. Dort treffen sich die beiden, und Leon erklärt Ninotschka detailreich die Vorzüge der Eisenkonstruktion. Im Thriller "Der Mann vom Eiffelturm" aus dem Jahr 1949 ist der Turm zentraler Handlungsort und erscheint im Filmtitel und im Plakat. Der Regisseur Burgess Meredith spielt in seinem Film selbst mit. Gegen Ende des Films kommt es zu einer spektakulären Kletterpartie auf den Eisenstreben des Wahrzeichens.
Kurze Einblendungen des Eiffelturms – meist um auf die Stadt Paris hinzuweisen – gab es beispielsweise in den Filmen "Casablanca", "Die Brücke am Kwai", "Das Glück kam über Nacht " oder in "Sie küßten und sie schlugen ihn". Im Truffaut-Krimi "Auf Liebe und Tod" schlägt Fanny Ardant als Barbara Becker mit einer eisernen Eiffelturm-Nachbildung einen Priester nieder. Die Szene wird auch im ursprünglichen Filmplakat thematisiert. In der Agentenfilmparodie "Der große Blonde mit dem schwarzen Schuh" wird die Spitze des Eiffelturms als Agentenhauptquartier benutzt. Im Agentenfilm "James Bond 007 – Im Angesicht des Todes" von 1985 findet eine spektakuläre Verfolgung statt, die mit einem Fallschirmsprung vom Bauwerk endet. Zu Beginn der Horrorkomödie "American Werewolf in Paris" von 1997 springt eine junge Frau, verkörpert von Schauspielerin Julie Delpy, mit der Absicht, sich das Leben zu nehmen, nachts vom Eiffelturm in die Tiefe, wird jedoch von einem jungen Mann, dargestellt von Schauspieler Tom Everett Scott, mithilfe eines Bungeejumpingseils aufgefangen.
In Endzeitfilmen wurde der Eiffelturm häufig zur Steigerung der emotionalen Wirkung zerstört oder als Ruine dargestellt. Dies geschieht beispielsweise in der H.-G.-Wells-Literaturverfilmung "Kampf der Welten" von 1953, im US-amerikanischen Film "Independence Day" von 1996, in der Science-Fiction-Persiflage "Mars Attacks!" von 1996 und im Katastrophenfilm "Armageddon – Das jüngste Gericht" von 1998. Im Actionfilm "G.I. Joe – Geheimauftrag Cobra" wird der Eiffelturm zum Angriffsziel eines kriminellen Sprengkommandos. Im Science-Fiction-Film "A World Beyond" mit Schauspieler George Clooney von 2015 teilt sich der Eiffelturm in zwei Hälften und fährt unter sich aus dem sich öffnenden Fundament eine Rakete nach oben, um diese mit einem Wissenschaftler, einem Roboter-Mädchen und einer jungen Frau an Bord ins Weltall zu schießen.
Der Eiffelturm und seine Geschichte waren auch mehrmals Gegenstand von Dokufiktion-Verfilmungen (→ Filme über den Eiffelturm).
Bedeutung und Würdigung als nationales Symbol.
Hohe Türme haben nicht nur aufgrund der biblischen Vorlage des Turmbaus zu Babel einen kulturellen Hintergrund, sondern gelten auch als Sinnbild für die Überwindung der Schwerkraft, als Zeichen der Herrschaft über den Raum und damit auch oft über die Menschen im Umkreis. In diesem Kontext ist der ursprüngliche Widerstand gegen den Eiffelturm als ein besonders herausragendes Beispiel der beherrschenden Macht von technischen Türmen wie Hochöfen, Fördertürme, Gasometern, Silos oder Industrieschornsteinen, die im 19. Jahrhundert entstanden, zu sehen. Andererseits erfüllte Eiffel mit der Errichtung seines Turms anscheinend einen Menschheitstraum, nachdem rund 100 Jahre zuvor von Montgolfière bereits der Traum vom Fliegen verwirklicht worden war.
Der Eiffelturm hatte über die architektonische Leistung hinaus eine starke Bedeutung für das französische Nationalbewusstsein. Das Bauwerk präsentiert sich als historische Erinnerung an die Französische Revolution und unterstreicht die aufstrebende Wirtschaftsmacht Frankreichs im ausgehenden 19. Jahrhundert. Der Stolz auf diese Vergangenheit und die Emanzipation von der Monarchie prägte den Geist der Weltausstellungen, die 1867 und 1878 in Paris stattgefunden hatten. Dieses offene Bekenntnis zu demokratischen Idealen und damit zur antimonarchischen Haltung stand der weltweiten Akzeptanz des Ausstellungsprojektes im Wege, besonders bei monarchisch geprägten Staaten. Im historischen Kontext hat der Eiffelturm damit die Funktion eines Revolutionsdenkmals. Eugène-Melchior de Vogue sah ihn gar als neue Kirche der innerweltlichen Vollendung. Damit verkörpert der Eiffelturm den Triumph der Französischen Revolution, die Dritte Französische Republik und das Industrielle Zeitalter. Für die breite Öffentlichkeit hatte der Turm große Anziehungskraft; vor allem die einfachen Leute aus den Provinzen Frankreichs wollten sich das Wunderwerk unbedingt ansehen. Der Eiffelturm war aber auch ein Treffpunkt für die unterschiedlichen gesellschaftlichen Schichten, die zu jener Zeit im öffentlichen Leben strikt getrennt waren. Aus diesem Grund trug das Bauwerk dazu bei, dass ganz in der republikanischen Gesinnung die Trennungslinie zwischen den Klassen verwischt wurde.
Damit positioniert sich der Eiffelturm als eine moderne Form der Festarchitektur und als Medium, das auf gewaltlose Weise das französische Volk auf republikanische Werte einschwor. Weil er Frankreichs Stärke und Macht so nachhaltig repräsentiert, wird der Eiffelturm, der den Spitznamen "la dame de fer" (deutsch: die eiserne Dame) erhielt, wie nur wenige andere Bauwerke unmittelbar mit Frankreich in Verbindung gebracht. Bereits 1987 gaben 25 % der Franzosen bei einer Umfrage, welches historische Bauwerk ihr Land am besten repräsentiere, den Eiffelturm an, deutlich vor dem Schloss Versailles mit 17 %, dem Triumphbogen und dem Place de la Bastille mit jeweils 13 %. Der französische Philosoph Roland Barthes leitet die weltweite Allgegenwart des Turmes aus seiner Zeichenhaftigkeit her und schreibt:
Der Eiffelturm auf Briefmarken und Zahlungsmitteln.
Auf der 200-Franc-Banknote war der Eiffelturm bis zur Euroeinführung auf der Vorder- und Rückseite als stilisierte Silhouette zu sehen. Während auf der Vorderseite das Porträt Gustave Eiffels zu sehen war, war auf der Rückseite zusätzlich zur Silhouette ein Blick durch die Turmbasis der vier Pfeiler dargestellt. Zum 100-jährigen Bestehen des Eiffelturms brachte 1989 die Banque de France in einer Auflage von 800.000 Stück eine 5-Franc-Gedenkmünze aus Silber heraus. Anlässlich des 125. Jahrestages der Einweihung des Eiffelturms erscheint in Frankreich am 3. März 2014 eine 50-Euro-Goldmünze in einer limitierten Auflage von 1000 Exemplaren. Die Münze zeigt auf ihrer Vorderseite das Logo der UNESCO und einen Stadtplanausschnitt, auf welchem sich der Eiffelturm befindet. Die Rückseite thematisiert die Stahlstrebenkonstruktion durch eine stilisierte und detaillierte Ansicht.
Die französische Post hielt sich zu Beginn mit einer Würdigung des Bauwerks auf einer Briefmarke zurück. Das erste Postwertzeichen Frankreichs mit dem Eiffelturm als Hauptmotiv erschien im Jahr des 40-jährigen Bestehens am 5. Mai 1939 (Yvert et Tellier Nr. 429) mit einer Auflage von 1.140.000 Stück. Der Turm wird auf der roséfarbenen Briefmarke mit Frankatur 90c+50c im 45-Grad-Winkel dargestellt. Allerdings erschien bereits 1936 eine Serie mit einem Postflugzeug über dem Himmel von Paris, in der man zur Silhouette der Stadt dazugehörig im Hintergrund den Eiffelturm sah. Zum Hauptmotiv wurde er wieder 1989 zu seinem 100-jährigen Bestehen sowie 2009 und 2010. Zu einigen Kongressen und Veranstaltungen, die in Paris stattfanden, wurde der Eiffelturm in den vergangenen Jahrzehnten immer wieder als Symbol auf Briefmarken verwendet. Beispielsweise kam zu den Weltmeisterschaften im Gewichtheben 2011 in Paris eine große Blockausgabe heraus, in welcher der Eiffelturm grafisch als Gewichtheber dargestellt eine Hantel hebt, dessen beide Hantelscheiben je eine runde Briefmarke zum Nennwert 60 bzw. 89 Cent haben. Insgesamt trugen bis 2011 weit über 30 französische Briefmarken den Eiffelturm als Motiv.
Kommerzialisierung, Vermarktung und Werbung.
Die werbetechnische Vermarktung des Eiffelturms begann bereits vor seiner Fertigstellung. Gustave Eiffel organisierte in regelmäßigen Abständen entsprechende Maßnahmen – nicht zuletzt um ein Gegengewicht zu den immer wieder laut werdenden Proteststimmen zu schaffen. Schon im Frühjahr 1886 wurden Artikel, Broschüren und verschiedene Abbildungen produziert und verbreitet. Das machte den Turm bereits vor seiner Eröffnung weltberühmt. Das Ausmaß bewog den Journalisten und Dramaturgen Henry Buguet (1845–1920) bereits am 13. September 1888 in "Le Soir" zu folgender entrüsteten Frage:
Die massenweise Herstellung von Eiffelturm-Souvenirs setzte bereits mit Eröffnung des Wahrzeichens ein. Bereits damals kannte die Formenvielfalt kaum Grenzen. Dies wurde auch von der heutigen Betreibergesellschaft fortgesetzt. Neben Bastelbögen, Anhängern, Kerzen, Schneekugeln, Geschirr oder Lampenfüßen werden zahllose Turmmodelle aus unterschiedlichen Materialien feilgeboten. Im Eiffelturm gibt es insgesamt acht offizielle Souvenirläden auf den ersten beiden Ebenen verteilt und im Erdgeschoss am Turmfuß; sie führen über 700 verschiedene Produkte. Nach Angaben des Betreibers kaufen jährlich über eine Million Besucher in den Läden ein. Die Nachfrage an Eiffelturm-Reproduktionen wird auch von zahlreichen fliegenden Schwarzmarkthändlern rund um den Turm zu befriedigen versucht.
Nachdem bereits in den 1920er und 1930er Jahren die Automarke Citroën durch eine auffällige Leuchtreklame am Eiffelturm auf sich aufmerksam gemacht hatte, nutzten viele namhafte französische Marken das berühmte Wahrzeichen für ihre Werbezwecke, darunter Air France, La Samaritaine, Yves Saint Laurent, Jean Paul Gaultier, Nina Ricci, Alain Afflelou oder Campari. Der Eiffelturm bediente schon früh die universelle Idee vom materiellen und sozialen Fortschritt und erfülle damit gleichsam einen „julesvernesken“ Traum über die Natur im Sinne des Aufklärungsjahrhunderts, so Architekturhistoriker Bertrand Lemoine. Das erkläre den Erfolg als Werbeträger, der auch für Modernität und Ehrgeiz stehe. Dabei scheint die Wirkungskraft des Eiffelturms bis heute ungebrochen, denn auch zeitgenössische Werbung nimmt nach wie vor Bezug auf das Bauwerk, wie in den 2000er Jahren in einem Werbespot von IBM. Viele Werbemotive mit dem Eiffelturm haben die Gemeinsamkeit, dass sie entweder auf einen außergewöhnlichen Erfolg hinweisen oder die Stadt Paris beziehungsweise das Land Frankreich hervorgehoben wird. Sowohl für den Erfolg im Allgemeinen wie für Frankreich steht der Eiffelturm als Sinnbild. Beispielsweise zeigte 1952 die Air France in einem Werbeplakat alle bedeutsamen Pariser Bauten vereint in den dominierenden Umrissen des Eiffelturms, dahinter ist eine stilisierte Landmasse zu sehen, die für das gesamte Land steht. Das vom französischen Grafiker Bernard Villemot (1911–1989) entworfene Plakat ist inzwischen zu einem Klassiker geworden und wird heute noch als Reproduktion angeboten. Im Jahr 2023 griff erneut die Fluggesellschaft Air France den Eiffelturm als sehr prominenten Part in einem Werbeclip auf. Eine elegant gekleidete Frau mit endlos langer roter Schleppe steigt dabei den Eiffelturm bis zur Spitze hoch, von wo aus sie ihre Schleppe in den Wind wirft und diese flaggenähnlich die Spitze des Turms ziert und sich in das Logo der Fluggesellschaft verwandelt. Der Werbefilm wird vom Lied Les moulins de mon cœur, gesungen von Juliette Armanet, untermalt.
Verschiedene Spielwarenhersteller wie MB/Hasbro oder Ravensburger haben von der berühmten Pariser Sehenswürdigkeit ein 3D-Puzzle herausgebracht. Lego stellte aus 3428 Teilen einen Bausatz des Eiffelturms im Maßstab 1:300 her. Das aufgebaute Modell aus dem Jahr 2007 hat eine Höhe von 1,08 Metern und ist mittlerweile eine begehrte Rarität. Von einer koreanischen Firma wird der Turm auch als Modellbausatz im Maßstab 1:160 angeboten. Das rund zwei Meter hohe Bronzemodell wiegt etwa 25 Kilogramm. Darüber hinaus gibt es von verschiedenen anderen Herstellern auch Modelle aus Papier, Holz oder Streichhölzern aber auch Poster, Bilder und Wandtattoos.
Bereits die Olympischen Sommerspiele 1900 in Paris warben im offiziellen Plakat mit dem Eiffelturm zur Veranstaltung. Der 1969 gegründete französische Fußballverein Paris FC führt als Emblem den Eiffelturm; er wurde im Laufe der Jahre immer wieder abgewandelt. Das aktuelle Logo zeigt den Turm in stilisierten Pinselstrichen. Auch der 1970 gegründete Fußballverein Paris Saint-Germain führt im Emblem den Eiffelturm. In den Niederlanden hatte sich sogar eine in der 1. Basketballliga spielende Mannschaft (2005–2013) nach dem Eiffelturm benannt. Die in ’s-Hertogenbosch ansässigen "EiffelTowers Den Bosch", die seit 2019 Heroes Den Bosch heißt, trugen ebenfalls den Pariser Turm in ihrem Logo.
Eiffels Nachlass.
Zu den umfassendsten technischen Darstellungen des Eiffelturms gehört die am 1. Juni 1900 erschienene Publikation von Gustave Eiffel selbst. Der aufwändig auf Velinpapier gedruckte Großfolio-Band in zwei Ausgaben mit dem Titel "La tour de trois cents mètres" (deutsch: "Der 300-Meter-Turm") ist in acht Teile gegliedert und präsentiert das Bauwerk in rund 4300 Plänen, Zeichnungen und doppelseitig erstellten Tafeln sowie zeitgenössischen Fotografien. Die Pläne sind generell im Maßstab 1:200 abgedruckt, kleinere Details werden im Maßstab 1:50, 1:20 oder 1:10 wiedergegeben. Alle Bauteile sind mit Größenangaben versehen und der Text behandelt präzise die Ursprünge, das Bauprinzip, die Kosten, die Ausführung der Arbeiten an den Fundamenten und der Metallkonstruktion sowie die Erneuerungsarbeiten für die Weltausstellung 1900. Sogar dem Aufstellen der Gerüste widmet Eiffel ein eigenes Kapitel. Diese sehr umfassende Darstellung spiegelt den enzyklopädischen Geist in der Tradition der Aufklärung wider. Neben den technisch-ingenieurwissenschaftlichen Aspekten galt es auch als Würdigung an alle Mitarbeiter. Alle 326 Ingenieure, Vorarbeiter und Arbeiter, die an Entwurf und der Erbauung des Eiffelturms beteiligt waren, werden am Anfang des Buches namentlich erwähnt. Gleichzeitig diente das monumentale Buch nicht nur als Bestandsaufnahme, sondern auch als Bilanz, Geschenk und Werbemittel, in welchem Eiffel seine Leistung für die Nachwelt erhalten wollte.
Für den Erbauer selbst symbolisierte der Turm das „Jahrhundert der Industrie und der Wissenschaft“, das seiner Ansicht nach besonders in der nachrevolutionären Zeit Frankreichs begann. Aus diesem Grund ließ er zur Erinnerung die Namen von 72 Wissenschaftlern an das Tragwerk des Turms anbringen. Gleichzeitig nutzte er alle bis dahin verfügbaren technischen Mittel wie beispielsweise die elektrische Beleuchtung und die Aufzugtechnik, um im Bauwerk die industriell-wissenschaftlichen Errungenschaften zu vereinen.
Frequenzen und Programme.
Der Eiffelturm ist der höchste Fernsehturm Frankreichs und gleichzeitig wichtigster Sender für terrestrische Übertragung in der Region Paris, vor allem für UKW-Rundfunkprogramme sowie digitales Fernsehen. Der Turm ist Träger für über 120 Sendeantennen. Die Übertragungsinfrastruktur wird von TDF betrieben. Derzeit (2013) strahlt der Eiffelturm über 30 Radio- und 45 Fernsehprogramme aus.
Vor dem Zweiten Weltkrieg wurden vom Eiffelturm Radioprogramme im Lang- und Mittelwellenbereich abgestrahlt. So erfolgte von 1922 bis 1926 die Ausstrahlung auf einer Frequenz von ungefähr 115 kHz – unterhalb des heutigen Rundfunk-Langwellenbereichs, von 1929 bis 1934 auf 207,4 kHz – im heutigen Langwellenbereich – und von 1934 bis 1940 auf 1455,3 kHz – im oberen Mittelwellenbereich.
Analoges Fernsehen (SECAM).
Vor der Umstellung auf DVB-T diente der Sendestandort weiterhin für analoges Fernsehen (→ SECAM): |
1330 | 26618 | https://de.wikipedia.org/wiki?curid=1330 | Entropiekodierung | Die Entropiekodierung ist eine Methode zur verlustfreien Datenkompression, die einen aus einzelnen Zeichen bestehenden Text in eine Bitfolge umwandelt. Typische Vertreter sind die Huffman-Kodierung und die arithmetische Kodierung.
Im Gegensatz dazu stehen Stringersatzverfahren, die eine Folge von Zeichen des Originaltextes durch eine Folge von Zeichen eines anderen Alphabets ersetzen.
Da eine bestimmte Mindestanzahl von Bits notwendig ist, um alle Zeichen voneinander zu unterscheiden, kann die Anzahl der Bits, die den Zeichen zugeordnet werden, nicht unbegrenzt klein werden. Die optimale Anzahl von Bits, die einem Zeichen mit einer gegebenen Wahrscheinlichkeit zugeordnet werden sollte, wird durch die Entropie bestimmt.
Entropiekodierer werden häufig mit anderen Kodierern kombiniert. Dabei dienen vorgeschaltete Verfahren dazu, die Entropie der Daten zu verringern. Häufig sind dies Prädiktionsverfahren, Verfahren wie die Burrows-Wheeler-Transformation, aber oft auch andere Komprimierer. LHarc zum Beispiel verwendet einen LZ-Kodierer und gibt die von diesem Kodierer ausgegebenen Zeichen an einen Huffman-Kodierer weiter. Auch Deflate und Bzip besitzen als letzte Stufe einen Entropiekodierer.
Kodierung.
Die Entropiekodierung bestimmt zunächst die Häufigkeit von Symbolen (Zeichen). Jedes Symbol wird durch ein bestimmtes Bitmuster dargestellt. Dabei sollen häufige Symbole durch kurze Bitmuster dargestellt werden, um die Gesamtzahl der benötigten Bits zu minimieren.
Mathematische Algorithmen zur Abschätzung der optimalen Länge des Codes eines jeden Symbols führen meist zu nicht ganzzahligen Ergebnissen. Bei der Anwendung müssen die Längen auf ganzzahlige Werte gerundet werden, wodurch man einen Teil der Verdichtung verliert.
Mit ganzen Bits.
Die Shannon-Fano-Kodierung schlägt eine Möglichkeit vor, die die Anzahl der Bits auf ganze Zahlen rundet. Dieser Algorithmus liefert aber in bestimmten Fällen nicht die optimale Lösung. Deshalb wurde der Huffman-Code entwickelt, der beweisbar immer eine der optimalen Lösungen mit ganzen Bits liefert. Beide Algorithmen erzeugen einen präfixfreien Code variabler Länge, indem ein binärer Baum konstruiert wird. In diesem Baum stehen die „Blätter“ für die zu kodierenden Symbole und die inneren Knoten für die abzulegenden Bits.
Neben diesen Verfahren, die individuelle Tabellen speziell angepasst auf die zu kodierenden Daten erstellen, gibt es auch Varianten, die feste Codetabellen verwenden. Der Golomb-Code kann zum Beispiel bei Daten verwendet werden, bei denen die Häufigkeitsverteilung bestimmten Regeln unterliegt. Diese Codes haben Parameter, um ihn auf die exakten Parameter der Verteilung der Häufigkeiten anzupassen.
Verbesserung.
Diese Verfahren treffen aber die von der Entropie vorgeschriebene Anzahl von Bits nur in Ausnahmefällen. Das führt zu einer nicht optimalen Kompression.
Ein Beispiel: Eine Zeichenkette mit nur 2 verschiedenen Symbolen soll komprimiert werden. Das eine Zeichen hat eine Wahrscheinlichkeit von formula_1, das andere von formula_2. Die Verfahren von Shannon und Huffman führen dazu, dass beide Zeichen mit je einem Bit abgespeichert werden. Das führt zu einer Ausgabe, die so viele Bits enthält wie die Eingabe an Zeichen.
Ein optimaler Entropie-Kodierer würde aber nur formula_3 Bits für das Zeichen A verwenden und dafür formula_4 Bits für B. Das führt zu einer Ausgabe, die nur formula_5 Bits pro Zeichen enthält (maximale Entropie), also fast 20 % Ersparnis.
Mit einem arithmetischen Kodierer kann man sich der optimalen Codierung weiter annähern. Dieses Verfahren sorgt implizit für eine gleichmäßigere Verteilung der Bits auf die zu codierenden Zeichen, ohne dass explizit für jedes Zeichen ein individuelles Codezeichen konstruiert wird. Aber auch mit diesem Verfahren kann im Allgemeinen nicht die maximale Entropie erreicht werden. Dies liegt daran, dass es weiterhin einen „Verschnitt“ gibt, der darauf beruht, dass nur ganzzahlige Bitwerte tatsächlich auftreten können, während die Entropie meist Bruchteile von Bits erfordert. Im oben genannten Beispiel erreicht auch der Arithmetische Codierer nur eine Codelänge von einem Bit. Der Verschnitt verschwindet allerdings im Allgemeinen mit zunehmender Länge der zu codierenden Daten, so dass im Grenzwert die Entropie maximiert werden kann.
Modell.
Um die Anzahl der Bits für jedes Zeichen festlegen zu können, muss man zu jedem Zeitpunkt des Kodierungsprozesses möglichst genaue Angaben über die Wahrscheinlichkeit der einzelnen Zeichen machen. Diese Aufgabe hat das Modell. Je besser das Modell die Wahrscheinlichkeiten vorhersagt, desto besser die Kompression. Das Modell muss beim Komprimieren und Dekomprimieren genau die gleichen Werte liefern. Im Laufe der Zeit wurden verschiedene Modelle entwickelt.
Statisches Modell.
Das Statische Modell nimmt an, dass jedes Zeichen für sich genommen eine bestimmte Auftrittswahrscheinlichkeit hat, die sich innerhalb der Zeichenfolge nicht ändert. Vor dem eigentlichen Kodieren werden die Auftrittswahrscheinlichkeiten der einzelnen Zeichen in der gesamten Zeichenfolge bestimmt und ergeben eine Wahrscheinlichkeitstabelle. Die Auftrittswahrscheinlichkeiten werden anschließend zur Kodierung der gesamten Zeichenfolge verwendet.
Vorteile:
Nachteile:
Dynamisches Modell.
In diesem Modell verändern sich die Wahrscheinlichkeiten im Laufe des Kodierungsprozesses. Dabei gibt es mehrere Möglichkeiten:
Vorteile:
Nachteile:
Normalerweise arbeitet man bei dynamischen Modellen nicht mit Wahrscheinlichkeiten, sondern mit den Häufigkeiten der Zeichen.
Dynamische Modelle lassen auch noch andere Variationsmöglichkeiten zu.
Man kann Statistik-Daten altern, indem man von Zeit zu Zeit die Häufigkeiten der Zeichen halbiert. Damit verringert man den Einfluss von weit zurückliegenden Zeichen.
Für noch nie vorgekommene Zeichen gibt es mehrere Varianten:
Level des Modells.
Das Level eines Modells bezieht sich darauf, wie viele Zeichen der Historie vom Modell für die Berechnung der Wahrscheinlichkeiten herangezogen werden. Ein Level-0-Modell betrachtet keine Historie und gibt die Wahrscheinlichkeiten global an. Ein Level-1-Modell dagegen betrachtet das Vorgängerzeichen und trifft in Abhängigkeit von diesem Zeichen seine Aussage über die Wahrscheinlichkeit. (Soll deutscher Text kodiert werden, ist zum Beispiel die Wahrscheinlichkeit des Buchstabens „U“ nach einem „Q“ viel höher, oder die Wahrscheinlichkeit eines Großbuchstabens in der Mitte eines Wortes viel kleiner als nach einem Leerzeichen). Das Level kann theoretisch beliebig hoch sein, erfordert dann aber enormen Speicherplatz und große Datenmengen, um aussagekräftige Statistiken zu erhalten.
PPM-Algorithmen verwenden einen arithmetischen Kodierer mit einem dynamischen Modell des Levels 5. |
1331 | 2458679 | https://de.wikipedia.org/wiki?curid=1331 | Engerling | Als Engerling (aus mittel- bzw. althochdeutsch "engerlinc"/"engerinc" bzw. "engiring" = kleiner Wurm, Made), manchmal auch Emmerling, bezeichnet man die Käferlarven der Überfamilie Scarabaeoidea. Dazu gehören als bekannteste Käferarten nicht nur die Mai- und Junikäfer, sondern u. a. auch die Gartenlaubkäfer, Rosenkäfer und Nashornkäfer.
Nützlinge, gesetzlicher Schutz.
Während die Larven von Mai-, Juni- und Gartenlaubkäfer als Schädlinge gelten, sind die Larven der Rosen- und Nashornkäfer Nützlinge, die sehr wertvoll in Komposthaufen sind.
In Deutschland sind sie gemäß Bundesartenschutzverordnung „besonders geschützte“ Arten. Nach Bundesnaturschutzgesetz ist es danach verboten, „sie zu fangen, zu verletzen oder zu töten oder ihre Entwicklungsformen aus der Natur zu entnehmen, zu beschädigen oder zu zerstören“. Außerdem dürfen ihre „Fortpflanzungs- oder Ruhestätten“ nicht beschädigt oder zerstört werden; es ist außerdem verboten, sie zu kaufen, zu verkaufen oder in Besitz zu nehmen.
Bekämpfung.
Zur biologischen Bekämpfung der Engerlinge des Mai-, Juni- und Gartenlaubkäfers können z. B. Pilze wie Beauveria und Metarhizium eingesetzt werden.
Unterscheidung.
Mai- und Junikäfer-Larven sind vorn und hinten etwa gleich dick, am Kopf haben sie sehr lange, kräftige Beine mit deutlich ausgebildeten „Knicken“. Sie erreichen eine Länge von 5–7 cm und sind im Kompost praktisch nie zu finden.
Maikäfer-Engerlinge schlüpfen nach vier bis sechs Wochen aus dem Ei und werden fünf bis sechs Zentimeter lang. Der Körper ist eher weißlich, wohingegen der Kopf braun ist. Sie leben je nach Art zwischen zwei und vier Jahre in der Erde. Zunächst ernähren sie sich von Humus, dann von zarten Gras- und Krautwurzeln (z. B. Löwenzahnwurzeln) und später auch von Baumwurzeln. Der Wurzelfraß kann im Extremfall zum Absterben von ausgewachsenen Buchen führen. Wegen der Ernährung von lebenden Pflanzenwurzeln ist Kompost ein völlig ungeeigneter Lebensraum für diese Art. Bei günstiger Sommerwitterung verpuppt sich der Maikäfer-Engerling und wird nach vier bis sechs Wochen zum Käfer. In dieser Form überwintert er in einer Erdhöhle und gräbt sich, je nach Witterung, im April bis Mai des folgenden Jahres aus dem Erdboden.
Rosenkäfer-Larven ("Cetonia aurata") sind hinten etwas dicker als vorn, haben nur kleine Stummelbeinchen, kommen typischerweise im Kompost vor und werden zu Unrecht oft aus Angst vor Pflanzenschäden getötet. Sie ernähren sich von verrottendem Holz und Pflanzenmaterial und sind durch die damit einhergehende beschleunigte Zersetzung sehr nützlich und wertvoll im Kompost.
Die Larven des Nashornkäfers ("Oryctes nasicornis") sind sehr groß. Sie werden etwa 7 cm groß, oft sogar noch größer. |
1332 | 2963285 | https://de.wikipedia.org/wiki?curid=1332 | Eiffel | Eiffel bezeichnet:
Eiffel ist Bestandteil des Namens:
Eiffel ist der Familienname folgender Personen:
Siehe auch: |
1336 | 178175 | https://de.wikipedia.org/wiki?curid=1336 | Epaulette | Eine Epaulette (veraltet "das Epaulett"; frz. "épaulette", zu "épaule" „Schulter“) zählt zu dem Schulterbesatz einer Uniform. Im Deutschen bezeichnet man so üblicherweise eine spezielle Form, die sich von der einfachen Schulterklappe oder dem eleganteren Schulterstück unterscheidet.
Der Epaulette sehr ähnlich sind die Schulterschuppen, bei denen Schieber und oft auch das Feld komplett mit Metallschuppen besetzt sind. Dies war bspw. bei der sächsischen Kavallerie bis 1914 Praxis. Bei der US-Kavallerie gehörten sie, unter der Bezeichnung "shoulder scales", bis zu Beginn des Sezessionskrieges zur Paradeuniform der Mannschaften.
Nur sehr entfernt verwandt sind die Schulterketten aus engmaschigen Metallgeflecht. Solche "shoulder chains" werden in der britischen Yeomanry von Mannschaften und Offizieren, von letzteren mit Rangsternen, getragen. Schulterketten kamen zuerst in der Kavallerie der britischen Indienarmee auf. Sie können als Überbleibsel der mittelalterlichen Kettenrüstung angesehen werden.
In abgewandelter Form haben sich Epauletten und Schulterketten längst auch zu Accessoires der Zivilkleidung entwickelt und sind bspw. bei der Rocker- und Punkmode, aber auch bei festlicher Damengarderobe anzutreffen.
Aufbau und Trageweise.
Eine Epaulette besteht im Wesentlichen aus vier Elementen:
Als zwei ergänzende Uniformelemente kommen hinzu:
Die Epaulette wird durch Einschieben unter die Passante und das anschließende Einknöpfen befestigt. Werden, statt der Epauletten, Schulterstücke getragen, sind diese ebenfalls einzuknöpfen, doch über den Passanten zu tragen, die dann unter den Schulterstücken hervorragen.
Im ersten Drittel des 19. Jahrhunderts galt das lose Tragen der Epauletten in einigen Staaten, wie etwa in Russland, als modisch. Die nur vom Schulterknopf gehaltene Epaulette saß dabei lose vor der Schulter. Der Epaulettenhalter, sofern existent, wurden nicht verwendet.
Abzeichen der Offiziere und Elitetruppen.
Mit Ausnahme Österreichs hielt die Epaulette bis Anfang des 19. Jahrhunderts in den meisten Ländern Europs Einzug. Neben Ringkragen und Sponton diente sie als einheitliches Statussymbol der Offiziere. Später waren, anhand der Trageweise (linke, rechte oder beide Schultern) und/oder des Dekors (Fransen, Kronen, Rangsterne oder -streifen usw.), der individuelle Rang oder zumindest die Dienstgradgruppe des Trägers ablesbar. Daneben wurde sie auch Teil der Gala-Uniform vieler höherer Zivilbeamte.
Generale hatten Epauletten mit dicken Raupen bzw. starren Kantillen und die Stabsoffiziere mit dünnen Fransen bzw. losen Kantillen. In Frankreich trugen zur Zeit Napoleon Bonapartes höhere Offiziere unterhalb des Oberstleutnants sowie die Kompanieoffiziere je eine Epaulette (mit dicken Kantillen bzw. dünnen Fransen) und Konterepaulette (ohne Fransen). In den meisten anderen Staaten führten Stabsoffiziere zwei befranste Epauletten, die Kompanieoffiziere jedoch zwei fransenlose (Konter-)Epauletten.
Im französischen Heer trugen, bei verschiedenen Garde- und Elite-Truppenteilen, auch die Mannschaften Epauletten (einzelne Truppenteile bis heute). Diese sind traditionell aus gefärbter Wolle gefertigt. Diese Mode setzte sich unter napoleonischem Einfluss vorübergehend auch in einigen Rheinbundstaaten und bei anderen Verbündeten Frankreichs durch. In Preußen trugen nur die Mannschaften der Ulanen den Offiziersepauletten ähnliche Epauletten, bei den übrigen deutschen Staaten wurde dies im Verlauf des 19. Jahrhunderts übernommen.
Seit dem letzten Drittel des 19. Jahrhunderts ersetzten bei Offizieren der deutschen und russischen Armee im Feld Schulterstücke die Epauletten.
Die Offiziere der deutschen Marine trugen bis 1939 Epauletten zur Großen Uniform.
Geschichte.
Epauletten als Teil militärischer und später auch ziviler Uniformen (Diplomaten, Beamte, Polizei) kamen Mitte des 18. Jahrhunderts auf. Hervorgegangen sind sie wahrscheinlich aus dem um 1680 aufgekommenen "Dragoner", einem auf der linken Schulter getragenen, knöpfbaren Bandelierhalter, aus Tuch oder Leder. Möglich erscheint auch eine Verbindung zu jenen zu Bündeln zusammengefassten bunten Stoffstreifen, die Teil der um 1660/1670 neu eingeführten Uniformen waren. Auf beiden Schultern getragen, dienten sie der Dekoration, sollten aber vermutlich auch ein Abrutschen des Bandeliers verhindern. Spätestens um das Jahr 1700 kamen sie aus der Mode. Falsch ist die seit dem späten 19. Jahrhundert verbreitete Annahme, die Epauletten hätten sich aus den Schwebescheiben mittelalterlicher Plattenpanzer entwickelt. Letztere mögen jedoch das martialische Design späterer Epauletten beeinflusst haben, die fallweise mit aufgelegten Metallschuppen und wuchtigen Halbmonden auch als Schutz vor Säbelhieben dienten.
Die Einführung der knöpfbaren Epauletten beendete den kostspieligen Brauch, den Dienstgrad anhand aufwändiger Silber- oder Goldstickereien anzuzeigen, die in die Ärmelaufschläge, die Rocktaschen und entlang der Kopflöcher und Knopfleisten des Uniformrocks und teils auch in die Weste eingearbeitet waren. Im Unterschied zu aufgenähten Tressen oder Posamenten, die bei Bedarf problemlos von alten Textilien zu lösen waren, war dies bei Stickereien nicht möglich. Gold- oder silberbestickte Kleidung wurde meist verbrannt, um das verwendete Edelmetall auszuschmelzen. Dessen Materialwert deckte aber bei weitem nicht die Kosten neuer Gold- oder Silberstickereien, sofern dieser von der bisherigen Machart und Güte sein sollten. Die Epauletten hingegen konnten umstandsfrei wiederverwendet werden, falls der bisherige Uniformrock verschlissen und ein neuer anzuschaffen war.
Frankreich, 1759.
Als erstes Land führte Frankreich Epauletten ein, per Reglement vom 12. Januar 1759. Kriegsminister Belle-Isle verordnete sie anfangs nur den Offizieren einiger Truppengattungen (französische Infanterie, Kavallerie, Dragoner). Belle-Isles Nachfolger Choiseul befahl die Epauletten zwischen 1762 und 1769 den Offizieren aller Truppengattungen, mit Ausnahme der Husaren (die zur Rangunterscheidung Ärmeltressen trugen). Viele Offiziere fühlten sich in ihren alten Vorrechten beeinträchtigt und diffamierten die neuen Gradabzeichen als „Choiseul-Lumpen“ "(Guenille à Choiseul)".
Russland, 1763.
1763 wurde in Russland den meisten Truppenteilen ein auf der linken Schulter zu tragendes befranstes Achselstück befohlen, als ein Regimentsabzeichen für alle Dienstgrade. Dieses Achselstück sah den späteren Epauletten bereits sehr ähnlich und zeigte bei Offizieren, anhand von Sternen, den Rang an. Noch vorher aufgekommen waren, in der Kavallerie und in der Garde-Infanterie, rechts getragene Achselbänder. Achselstücke und -bänder verschwanden 1796, als eine schlichte Achselklappe sie ersetzte. Wirkliche Epauletten wurden erst 1807, für Offiziere, eingeführt: mit der Divisionsnummer und zunächst nur auf der linken Schulter (anstelle des Achselstücks), seit 1809 dann auf beiden Schultern. Schon viel früher, seit 1742, hatte die "Leib-Kompanie" der Zarin Elisabeth befranste, epaulettähnliche Achselstücke getragen. Die aus den vormaligen Grenadieren des Preobraschenski Leib-Garderegiments gebildete Truppe verlor den Schulterschmuck 1762, mit der Rückeingliederung in das Stamm-Regiment.
Spanien, 1768.
Dreifache rote Schulterbänder "(Alamares)" kennzeichneten in Spanien bereits seit Beginn des 18. Jahrhunderts die Füsiliere der Artillerie. Sie wurden auf beiden Schultern getragen. Die Artillerie-Offiziere trugen, ebenfalls beidschultrig, goldfarbene Alamares, erhielten aber 1764 stattdessen goldfarbene Schulterknoten bzw. Schulterschnüre "(Charretera de cordón" bzw. "Presilla)" mit langen Quasten. Die Dienstgrade waren anhand der "Alamares" etc. noch nicht unterscheidbar.
1768 kam es zur Wiedereinführung der "Alamares", diesmal jedoch für sämtliche Kompanieoffiziere aller Waffengattungen. Die Alamares folgten der Farbe der Knöpfe (Gold oder Silber). Hauptleute 1. wie 2. Klasse führten sie auf beiden Schultern, Leutnante nur rechts, Unterleutnante bzw. Fähnriche nur links. Nach dem gleichen Prinzip ersetzten kurz darauf „echte“ Epauletten "(Charreteras)" die "Alamares". Später führten Offiziere auf einer epaulettenlosen Schulter eine Konter-Epaulette ("Capona" oder "Hombrera", ein Schulterstück oder eine Schulterklappe ohne Fransen).
Die im selben Jahr für die "Sargentos" eingeführten Epauletten bestanden aus Seide. Sie wurden "Ginetas" genannt und folgten der Abzeichenfarbe. Der "Sargento primero" trug sie beidseitig, der "Sargento (secundo)" nur rechts. Die Sergeanten-Epauletten wurden 1844 durch metallfarbene Ärmelstreifen nach französischen Muster abgelöst. Grenadiere und Füsiliere hatten auf der rechten Schulter ebenfalls eine Epaulette, doch war diese war aus Wolle gefertigt.
Höhere Regimentsoffiziere "(Jefes)" und Generale hatten zunächst keine Epauletten, ihr Rang war an bis zu drei Metalltressen (bei Generalen goldfarben) abzulesen, die auf den Ärmelaufschlägen horizontal angeordnet waren. Generale trugen dazu, nach französischem Vorbild, eine goldbetresste dunkelblaue Uniform, mit roten Ärmelaufschlägen und roter, betresster Weste.
Großbritannien, 1768.
Gleichfalls im Jahr 1768 erging in Großbritannien ein Erlass "(Warrant)", der den Kompanieoffizieren bis einschließlich Hauptmann, die "Foot Guards" ausgenommen, Epauletten vorschrieb: bei Grenadieren, Füsilieren und Highlandern waren dies zwei Epauletten mit Metallfransen. Alle übrigen Kompanieoffiziere der Fußregimenter eine Epaulette rechts. Sergeanten zwei, Corporale eine befranste Seidenepaulette rechts (statt der vorherigen Achselschnur bzw. Schulterknotens des Corporals). Bei der Kavallerie ebenso, wobei niedere Offiziere der "Dragoons Guards" und "Dragoons" je eine Epaulette links trugen, während "Light Dragoons" und "Horse-"Regimenter (Schwere Kavallerie) zwei Epauletten trugen. Die einfachen Mannschaften trugen Schulterklappen. 1791 erhielten auch Generale, zur Dienstuniform "(frock)", und Stabsoffiziere je zwei Epauletten, mit Kantillen statt Fransen. Bei Grenadieren, Füsilieren, Rifles, Leichter Infanterie und Highlandern hatten die Stabsoffiziere ihre Epauletten auf den beidseitig getragenen Schwalbennestern bzw. „Schulterflügeln“ "(Wings)" zu tragen.
Bayern, 1778.
1778 führte Bayerns Kurfürst Karl Theodor, wohl als erster, Epauletten in Deutschland ein: Er verordnete sie den Offizieren der Bayerischen Armee als Rangabzeichen: Stabsoffiziere hatten zwei silberne oder goldene Epauletten mit Bouillons, Kompanieoffiziere nur eine Epaulette mit Fransen, auf der linken Schulter. Als Gradauszeichnung bei den Stabsoffizieren ein bis drei Rosen, die Kompanieoffiziere ein bis drei quer Börtchen quer darüber. Die Epauletten wurden 1785 als Gradabzeichen abgeschafft. 1789 kehrten sie, in stark veränderter Form, wieder: Bayerns Kriegsminister Graf Rumford bestimmte sie der der Armee für alle Dienstgrade: nicht mehr als Rangabzeichen, sondern als Bestandteil der von ihm konzipierten neuen Einheitsuniform, inklusive „Rumford-Kaskett“.
Rheinbund, 1806.
Ab 1806 übernahmen auch die meisten Rheinbundstaaten die Epauletten als Offiziersabzeichen (Ausnahme: Bayern führte Kragenlitzen - und borten) und Auszeichnung von Elitetruppen, wie den Grenadieren.
Preußen, 1808.
In Preußen kennzeichneten Epauletten seit 1808 die Ulanenoffiziere, seit 1813 die Stabsoffiziere, seit 1814 dann nahezu alle Offiziere Alleine die Husaren führten Schulterschnüre bzw. -litzen. Ulanenoffziere trugen bereits seit 1808 Epauletten, mit unterschiedlichen Dekors für Leutnante, Rittmeister und Stabsoffiziere. In Preußen war lange befürchtet worden, den inneren Zusammenhalt des Offizierskorps durch die Einführung hierarchisierender Symbole zu gefährden. Bis dahin war ein Oberst von einem Leutnant äußerlich kaum zu unterscheiden gewesen.
Gegenwart.
In den Streitkräften Frankreichs tragen einige Einheiten Stoffepauletten. Heute werden Epauletten ebenfalls in der Mode zur Betonung der Schulter verwendet.
Sonstiges.
Im Schach gibt es das Epaulettenmatt. Hier stehen an beiden „Schulterseiten“ des Königs eigene Figuren und versperren Fluchtfelder.
Weblinks.
RDK Labor. Forschungsstelle Realienkunde, Zentralinstitut für Kunstgeschichte |
1337 | 178175 | https://de.wikipedia.org/wiki?curid=1337 | Eulersche Zahl | Die Eulersche Zahl, mit dem Symbol formula_1 bezeichnet, ist eine Konstante, die in der gesamten Analysis und allen damit verbundenen Teilgebieten der Mathematik, besonders in der Differential- und Integralrechnung, aber auch in der Stochastik (Kombinatorik, Normalverteilung) eine zentrale Rolle spielt. Ihr numerischer Wert beträgt
formula_1 ist eine transzendente und somit auch irrationale reelle Zahl. Sie ist die Basis des natürlichen Logarithmus und der (natürlichen) Exponentialfunktion. In der angewandten Mathematik spielt die Exponentialfunktion und somit formula_1 eine bedeutende Rolle bei der Beschreibung von Vorgängen wie dem radioaktiven Zerfall und dem natürlichen Wachstum.
Es gibt zahlreiche äquivalente Definitionen von formula_1, die bekannteste lautet:
Die Zahl wurde nach dem Schweizer Mathematiker Leonhard Euler benannt, der zahlreiche Eigenschaften von formula_1 beschrieb. Gelegentlich wird sie auch nach dem schottischen Mathematiker John Napier als "Napiers Konstante" (oder "Nepersche Konstante") bezeichnet. Sie gehört zu den wichtigsten Konstanten der Mathematik.
Es gibt einen internationalen Tag der eulerschen Zahl formula_1. In Ländern, in denen wie in Deutschland beim Datum der Tag vor dem Monat (27. 1.) geschrieben wird, ist er am 27. Januar. In Ländern, in denen wie in den USA der Monat vor dem Tag geschrieben wird (2/7), am 7. Februar.
Definition.
Die Zahl formula_1 wurde von Leonhard Euler durch die folgende Reihe definiert:
Für formula_11 ist dabei formula_12 die Fakultät von formula_13, also im Falle formula_14 das Produkt formula_15 der natürlichen Zahlen von formula_16 bis formula_13, während formula_18 definiert ist.
Wie schon Euler bewies, erhält man die Eulersche Zahl formula_1 auch als funktionalen Grenzwert.
Die Zahl formula_1 kann auch als Grenzwert der Folge formula_21 mit formula_22 geschrieben werden:
Dem liegt zugrunde, dass
gilt, formula_1 also der Funktionswert der Exponentialfunktion (oder auch „formula_1-Funktion“) an der Stelle formula_16 ist. Die obige Reihendarstellung von formula_1 ergibt sich in diesem Zusammenhang dadurch, dass man die Taylorreihe der Exponentialfunktion um die Entwicklungsstelle formula_29 an der Stelle formula_16 auswertet.
Ein alternativer Zugang zur Definition der Eulerschen Zahl ist derjenige über Intervallschachtelungen, etwa in der Weise, wie es in "Theorie und Anwendung der unendlichen Reihen" von Konrad Knopp dargestellt wird. Danach gilt für alle formula_31:
Die Entstehung der Zahl formula_1 lässt sich auch grafisch veranschaulichen. Aus der Abbildung ergibt sich folgender Zusammenhang:
Die Vorgeschichte vor Euler.
Die Geschichte der Eulerschen Zahl formula_1 beginnt bereits im 16. Jahrhundert mit drei Problembereichen, in denen eine Zahl auftaucht, der sich damals die Mathematiker näherten und die später formula_1 genannt wurde:
Herkunft des Symbols "e".
Als frühestes Dokument, das die Verwendung des Buchstabens formula_1 für diese Zahl durch Leonhard Euler aufweist, gilt ein Brief Eulers an Christian Goldbach vom 25. November 1731. Noch früher, 1727 oder 1728, begann Euler, den Buchstaben formula_1 zu benutzen, und zwar im Artikel „Meditatio in experimenta explosione tormentorum nuper instituta“ über Explosivkräfte in Kanonen, der allerdings erst 1862 veröffentlicht wurde. Als nächste gesicherte Quelle für die Verwendung dieses Buchstabens gilt Eulers Werk "Mechanica sive motus scientia analytice exposita, II" aus dem Jahre 1736. In der im Jahre 1748 erschienenen "Introductio in Analysin Infinitorum" greift Euler diese Bezeichnung wieder auf.
Es gibt keine Hinweise darauf, dass diese Wahl des Buchstabens formula_1 in Anlehnung an seinen Namen geschah. Unklar ist auch, ob er dies in Anlehnung an die Exponentialfunktion oder aus praktischen Erwägungen der Abgrenzung zu den viel benutzten Buchstaben "a, b, c" oder "d" machte. Obwohl auch andere Bezeichnungen in Gebrauch waren, etwa "c" in d’Alemberts "Histoire de l’Académie," hat sich formula_1 durchgesetzt.
Im Formelsatz wird formula_1 nach DIN 1338 und ISO 80000-2 nicht kursiv gesetzt, um die Zahl von einer Variablen zu unterscheiden. Allerdings ist auch die kursive Schreibweise verbreitet.
Eigenschaften.
Die Eulersche Zahl formula_1 ist eine transzendente ( nach Charles Hermite, 1873) und damit irrationale Zahl (Beweis mit Kettenbrüchen für formula_57 und somit formula_1 bereits 1737 von Euler, Beweis im bzw. Artikel). Sie lässt sich also (wie auch die Kreiszahl formula_59 nach Ferdinand von Lindemann 1882) nicht als Bruch zweier natürlicher Zahlen (sogar nicht einmal als Lösung einer algebraischen Gleichung) darstellen und besitzt folglich eine unendliche nichtperiodische Dezimalbruchentwicklung. Das Irrationalitätsmaß von formula_1 ist 2 und somit so klein wie möglich für eine irrationale Zahl, insbesondere ist formula_1 nicht liouvillesch. Es ist nicht bekannt, ob formula_1 zu irgendeiner Basis normal ist.
In der Eulerschen Identität
werden fundamentale mathematische Konstanten in Zusammenhang gesetzt: Die ganze Zahl 1, die Eulersche Zahl formula_1, die imaginäre Einheit formula_65 der komplexen Zahlen und die Kreiszahl formula_59.
Die Eulersche Zahl tritt auch in der asymptotischen Abschätzung der Fakultät auf (siehe Stirlingformel):
Die Cauchy-Produktformel für die beiden (jeweils absolut konvergenten) Reihen und der binomische Lehrsatz ergeben
und daraus folgt sofort:
Geometrische Interpretation.
Eine geometrische Interpretation der Eulerschen Zahl liefert die Integralrechnung. Danach ist formula_1 diejenige eindeutig bestimmte Zahl formula_71, für die der Inhalt der Fläche unterhalb des Funktionsgraphen der reellen Kehrwertfunktion formula_72 im Intervall formula_73 exakt gleich formula_16 ist:
Weitere Darstellungen für die Eulersche Zahl.
Die Eulersche Zahl lässt sich auch durch
oder durch den Grenzwert des Quotienten aus Fakultät und Subfakultät beschreiben:
Eine Verbindung zur Verteilung der Primzahlen wird über die Formeln
deutlich, wobei formula_80 die Primzahlfunktion und das Symbol formula_81 das Primorial der Zahl formula_82 bedeutet.
Auch eher von exotischem Reiz als von praktischer Bedeutung ist die "catalansche Darstellung"
Kettenbruchentwicklungen.
Im Zusammenhang mit der Zahl formula_1 gibt es spätestens seit dem Erscheinen von Leonhard Eulers "Introductio in Analysin Infinitorum" im Jahre 1748 eine große Anzahl Kettenbruchentwicklungen für formula_1 und aus formula_1 ableitbare Größen.
So hat Euler die folgende klassische Identität für formula_1 gefunden:
Die Identität (1) weist offenbar ein regelmäßiges Muster auf, das sich bis ins Unendliche fortsetzt. Sie gibt einen regulären Kettenbruch wieder, der von Euler aus dem folgenden abgeleitet wurde:
Dieser Kettenbruch ist seinerseits ein Spezialfall des folgenden mit formula_90:
Eine andere klassische Kettenbruchentwicklung, die jedoch "nicht regelmäßig" ist, stammt ebenfalls von Euler:
Auf Euler und Ernesto Cesàro geht eine weitere Kettenbruchentwicklung der "Eulerschen Zahl" zurück, die von anderem Muster als in (1) ist:
Im Zusammenhang mit der "Eulerschen Zahl" existiert darüber hinaus eine große Anzahl von allgemeinen kettenbruchtheoretischen Funktionalgleichungen. So nennt Oskar Perron als eine von mehreren die folgende allgemeingültige Darstellung der formula_1-Funktion:
Ein weiteres Beispiel hierfür ist die von Johann Heinrich Lambert stammende Entwicklung des Tangens hyperbolicus, die zu den "lambertschen Kettenbrüchen" gerechnet wird:
Erst 2019 wurde mit Hilfe eines Computerprogrammes, das nach Srinivasa Ramanujan als "Ramanujan-Maschine" benannt wurde, letztlich basierend auf einer Trial-and-error-Methode, durch ein Team um Gal Raayoni am Technion eine weitere und bisher unbekannte Kettenbruchentwicklung für die Eulersche Zahl gefunden. Gegenüber allen bisher bekannten Kettenbruchentwicklungen, die alle von einer beliebigen ganzzahligen Zahl, die kleiner als die Eulersche Zahl ist, aufsteigen, handelt es sich hier erstmals um eine, die von der ganzen Zahl "3", einer ganzen Zahl, die größer ist als die Eulersche Zahl, absteigt. Allein die Auffindung eines (einzigen) solchen absteigenden Kettenbruchs von einer ganzen Zahl größer als die Eulersche Zahl formula_100 legt die Vermutung nahe, dass es unendlich viele solcher absteigenden Kettenbrüche von ganzen Zahlen formula_101 mit formula_102 gibt, die ebenfalls auf die Eulersche Zahl führen.
Anschauliche Interpretationen der Eulerschen Zahl.
Zinseszinsrechnung.
Das folgende Beispiel macht die Berechnung der Eulerschen Zahl nicht nur anschaulicher, sondern es beschreibt auch die Geschichte der Entdeckung der Eulerschen Zahl: Ihre ersten Stellen wurden von Jakob I Bernoulli bei der Untersuchung der Zinseszinsrechnung gefunden.
Den Grenzwert der ersten Formel kann man folgendermaßen deuten: Jemand zahlt am 1. Januar einen Euro auf der Bank ein. Die Bank garantiert ihm eine momentane Verzinsung zu einem Zinssatz formula_104 pro Jahr. Wie groß ist sein Guthaben am 1. Januar des nächsten Jahres, wenn er die Zinsen zu gleichen Bedingungen anlegt?
Nach der Zinseszinsformel wird aus dem Startkapital formula_105 nach formula_101 Verzinsungen mit Zinssatz formula_107 das Kapital
In diesem Beispiel sind formula_109 und formula_110, wenn der Zinszuschlag jährlich erfolgt, oder formula_111, wenn der Zinszuschlag formula_101-mal im Jahr erfolgt, also bei unterjähriger Verzinsung.
Bei jährlichem Zuschlag wäre
Bei halbjährlichem Zuschlag hat man formula_114,
also schon etwas mehr. Bei täglicher Verzinsung formula_116 erhält man
Wenn die Verzinsung kontinuierlich in jedem Augenblick erfolgt, wird formula_101 unendlich groß, und man bekommt die oben angegebene erste Formel für formula_1.
Wahrscheinlichkeitsrechnung.
formula_1 ist auch häufig in der Wahrscheinlichkeitstheorie anzutreffen: Beispielsweise sei angenommen, dass ein Bäcker für jedes Brötchen eine Rosine in den Teig gibt und diesen gut durchknetet. Danach enthält statistisch gesehen jedes formula_1-te Brötchen keine Rosine. Die Wahrscheinlichkeit formula_122, dass bei formula_101 Brötchen keine der formula_101 Rosinen in einem fest gewählten ist, ergibt im Grenzwert für formula_125 (37-%-Regel):
Es werden Briefe und die zugehörigen Briefumschläge mit den Adressen unabhängig voneinander geschrieben. Dann werden ohne hinzusehen, also rein zufällig, die Briefe in die Briefumschläge gesteckt. Wie groß ist die Wahrscheinlichkeit, dass kein Brief im richtigen Umschlag steckt?
Euler löste diese Aufgabe und veröffentlichte sie 1751 im Aufsatz „Calcul de la probabilité dans le jeu de rencontre.“ Bemerkenswert ist, dass sich ab einer Anzahl von 7 Briefen die Wahrscheinlichkeit fast nicht mehr ändert. Sie wird sehr gut durch formula_127 angenähert, den Grenzwert der Wahrscheinlichkeiten, wenn die Anzahl an Briefen immer größer wird.
Einem Jäger steht nur ein Schuss zur Verfügung. Er soll aus einer Schar Tauben, deren Anzahl formula_101 er kennt, die in zufälliger Reihenfolge an ihm vorbeifliegen, die größte schießen. Mit welcher Strategie sind seine Chancen maximal, die größte Taube zu treffen? Dieses Taubenproblem wurde vom amerikanischen Mathematiker Herbert Robbins (* 1915) formuliert. Dasselbe Entscheidungsproblem besteht auch bei der Anstellung des besten Mitarbeiters bei n Bewerbern (Sekretärinnenproblem) und ähnlichen Einkleidungen. Lösung: Die optimale Strategie besteht darin, erst formula_13 Tauben formula_130 vorbeifliegen zu lassen, und dann auf die nächste Taube zu schießen, die größer als alle bisher vorbeigeflogenen ist, oder auf die allerletzte, wenn bis dahin keine größere vorbeigeflogen ist. Die Wahrscheinlichkeit, die größte Taube zu erwischen, beträgt bei dieser optimalen Strategie ungefähr formula_44 unabhängig von n, das jedoch nicht zu klein sein sollte. Wenn wir formula_132 als Schätzwert für formula_44 wählen, dann folgt: formula_134. Also sollte man bei 27 Tauben erst 10 vorbeifliegen lassen. Bemerkenswert ist, dass man bei rund formula_135 aller Fälle nicht die gewünschte optimale Lösung erhält.
Bei der Poisson-, der Exponential- und der Normalverteilung wird formula_1 neben anderen Größen zur Beschreibung der Verteilung benutzt.
Bedeutung in der Mathematik.
Die Eulersche Zahl taucht an verschiedenen wichtigen Stellen in der Mathematik auf:
Die Exponentialfunktion zur Basis der Eulerschen Zahl lautet:
Die Ableitungsfunktion lautet:
Daraus folgt, dass diese Exponentialfunktion mit Ihrer Ableitungsfunktion identisch ist:
Dies bedeutet anschaulich, dass die Steigung dieser Exponentialfunktion an jeder Stelle genauso groß ist wie der Funktionswert.
Auch in der Differentialrechnung kommt die Eulersche Zahl vor. An der Stelle formula_1 liegt das Maximum der Funktion formula_146. Außerdem befindet sich an der Stelle formula_147 das Minimum der Funktion formula_148. Das kann jeweils mithilfe der Ableitungsfunktion gezeigt werden.
Charakterisierung der Eulerschen Zahl nach Steiner.
Im vierzigsten Band von Crelles Journal aus dem Jahre 1850 gibt der Schweizer Mathematiker Jakob Steiner eine Charakterisierung der Eulerschen Zahl formula_1, wonach formula_1 als Lösung einer Extremwertaufgabe verstanden werden kann. Steiner zeigte nämlich, dass die Zahl formula_1 charakterisierbar ist als diejenige eindeutig bestimmte positive reelle Zahl, die beim Wurzelziehen mit sich selbst die größte Wurzel liefert. Wörtlich schreibt Steiner: „Wird jede Zahl durch sich selbst radicirt, so gewährt die Zahl e die allergrößte Wurzel.“
Steiner behandelt hier die Frage, ob für die Funktion
das globale Maximum existiert und wie es zu bestimmen ist. Seine Aussage ist, dass es existiert und dass es angenommen wird in und nur in formula_153.
In seinem Buch "Triumph der Mathematik" gibt Heinrich Dörrie eine elementare Lösung dieser Extremwertaufgabe. Sein Ansatz geht von der folgenden wahren Aussage über die reelle Exponentialfunktion aus:
Nach der Substitution formula_155 folgt für alle reellen Zahlen formula_156
mittels einfacher Umformungen weiter
und schließlich für alle positiven formula_156 durch Radizieren
Bruchnäherungen.
Für die Zahl formula_1 und daraus abgeleitete Größen gibt es verschiedene näherungsweise Darstellungen mittels Brüchen. So fand Charles Hermite die folgenden Bruchnäherungen:
Hier weicht der erstgenannte Bruch um weniger als 0,0003 Prozent von formula_1 ab.
Die optimale Bruchnäherung im dreistelligen Zahlenbereich, also die optimale Bruchnäherung formula_165 mit formula_166, ist
Diese Näherung ist jedoch nicht die beste Bruchnäherung im Sinne der Forderung, dass der Nenner höchstens dreistellig sein soll. Die in diesem Sinne "beste Bruchnäherung" ergibt sich als 9. Näherungsbruch der Kettenbruchentwicklung der Eulerschen Zahl:
Aus den Näherungsbrüchen der zu formula_1 gehörenden Kettenbruchentwicklungen (s. o.) ergeben sich Bruchnäherungen beliebiger Genauigkeit für formula_1 und daraus abgeleitete Größen. Mit diesen findet man sehr effizient beste Bruchnäherungen der Eulerschen Zahl in beliebigen Zahlenbereichen. So erhält etwa im fünfstelligen Zahlenbereich die beste Bruchnäherung
die zeigt, dass die von Charles Hermite für die Eulersche Zahl im fünfstelligen Zahlenbereich gefundene Bruchnäherung noch nicht optimal war.
In gleicher Weise hat etwa C. D. Olds gezeigt, dass durch die Näherung
für die Eulersche Zahl eine weitere Verbesserung, nämlich
zu erzielen ist.
Insgesamt beginnt die Folge der besten Näherungsbrüche der Eulerschen Zahl, die sich aus ihrer regelmäßigen Kettenbruchdarstellung ergeben, folgendermaßen:
Berechnung der Nachkommastellen.
Zur Berechnung der Nachkommastellen wird meist die Reihendarstellung
ausgewertet, die schnell konvergiert. Wichtig bei der Implementierung ist dabei Langzahlarithmetik, damit die Rundungsfehler nicht das Ergebnis verfälschen. Ein Verfahren, das ebenfalls auf dieser Formel beruht, aber ohne aufwendige Implementierung auskommt, ist der Tröpfelalgorithmus zur Berechnung der Nachkommastellen von formula_1, den A. H. J. Sale fand.
Die Eulersche Zahl in den Medien.
In der Fernsehserie "Die Simpsons" und ihrer Nachfolgeserie "Futurama" kommen viele mathematische Bezüge vor, einige haben auch mit der eulerschen Zahl formula_1 und Euler zu tun.
1995 gewährte in der Fernsehserie "Akte X – Die unheimlichen Fälle des FBI" die Zahlenreihe 2-7-1-8-2-8 zwei FBI-Agenten den Zutritt zu einem geheimen Archiv. Dort war nicht von der Eulerschen Zahl, sondern von Napiers Konstanten die Rede. |
1340 | 2234691 | https://de.wikipedia.org/wiki?curid=1340 | Etymologie | Die Etymologie, auch Wortherkunft und zudem kurz Herkunft genannt, befasst sich mit der Herkunft, Geschichte und Bedeutung der Wörter. Etymologie ist die historische Untersuchung der Herkunft von Wörtern. Im Verständnis der Sprachwissenschaft ist die Wortherkunft die Erklärung der Entstehung eines Wortes oder Morphems in einer gegebenen Gestalt und Bedeutung. Als sprachgeschichtlich (diachron) ausgerichtete Erklärungsweise ist sie Bestandteil der historischen Sprachwissenschaft, ihre Ergebnisse werden in etymologischen Wörterbüchern gesammelt und als Zusatzinformation auch in Wörterbüchern und Lexika anderer Art aufgenommen.
Früheren Epochen diente die Etymologie als „Ableitung eines Wortes aus seiner Wurzel und Nachweisung seiner eigentlichen, wahren Bedeutung“ zur Erklärung einer im Wort angelegten „Wahrheit“ (), die mithilfe von Ähnlichkeiten der Wortgestalt zu anderen Wörtern erschlossen und als Aussage über die vom Wort bezeichnete Sache oder als eigentliche, ursprüngliche Wortbedeutung verstanden wurde. Als rhetorisches Argument ("") dient die Etymologie in Form eines Hinweises oder einer Berufung auf die angenommene Herkunft und ursprüngliche Bedeutung eines Worts traditionell dem Zweck, die eigene Argumentation durch einen objektiven sprachlichen Sachverhalt zu stützen und ihr so besondere Überzeugungskraft zu verleihen.
Herkunft des Wortes.
"Etymologie" ist ein griechisches Fremdwort und leitet sich von dem altgriechischen Wort her. Dieses enthält seinerseits die Bestandteile („wahr, wahrhaft, echt, wirklich“; siehe auch Etymon) und (hier „Wort“) und bedeutet in einem umfassenderen Sinn so viel wie „Erklärung der einem Wort innewohnenden Wahrheit“. Im Deutschen wird dafür auch das Synonym "Wortherkunft" verwendet.
Die Verbindung der Bestandteile ist im Griechischen seit dem 1. Jahrhundert v. Chr. belegt (Dionysios von Halikarnassos), ebenso schon die Entlehnung ins Lateinische (Varro), doch soll nach dem späteren Zeugnis von Diogenes Laertius (VII.7) auch schon Chrysippos im 3. Jahrhundert v. Chr. Werke mit dem Titel („Über etymologische Themen“) und („Etymologisches“) verfasst haben.
Geschichte der Etymologie.
Altertum.
Bereits im griechischen Altertum gab es philosophische Strömungen, die der Richtigkeit der Namen nachgingen. Für diese Tätigkeit wurde in der Regel nicht der Begriff "Etymologie" verwendet. So fragte sich bereits Heraklit von Ephesos (um 500 v. Chr.), inwiefern der Name eines Dinges die Wahrheit einer Sache widerspiegele und damit, inwiefern der Name tatsächlich dem durch ihn bezeichneten Gegenstand entspreche. Später beschäftigte sich Platon in seinem Dialog "Kratylos" eingehend mit der Richtigkeit der Namen. In diesem Dialog lässt Platon einen Vertreter der mystisch-religiösen These, laut derer alle Wörter ihre Bedeutung von Natur aus haben und keiner Definition bedürfen, gegen einen Vertreter der eher modernen, im "Kratylos" erstmals bezeugten Gegenthese antreten, laut derer der Zusammenhang von Wörtern und ihrer Bedeutung auf der willkürlichen Festlegung durch den Menschen beruht. (Zur Diskussion um die Sprachrichtigkeit in der Antike vgl. Siebenborn 1976.) Die Etymologie war Teil der antiken Grammatik und wurde neben den Philosophen vornehmlich von den sogenannten Grammatikern betrieben, allerdings aus heutiger Sicht ohne verlässliche Methodik, so dass die auf bloßer Spekulation aufgrund vager Analogien in Klang oder Schriftbild beruhenden Herleitungen einer kritischen Prüfung durch die moderne Sprachwissenschaft meist nicht standgehalten haben. Man spricht daher von Pseudetymologien (auch Pseudo-Etymologien), die sich nicht wesentlich von sogenannten Vulgäretymologien oder Volksetymologien unterscheiden, einem Phänomen, das auch heute noch im außerwissenschaftlichen Bereich eine nicht unerhebliche Rolle spielt und nicht selten sogar argumentative Verwendung findet, z. B. die fälschliche Herleitung des Wortes „Dichten“ von „dicht“ statt vom lateinischen . Die Etymologie eines Worts wurde in der Antike als so bedeutender Teil der Bedeutungserklärung angesehen, dass sogar Enzyklopädien, wie die des spätantiken Grammatikers Isidor von Sevilla den Titel (kurz: "Etymologiae", „Etymologien“) tragen konnten.
Auch andere Kulturen, insbesondere solche mit langer Schrifttradition wie Indien und China, haben sich früh mit Etymologie beschäftigt, die ihnen unter anderem ein tieferes Verständnis überlieferter Texte ermöglichen sollte.
Mittelalter.
Den Höhepunkt der „wahrheitssuchenden Etymologie“ finden wir bei Isidor von Sevilla Anfang des 7. Jahrhunderts n. Chr., also im Frühmittelalter. In seinem Hauptwerk "Etymologiae libri viginti" gibt er zahlreiche Beispiele von Etymologien, deren Wahrheitsgehalt jedoch im Zweifel steht. Auch Isidor von Sevilla benannte viele Etymologien, um Dinge verständlich zu erklären, die historisch gesehen zu bezweifeln sind. Zum Beispiel: „persona est Exegese, Physiologus“, (der Tiernamen aus der Wortgestalt zu erklären sucht), oder die "Legenda aurea", die vor der Vita eines Heiligen zunächst seinem Namen breite Aufmerksamkeit widmet. Auch Petrus Helie versteht die etymologische Bedeutung von Wörtern als Synonym für einen „Wahrspruch“ an sich (): „denn wer etymologisiert, zeigt den wahren, d. h. den ersten Ursprung des Worts an.“ (Übersetzung in: Arens 1969, 39)
Gegenwart.
Heute ist Etymologie innerhalb der historisch vergleichenden Sprachwissenschaft die Disziplin, welche Entstehung und geschichtliche Veränderung einzelner Wörter aufspürt und in etymologischen Wörterbüchern festhält. Historische Linguistik sucht nach wiederkehrenden Erscheinungen des Sprachwandels und leitet aus ihnen Lautgesetze ab, die es ihrerseits erleichtern, Veränderungen eines Worts im Verlaufe der Geschichte zu beobachten.
Zusätzlich zur rein linguistischen Beschäftigung mit Etymologie bringt die sprachgeschichtliche Forschung außerdem Nutzen für das genauere Verständnis von Texten und einzelnen Begriffen. Ein weiteres Anwendungsgebiet besteht in der Übertragung der Ergebnisse auf die Archäologie. Hier können sprachgeschichtliche Verhältnisse Anhaltspunkte für verschiedene archäologische Fragestellungen liefern, so etwa im Fall der Rekonstruktion von frühzeitlichen Wanderungsbewegungen. Auch soziolinguistische Rückschlüsse auf Sozial- und Kulturgeschichte stehen dabei im Blickfeld.
Die von 1996 bis 2015 publizierte Zeitschrift "Studia Etymologica Cracoviensia" befasste sich ausschließlich mit etymologischen Themen.
Etymologie in Wissenschaft und Gesellschaft.
Im Rahmen der Sprachwissenschaft will Etymologie mehr über die einzelnen Phänomene der geschichtlichen Veränderung einer Sprache herausfinden. Aus dem so gewonnenen Wissen soll ein erweitertes Verständnis über die Entwicklungsgeschichte einer Einzelsprache sowie der Umstände des Sprachwandels im Allgemeinen folgen. Das klassische Verständnis der Etymologie und praktische Anwendungen wie oben erwähnt steht dabei zumeist im Hintergrund. In der alltäglichen, nicht-wissenschaftlichen Beschäftigung mit Etymologie hat sich hingegen der normative Charakter der frühen Etymologie mehr oder weniger ausgeprägt erhalten. So wird etwa anhand der Geschichte eines Worts demonstriert, dass eine bestimmte, moderne Verwendungsweise falsch ist, da sie nicht der historischen entspricht bzw. sich nicht an der in der Wortgeschichte offenbar werdenden eigentlichen Wortbedeutung orientiert.
Vertreter einer abgeschwächten Variante dieses Arguments lehnen diese moderne Auffassung nicht grundsätzlich ab, erhoffen sich jedoch aus der Beschäftigung mit der Entwicklungsgeschichte eines Worts neue und weitere, vertiefende Aspekte für ein Verständnis seiner Bedeutung. Hier wird davon ausgegangen, dass diese Aspekte im Lauf der Zeit gleichsam verlorengegangen sind und durch sprachgeschichtliche Untersuchungen wieder bewusst gemacht werden können. Begründet wird dies damit, dass das Denken nur in den Bildern der Wahrnehmung als Abbild der Wirklichkeit erfolgen könne und somit allein schon die Wahrnehmung und in der Folge auch das Denken sowohl vom bewussten wie auch vom unbewussten Inhalt eines Begriffs wie auch dessen Gestalt geprägt sei. Die Etymologie wird hier als Weg gesehen, diese unbewussten Teile wahrnehmbar zu machen und so der Wahrnehmung und dem Denken diese verloren gegangenen Inhalte erneut erschließen zu können. So soll – ganz in der Tradition antiker Denker – ein Beitrag zum Reichtum der Sprache und des Denkens geleistet werden.
Unabhängig von der Frage, ob die jeweils angeführte wortgeschichtliche Herleitung inhaltlich korrekt ist oder nicht, geraten Vertreter beider Auffassungen in Widerspruch zu modernen sprachwissenschaftlichen Grundannahmen, wenn sie auf einer engen und unmittelbaren Beziehung zwischen einem gedanklichen Konzept und der Gestalt des Worts, mit dem es ausgedrückt wird, bestehen. Dieser Auffassung steht die funktionale Ansicht der Sprachwissenschaft entgegen, dass eine konkrete Wortform ihre Bedeutung ausschließlich per Arbitrarität und Konvention erhalte. Arbitrarität und Konvention sind Schlüsselbegriffe des Verständnisses von Zeichen in der Linguistik seit Beginn des 20. Jahrhunderts; man beruft sich dazu auf Ferdinand de Saussure (frz. 1916; dt. Übers. 1931/1967). Sie besagen, dass das Verhältnis zwischen der Form und der Bedeutung von Zeichen, d. h. auch von Wörtern, arbiträr (willkürlich) und durch gesellschaftliche Konvention bedingt sei. Für sich genommen habe ein Wort somit keine Bedeutung und Wirkung außer der, die sich in der jeweiligen Gegenwart aus der üblichen Verwendung ergibt. Die Existenz einer darüber hinaus dem Wort in irgendeiner Weise noch zusätzlich anhängenden Bedeutung, die in irgendeiner Form herausgefunden werden könnte oder sollte, wird hier bezweifelt. Unter einer solchen Annahme können die von den „normativen“ "Etymologen" vorgebrachten Interpretationen der Wortbedeutung nicht mehr Gültigkeit für sich beanspruchen als jede alternativ vorgeschlagene Neuinterpretation auch.
Die Auffassung von der Arbitrarität der Zeichen wird durch die Natürlichkeitstheorie in der modernen Linguistik durch die Entdeckung ergänzt, dass viele Aspekte der Sprache ikonisch (abbildend) sind, also gar nicht ausschließlich arbiträr (willkürlich).
Etymologische Erklärungen werden darüber hinaus auch häufig zur Untermauerung von Ideologien jedweder Couleur herangezogen, z. B. Esoterik, politischer Religionen, u. v. a. m. So versuchen beispielsweise Nationalisten die vermeintliche Überlegenheit der eigenen Kultur anhand ihrer Wirkung auf den Wortschatz einer anderen Sprache zu beweisen oder erwünschte verwandtschaftliche Beziehungen zweier Kulturen aus einer vermuteten Sprachverwandtschaft zu rekonstruieren. Der etymologischen Erklärung scheint eine besondere, unmittelbar einleuchtende Beweiskraft zu eigen zu sein, indem schon Bekanntes (ein Wort) von bislang unbekannter Seite dargestellt wird.
Literatur.
Für etymologische Wörterbücher siehe den Artikel Etymologisches Wörterbuch. |
1343 | 3934728 | https://de.wikipedia.org/wiki?curid=1343 | Endemit | Als Endemiten (von ; ungenau oft auch Endemismen im Plural) werden in der Biologie Pflanzen oder Tiere bezeichnet, die im Gegensatz zu den Kosmopoliten nur in einer bestimmten, räumlich abgegrenzten Umgebung vorkommen. Diese sind in diesem Gebiet "endemisch".
Dabei kann es sich um Arten, Gattungen oder Familien von Lebewesen handeln, die ausschließlich auf bestimmten Inseln oder Inselgruppen, Gebirgen, in einzelnen Tälern oder Gewässersystemen heimisch sind. Beispiel: Die Darwinfinken sind auf den Galapagosinseln endemisch, da sie weltweit nirgendwo sonst vorkommen.
Eine Festlegung, bis zu welcher Flächengröße dieser Begriff verwendet wird, gibt es nicht. Für einen ganzen Kontinent endemische Arten, aber auch höhere taxonomische Einheiten, finden sich etwa für Amerika („Neuwelt“-Spezies) oder Australien. Kontinentübergreifende Vorkommen finden sich dann beispielsweise in der Pflanzenfamilie der Bromeliengewächse, ursprünglich in Amerika und sonst nur in einer Region Westafrikas.
Einteilung.
Vor allem in der Botanik ist die Unterscheidung in „Paläoendemiten“ (auch: Reliktendemiten) und „Neoendemiten“ (auch: Entstehungsendemismus) üblich.
Paläoendemiten sind Arten mit ursprünglich vermutlich weiterer Verbreitung, die durch Änderung der Lebensbedingungen oder neue Konkurrenten in ein Reliktareal, meist eine Insel oder ein Gebirge, abgedrängt worden sind. Ein Beispiel wäre der Wurzelnde Kettenfarn ("Woodwardia radicans"), der heute in den Lorbeerwäldern der Kanarischen Inseln und in eng begrenzten Gebieten (meist auf den Inseln) am Mittelmeer mit ähnlich niederschlagsreichem Lokalklima vorkommt. Man nimmt an, dass es sich um das Reliktareal einer im Tertiär unter wärmeren und feuchteren Lebensbedingungen weiter verbreiteten Art handelt.
Neoendemiten sind Arten, die sich erst vor (erdgeschichtlich) kurzer Zeit aus weit verbreiteten Pflanzentaxa unter besonderen Standortbedingungen entwickelt haben. Dies nimmt man zum Beispiel für die zahlreichen Arten der Nelkengattung "Dianthus" auf Berggipfeln im Mittelmeerraum oder für die zahlreichen Tragant-("Astragalus-")Arten in abgegrenzten Regionen Zentralanatoliens an. Als Kuriosum kommen sogar sogenannte heimatlose Arten vor. Dies sind neophytische Neo-Endemiten, die sich (meist durch Hybridisierung) erst seit wenigen hundert Jahren in ihrer neuen Heimat aus ursprünglich vom Menschen aus anderen Erdteilen eingeführten Arten entwickelt haben. Bekannt ist dies etwa von Kleinarten der Nachtkerzen ("Oenothera") aus dem "biennis"-Artkomplex.
Subendemiten.
Arten, deren Verbreitungsgebiet in einer bestimmten Region ihren absoluten Schwerpunkt besitzt, von dort aus aber wenig in benachbarte Regionen übergreift, werden Subendemiten genannt. Diese können entweder Neoendemiten oder „progressive“ Paläoendemiten sein, das sind solche, die sich sekundär von einem kleinen Reliktareal wieder ein wenig ausbreiten konnten. Es gibt mehr Subendemiten, wenn die Bezugsregion nicht biogeographisch, sondern politisch abgegrenzt worden ist, da Staatsgrenzen auch sehr kleine biogeographische Regionen durchschneiden können. Subendemiten sind für den Naturschutz bedeutsam, wenn es um die Definition nationaler „Verantwortungsarten“ geht, das sind solche bedrohten Arten, für die ein bestimmter Staat eine besondere Verantwortung für ihr Überleben trägt, weil sich der größte Teil ihres Bestands oder ihres Verbreitungsgebiets innerhalb seiner Grenzen befindet. In einer Monographie speziell für Österreich wurden Subendemiten so definiert, dass sich mindestens 75 Prozent der Fundorte (oder der Rasterfelder einer Verbreitungskarte) innerhalb der Staatsgrenzen befinden müssen. Ausschließlich in der Schweiz ist, neben Subendemiten, auch der synonyme Ausdruck "Teilendemiten" gebräuchlich.
Neben den Subendemiten gibt es in zahlreichen taxonomisch unzureichend bekannten oder schlecht erforschten Organismengruppen solche Arten, deren Vorkommen nur aus einem beschränkten Areal, manchmal nur von der Typlokalität, nachgewiesen ist, bei denen man aber annimmt, das sie in Wirklichkeit weiter verbreitet sind. Diese Arten werden gelegentlich "Pseudoendemiten" genannt. Beispielsweise sind in der faunistisch sehr schlecht erforschten Tiergruppe der Rädertierchen aus Österreich 760 Arten bekannt, von denen 33 bisher nur in Österreich selbst oder unmittelbaren Nachbarregionen (der Alpen) gefunden worden sind, davon mehr als zwei Drittel nur von der Typlokalität. Nur zwei dieser Arten gelten nach Expertenschätzung tatsächlich als (Sub)-Endemiten.
Bedrohung.
Je kleiner der zur Verfügung stehende Lebensraum ist, desto größer ist meist die Gefährdung der endemischen Taxa. Schon geringe Veränderungen im Habitat können zum Aussterben des gesamten Taxons führen.
Die Anwendung des Begriffs „Endemit“ auf politische Grenzen ist nur im Rahmen der Roten Liste gefährdeter Arten üblich.
Inselendemiten.
Als Inselendemiten bezeichnet man Arten, welche sich an den Lebensraum einer bestimmten Insel angepasst haben. Als Inselendemit ist ein Tier/eine Pflanze zu bezeichnen, dessen/deren Vorfahren an eine Insel (meist weiter vom Festland entfernt) angetrieben wurden und sich da aufgrund von bestimmten abiotischen oder biotischen Umweltfaktoren der selbigen verändert haben, so dass diese Tiere bzw. Pflanzen infolgedessen nur auf dieser Insel heimisch sind. Interessant unter diesen ist unter anderem auch, dass sich bei einigen Arten besonders angepasste Unterarten gebildet haben, die jeweils verschiedene Lebensräume der Insel bewohnen. Die meisten dieser Unterarten gehen allerdings auf eine Art zurück, welche die Insel erreichte. Interessante Beispiele hierfür sind unter anderem auch die Anolis-Echsen auf den Westindischen Inseln, die Finken auf einigen Pazifikinseln (Galapagos, Hawaii) oder die Riesenschildkröten auf den Galapagosinseln. Eine weitere Besonderheit unter Inselendemiten ist ein langsamer Fortpflanzungszyklus, durch den die Individuenzahl der jeweiligen Arten nur langsam oder nicht ansteigen kann. So können viele endemische Vögel nur ein Ei pro Jahr legen, was sich so auswirkt wie eine „Bevölkerungsregulierung“ in der Evolution.
Hier einige Beispiele für Inselendemiten:
Inselgigantismus und Inselverzwergung.
Bei einigen Endemiten ist es aufgrund des Nichtvorhandenseins von Fressfeinden wie Raubtieren oder anderen Bedrohungen zum Inselgigantismus gekommen. Inselgigantismus kann auftreten, wenn eine bestimmte Art auf eine Insel gelangt ist, auf der für sie kaum Gefahr besteht und auf der sie einen idealen Lebensraum vorfindet. Infolgedessen sind auf einigen Inseln zum Teil riesige Arten entstanden.
Hier einige Beispiele:
Inselverzwergung jedoch tritt ein, wenn innerhalb einer Art aufgrund eines geringeren Nahrungsangebotes die kleineren Exemplare durch ihren geringeren Nahrungsbedarf besser angepasst sind, oder wenn bei Selektion durch Raubtiere kleinere Exemplare bessere Möglichkeiten haben, sich den Beutegreifern zu entziehen.
Hier einige Beispiele:
Endemiten in Österreich und der Schweiz.
In Österreich gibt es mit 741 Endemiten, davon 575 Tier- und 150 Pflanzenarten, den höchsten Anteil endemischer Arten in Mitteleuropa.
Das einzige endemische Säugetier Österreichs ist die Bayerische Kurzohrmaus.
"Siehe auch: "
In der Schweiz gibt es 39 Endemiten: 33 Tier- und 6 Pflanzenarten. |
1344 | 429783 | https://de.wikipedia.org/wiki?curid=1344 | Epidemie | Eine Epidemie (von ‚auf, bei, dazu‘ und ‚Volk‘), auch Seuche genannt, ist ein zeitlich und örtlich begrenztes vermehrtes Auftreten von Krankheitsfällen einheitlicher Ursache innerhalb einer menschlichen Population und entspricht damit einem großen Ausbruch einer Krankheit. Der Begriff war und ist nicht auf Infektionskrankheiten beschränkt.
In der Epidemiologie wird von einer "Epidemie" gesprochen, wenn die Anzahl an neuen Erkrankungsfällen (Inzidenzen) über einen gewissen Zeitraum in einer bestimmten Region zunimmt. Nach der Geschwindigkeit der Zunahme der Erkrankungsfälle werden Explosiv- und Tardivepidemie unterschieden. Bei einer Länder und Kontinente übergreifenden Ausbreitung wird von einer Pandemie gesprochen. Ein Rückgang der Erkrankungshäufigkeit wird als "Regression" bezeichnet. Als eine Endemie wird demgegenüber das andauernd gehäufte Auftreten einer Krankheit in einer umschriebenen Population bezeichnet; hierbei bleibt die Inzidenz annähernd gleich, ist aber gegenüber nichtendemischen Gebieten erhöht.
Da sich die Endung "-demie" sprachlich auf Menschen bezieht, sind in der Veterinärmedizin auch die Bezeichnungen Epizootie statt "Epidemie" und ebenso Panzootie statt "Pandemie" üblich.
Wortherkunft.
Das Wort "Epidemie", Adjektiv "epidemisch", ist die im 18. Jahrhundert eingedeutschte Form einer Entlehnung aus mittellateinisch "epidemia", Adjektiv , dieses aus griechisch (dorisch) ‚im Volk verbreitet‘; zu ‚Aufenthalt an einem Orte‘ bzw. ‚im Volk verbreitete [Krankheit]‘ mit der Zusammensetzung aus ‚auf, bei, dazu‘ und ‚Volk‘.
Das deutsche Wort "Seuche" () ist abgeleitet vom Adjektiv "siech". Es wird mit der Bedeutung ‚sich ausbreitende Krankheit‘ heute häufiger für epidemisch auftretende Tierkrankheiten (z. B. Maul- und Klauenseuche) verwendet, deren überregionale Ausbreitung oft auch als Seuchenzug bezeichnet wird.
Epidemiologische Beschreibung.
Im Unterschied zu einer Endemie – bei der eine Krankheit innerhalb einer Population fortwährend mit etwa gleicher Fallzahl auftritt (Reproduktionsrate = 1) – verbreitet sich eine Epidemie mit einer größeren Reproduktionsrate (> 1). Dies bedeutet bei einer Infektionskrankheit, dass die Zahl an Infizierten zunimmt und die Zahl an Neuinfektionen ansteigt. Für die Ausbreitung bedeutsam ist die Rate, mit der durch Kontakt mit Infizierten neue Infizierte auftreten; sie entspricht zu Beginn der Basisreproduktionszahl ("R"0). Anfangs erhöht sich die Zahl an neuen Infektionsfällen pro Zeitintervall im Vergleich zum vorigen um einen ungefähr gleichen Anteil und wächst exponentiell. Der Anstieg neuer Infektionsfälle in absoluten Zahlen fällt daher zunächst eher gering aus und wächst mit fortschreitendem Geschehen stärker an.
Diese dynamische Entwicklung kann gedämpft werden, wenn die Zahl an infektiösen Kontakten eingeschränkt wird – beispielsweise durch Quarantäne oder ein verändertes Sozialverhalten mit Distanzierung und geeigneten Hygienemaßnahmen – und die Zahl der pro Fall übertragenen Zweitinfektionen absinkt. Bei einer Nettoreproduktionszahl ("R"t) ≤ 1 nimmt die Zahl an neu auftretenden Krankheitsfällen nicht mehr zu. Kann eine Epidemie während des Verlaufs nicht eingedämmt werden, kommt es hierzu erst, nachdem die Krankheit sich in der Bevölkerung soweit ausgebreitet hat, dass der Anteil anfälliger (suszeptibler), noch nicht infizierter Individuen stark reduziert ist. In Folge sinkt die Zahl der Neuinfektionen nach einiger Zeit immer weiter ab, bis die Krankheit einen endemischen Status erreicht oder in der Population ausstirbt (Populationsdynamik).
Als Begründer der "Historischen Seuchenpathologie" gilt Justus Hecker, der sich mit der Geschichte von Seuchen wie dem "Schwarzen Tod" befasste.
Vorhersage.
Das vermehrte Auftreten neuer Krankheitsfälle möglichst früh zu erfassen, ist für den Schutz der Bevölkerung wesentlich. Viele Betroffene suchen im Internet nach Information zu Krankheiten. Die Auswertung der Daten von Suchmaschinen kann daher Hinweise geben, um Epidemien frühzeitig zu erkennen. Auch die Auswertung von persönlichen Nachrichtendiensten im Internet kann für diese Bewertung herangezogen werden. Allerdings ist eine gehäufte Suche nach einer Krankheit oder deren Erwähnung im Internet nicht unbedingt immer Folge einer erhöhten Prävalenz oder Inzidenz dieser Krankheit. Daher können überhöhte Prognosen gestellt werden, wenn nicht andere zusätzliche Datenquellen in die Bewertung einfließen.
Beispiele für Epidemien.
Zu den epidemisch auftretenden Krankheiten (epidemische Krankheiten) gehören verschiedene Tropenkrankheiten wie etwa Dengue, aber auch beispielsweise Cholera, Grippe, Typhus und Polio. Früher traten Milzbrand-Epidemien öfter im Abstromgebiet von Gerbereien auf. Die wohl verheerendsten Epidemien der Menschheitsgeschichte wurden von der Pest ausgelöst; darunter etwa der Schwarze Tod und die Justinianische Pest.
Die Ebolafieber-Epidemie 2014 bis 2016 in Westafrika und die Ebolafieber-Epidemie 2018 bis 2020 im Osten der Demokratischen Republik Kongo sind nach Fallzahlen und zeitlichem Verlauf ebenfalls Beispiele für epidemische Ausbrüche des Ebolafiebers. Im Falle der Grippe spricht man von einer Grippewelle, wenn während einer Saison in verschiedenen Regionen erhebliche Anteile der Bevölkerung infiziert sind. Das US-amerikanische Centers for Disease Control and Prevention spricht von einer Influenza-Epidemie, wenn in einem bestimmten Winter die Übersterblichkeit an Grippe und Lungenentzündung gegenüber einem durchschnittlichen Winter deutlich erhöht ist.
Im Falle der Chlamydiose, bei Jugendlichen als einer in dieser Bevölkerungsgruppe kaum bekannten sexuell übertragbaren Erkrankung, wird auch von einer "heimlichen Epidemie" gesprochen.
Arten von Epidemien.
Epidemien lassen sich des Weiteren nach räumlichen und zeitlichen Merkmalen des Geschehens sowie nach den Bedingungen des Auftretens und Ausbreitens kennzeichnen. So können folgende Arten von Epidemien unterschieden werden:
Gesellschaftlicher Umgang mit Epidemien in der Geschichte.
Der Kulturwissenschaftler Joseph Vogl zitiert Michel Foucault, der drei Arten des Umgangs mit den seit der Antike behandelten Epidemien in der Geschichte darstellt: Auf die Lepra im Mittelalter habe die Regierungsmacht mit Verbannung, Aussonderung und Ausschließung der Kranken reagiert; angesichts der Pest in der frühen Neuzeit habe sie Strategien der Überwachung und Einschließung, dann auch Disziplinarmechanismen, Kontrollnetze und eine minutiöse Beobachtung von Individuen entwickelt; auf die Pocken ab Ende des 18. Jahrhunderts habe sie mit Impfmaßnahmen, Immunitätsstrategien, statistischen Erhebungen und Risikoabschätzungen reagiert. Angesichts der AIDS-Epidemie habe man zunächst Homosexuelle verfolgt und ‚Risikogruppen‘ denunziert, später habe sich der Umgang mit der Epidemie stärker auf Bereiche außerhalb des geschlossenen Bereichs der medizinischen Beobachtung verlagert. |
1345 | 2057559 | https://de.wikipedia.org/wiki?curid=1345 | Évariste Galois | Évariste Galois (* 25. Oktober 1811 in Bourg-la-Reine; † 31. Mai 1832 in Paris) war ein französischer Mathematiker. Er starb im Alter von nur 20 Jahren bei einem Duell, erlangte allerdings durch seine Arbeiten zur Lösung algebraischer Gleichungen, der so genannten Galoistheorie, postum Anerkennung.
Leben.
Galois besuchte das College Louis-le-Grand in Paris, scheiterte zweimal an der Aufnahmeprüfung zur "École polytechnique" und begann ein Studium an der "École normale supérieure." Mit 17 Jahren veröffentlichte er eine erste Arbeit über Kettenbrüche; wenig später reichte er bei der Académie des Sciences eine Arbeit über die Gleichungsauflösung ein, die den Kern der heute nach ihm benannten Galoistheorie enthielt. Die Akademie lehnte das Manuskript ab, ermutigte Galois aber, eine verbesserte und erweiterte Fassung einzureichen. Dieser Vorgang wiederholte sich zweimal unter Beteiligung von Augustin-Louis Cauchy, Joseph Fourier und Siméon Denis Poisson. Galois reagierte verbittert, beschuldigte die Akademie, Manuskripte veruntreut zu haben, und beschloss, sein Werk auf eigene Kosten drucken zu lassen.
Als Republikaner war Galois vom Ausgang der Julirevolution enttäuscht und exponierte sich politisch zunehmend; er wurde von seiner Hochschule verwiesen und zweimal verhaftet. Der ersten Verhaftung wegen eines bei einem Bankett mit dem blanken Messer in der Hand ausgebrachten Trinkspruchs auf den neuen König Louis-Philippe, der als versteckte Morddrohung ausgelegt wurde, folgte am 15. Juni 1831 ein Freispruch. Nur einen Monat später nahm Galois in der Uniform der wegen politischer Unzuverlässigkeit inzwischen aufgelösten Artillerie-Garde und schwer bewaffnet an einer Demonstration zum 14. Juli teil, wurde erneut verhaftet und nach dreimonatiger Untersuchungshaft zu sechs Monaten Haft im Gefängnis Sainte-Pélagie verurteilt. Im März 1832 wurde er wegen einer Cholera-Epidemie mit anderen Häftlingen ins Sanatorium Sieur Faultrier verlegt. Am 29. April wurde er aus der Haft entlassen.
Am Morgen des 30. Mai 1832 erlitt Galois bei einem Pistolenduell in der Nähe des Sieur Faultrier einen Bauchdurchschuss, wurde von seinem Gegner und seinem eigenen Sekundanten allein zurückgelassen, Stunden später von einem Bauern aufgefunden und in ein Krankenhaus gebracht, wo er tags darauf „in den Armen“ seines Bruders Alfred starb. Der Duellgegner war ein republikanischer Gesinnungsgenosse, Perschin d’Herbinville, und nicht, wie von Leopold Infeld in "Wen die Götter lieben" vorgebracht, ein agent provocateur der Regierung. Der Anlass für das Duell war ein Mädchen, Stéphanie-Félicie Poterin du Motel, die Tochter eines am Sieur Faultrier tätigen Arztes. Mit ihr tauschte Galois nach seiner Entlassung aus dem Sanatorium Briefe aus, und ihr Name findet sich auf seinem letzten Manuskript; sie scheint sich aber von ihm distanziert zu haben.
Ian Stewart zitiert aus der französischen Tageszeitung "Le Precursor" die folgende Meldung vom 4. Juni 1832: "„Paris, 1. Juni. Ein bedauerliches Duell hat gestern die exakten Wissenschaften um einen jungen Mann gebracht, der zu den höchsten Erwartungen Anlass gab, dessen gefeierte Frühreife jedoch in letzter Zeit von seinen politischen Aktivitäten überschattet wurde. Der Junge Évariste Galois kämpfte mit einem seiner alten Freunde, der bekanntermaßen ebenfalls in einem politischen Prozess eine Rolle spielte. Gerüchten zufolge lag dem Duell eine Liebesgeschichte zugrunde. Die Gegner wählten Pistolen als Waffe, doch wegen ihrer alten Freundschaft konnten sie sich dabei nicht in die Augen schauen und überließen die Entscheidung dem Zufall. Aus nächster Nähe feuerte jeder seine Pistole ab. Nur eine Pistole war geladen. Galois wurde von der Kugel seines Gegners durchbohrt; man brachte ihn ins Krankenhaus, wo er nach etwa zwei Stunden starb. Er war 22 Jahre alt. L. D., sein Widersacher, ist etwas jünger.“"
Trotzdem halten sich hartnäckig Stimmen, die sagen, das Duell sei inszeniert gewesen, da Galois kaum Interesse an Stéphanie hatte und sein Gegner ein bekannter Schütze war, ja es wurde sogar behauptet, er hätte sich in diesem Duell für die republikanische Sache geopfert. Andere Einschätzungen sprechen von inszeniertem Selbstmord aufgrund seiner unglücklichen Liebe. Solche Duelle „um der Ehre willen“ waren andererseits damals ziemlich häufig.
In der Nacht vor seinem Duell schrieb er einen Brief an seinen Freund Auguste Chevalier, in dem er diesem die Bedeutung seiner mathematischen Entdeckungen ans Herz legte und ihn bat, seine Manuskripte Carl Friedrich Gauß und Carl Gustav Jacob Jacobi vorzulegen; außerdem fügte er Randbemerkungen wie „je n’ai pas le temps“ (mir fehlt die Zeit) in seine Schriften ein. Chevalier schrieb Galois’ Arbeiten ab und brachte sie unter den Mathematikern seiner Zeit in Umlauf, u. a. auch an Gauß und Jacobi, von denen aber keine Reaktion bekannt ist. Die Bedeutung der Schriften erkannte erst 1843 Joseph Liouville, der den Zusammenhang mit Cauchys Theorie der Permutationen sah und sie in seinem Journal veröffentlichte.
Der antiklerikal und antimonarchistisch eingestellte Galois erlangte nach seinem Tod aufgrund seiner ungestümen Art und seinem Hang zum Alkohol zunächst einen schlechten Ruf. Dazu trug bei, dass es sowohl bei der Beerdigung seines Vaters wie auch bei seiner eigenen zu Schlägereien kam.
Werk.
Galois begründete die heute nach ihm benannte Galoistheorie, die sich mit der Auflösung algebraischer Gleichungen, d. h. mit der Faktorisierung von Polynomen befasst. Das damalige Grundproblem der Algebra umfasste die allgemeine Lösung algebraischer Gleichungen mit Radikalen (d. h. Wurzeln im Sinne von Potenzen mit gebrochenen Exponenten), wie sie für Gleichungen zweiten, dritten und vierten Grades schon länger bekannt waren. Galois erkannte die dahinter stehenden Konstruktionen der Gruppentheorie. Unabhängig (und Galois nicht bekannt) hatte Niels Henrik Abel bewiesen, dass eine allgemeine polynomiale Gleichung von höherem Grad als 4 im Allgemeinen nicht durch Radikale aufgelöst werden kann. Galois untersuchte Gruppen von Vertauschungen der Nullstellen des Gleichungspolynoms (auch "Wurzeln" genannt), insbesondere die sogenannte Galoissche Gruppe "G", deren Definition bei Galois noch ziemlich kompliziert war. In heutiger Sprache ist das die Gruppe der Automorphismen des Erweiterungskörpers "L" über dem Grundkörper, der durch Adjunktion aller Nullstellen definiert ist. Galois erkannte, dass sich die Untergruppen von "G" und die Unterkörper von "L" bijektiv entsprechen.
Man zeigt dann zum Beispiel, dass im Falle der allgemeinen Gleichung 5. Grades für die zugehörige Gruppe – die Symmetrische Gruppe "S"5 der Permutationen von 5 Objekten – keine Kompositionsreihe einer Kette von Normalteilern mit zyklischen Faktorgruppen existiert, die den Automorphismengruppen der durch Adjunktion von Wurzeln gebildeten Zwischenkörpern entsprechen. "S"5 ist keine auflösbare Gruppe, da sie als echten Normalteiler nur die einfache Untergruppe "A"5 enthält, die alternierende Gruppe der geraden Permutationen von 5 Objekten. Das verallgemeinert sich in dem Satz, dass für "n" > 4 die symmetrische Gruppe "Sn" den einzigen echten nichttrivialen Normalteiler "An" besitzt, der nichtzyklisch und einfach ist, d. h. ohne nichttriviale Normalteiler. Daraus folgt die allgemeine Nichtauflösbarkeit von Gleichungen höheren als 4. Grades durch Radikale.
Wegen dieser von ihm gefundenen Begriffe und Sätze ist Galois einer der Begründer der Gruppentheorie. In Anerkennung seiner grundlegenden Arbeit wurden die mathematischen Strukturen Galoiskörper (endlicher Körper), Galoisverbindung und Galoiskohomologie nach ihm benannt. Wie anderen, besonders berühmten Mathematikern ist auch ihm ein Symbol gewidmet: GF("q") steht für Galois Field (Galoiskörper) mit "q" Elementen und ist in der Literatur so etabliert wie etwa die Gaußklammer oder das Kronecker-Symbol.
Er lieferte damit auch die Grundlagen für Beweise der allgemeinen Unlösbarkeit von zwei der drei klassischen Probleme der antiken Mathematik, der Dreiteilung des Winkels und der Verdoppelung des Würfels (jeweils mit Zirkel und Lineal, also mit Quadratwurzeln und linearen Gleichungen). Diese Beweise können jedoch auch einfacher, also ohne Galoistheorie, geführt werden. Das dritte Problem, die Quadratur des Kreises, wurde durch den Beweis der Transzendenz von formula_1 durch Ferdinand Lindemann ad acta gelegt.
In dem Brief an Auguste Chevalier deutet Galois auch Arbeiten über elliptische Funktionen an.
Eponyme.
Seit 1970 trägt der Mondkrater Galois auf der Mondrückseite seinen Namen, und seit dem 2. Februar 1999 der Asteroid (9130) Galois. |
1348 | 2366376 | https://de.wikipedia.org/wiki?curid=1348 | Eulersche Formel | Die nach Leonhard Euler benannte eulersche Formel bzw. Eulerformel, in manchen Quellen auch eulersche Relation, ist eine Gleichung, die eine grundsätzliche Verbindung zwischen den trigonometrischen Funktionen und den komplexen Exponentialfunktionen mittels komplexer Zahlen darstellt.
Eulersche Formel.
Die eulersche Formel bezeichnet die für alle formula_1 gültige Gleichung
wobei die Konstante formula_3 die eulersche Zahl (Basis der natürlichen Exponentialfunktion bzw. des natürlichen Logarithmus) und die Einheit formula_4 die imaginäre Einheit der komplexen Zahlen bezeichnen.
Als Folgerung aus der eulerschen Formel ergibt sich für alle formula_5 die Gleichung
Herleitung mittels Reihenentwicklung.
Die eulersche Formel lässt sich aus den maclaurinschen Reihen (Taylor-Reihe mit Entwicklungsstelle formula_7) der Funktionen formula_8 und formula_9, formula_10, herleiten
Die Umformungen basieren auf formula_12
Eulersche Identität.
Für formula_13 ergibt sich aus der eulerschen Formel die sogenannte eulersche Identität
die einen einfachen Zusammenhang zwischen vier der bedeutendsten mathematischen Konstanten herstellt: der eulerschen Zahl formula_3, der Kreiszahl formula_16, der imaginären Einheit formula_4 sowie der reellen Einheit formula_18. Die folgende umgeformte Variante der Gleichung wird bisweilen – obwohl komplizierter – bevorzugt, da in ihr mit der Null noch eine weitere mathematisch bedeutende Konstante hinzukommt:
Sie wird auch als die „schönste Formel der Mathematik“ bezeichnet, da sie neben den erwähnten 5 bedeutendsten Konstanten auch noch die drei Grundrechenarten „plus“, „mal“ und „hoch“ enthält sowie das wichtigste Zeichen der Mathematik: das Gleichheitszeichen!
Eine weitere Version der Formel lautet
mit der alternativen Kreiszahl formula_22.
Erweitert man die Definition des Zahlenwerts von formula_23 als Grenzwert formula_24 auf die komplexe Zahlenebene mit formula_25, so ergibt sich dementsprechend für formula_26 der Wert formula_27. Die nebenstehende Animation zeigt die zu einem Streckenzug in der komplexen Ebene verbundenen Zwischenergebnisse der Berechnung des Ausdrucks formula_28: Sie veranschaulicht, dass dieser Streckenzug für wachsendes formula_29 die Form eines Kreisbogens annimmt, dessen linkes Ende sich tatsächlich der Zahl formula_27 auf der reellen Achse nähert.
Beziehung zwischen Exponentialfunktionen und trigonometrischen Funktionen.
Formulierung.
Die eulersche Formel ist ein zentrales Bindeglied zwischen Analysis und Trigonometrie:
Herleitung.
Sinus und Kosinus ergeben sich aus Realteil und Imaginärteil der komplexen Exponentialfunktion.
Den Realteil erhält man, indem man eine komplexe Zahl formula_32 mit der Konjugierten formula_33 addiert und durch zwei dividiert:
Den Imaginärteil erhält man, indem man formula_35 berechnet:
Erläuterung.
Die Eulerformel erlaubt eine völlig neue Sicht auf die trigonometrischen Funktionen, da die in der herkömmlichen Trigonometrie allein mit reellen Argumenten verwendeten Funktionen Sinus und Kosinus nun auch noch eine Bedeutung in der komplexen Analysis erhalten.
Die Formeln für Real- und Imaginärteil ergeben sich durch:formula_37
Eine Folge der Verbindung von trigonometrischen Funktionen und Exponentialfunktion aus der Eulerformel ist der Moivresche Satz (1730).
Hyperbelfunktionen.
Versieht man die Sinus und Kosinus mit imaginären Argumenten, wird dadurch eine Brücke zu den Hyperbelfunktionen geschlagen:
Wie zu sehen, entsprechen die beiden erhaltenen Funktionen genau den Definitionen des Sinus hyperbolicus und Kosinus hyperbolicus.
Weitere Anwendungen.
Ausgehend davon findet die eulersche Formel auch zur Lösung zahlreicher anderer Probleme Anwendung, etwa bei der Berechnung der Potenz formula_40 der imaginären Einheit mit sich selbst. Obwohl das erhaltene Resultat mehrdeutig ist, bleiben alle Einzellösungen im reellen Bereich mit einem Hauptwert von formula_41
Eine praktisch wichtige Anwendung der eulerschen Formel findet sich im Bereich der Wechselstromtechnik, namentlich bei der Untersuchung und Berechnung von Wechselstromkreisen mit Hilfe komplexer Zahlen.
Geschichte.
Die eulersche Formel erschien erstmals 1748 in Leonhard Eulers zweibändiger "Introductio in analysin infinitorum" unter der Prämisse, dass der Winkel eine reelle Zahl ist. Diese Einschränkung jedoch erwies sich bald als überflüssig, denn die eulersche Formel gilt gleichermaßen für alle reellen wie komplexen Argumente. Dies ergibt sich aus der eulerschen Formel mit reellem Argument in Verbindung mit dem Identitätssatz für holomorphe Funktionen.
Zuvor hat Roger Cotes 1714 einen fehlerhaften mathematischen Zusammenhang veröffentlicht, welcher der eulerschen Formel ähnelt.
In moderner Notation sieht er folgendermaßen aus:formula_42,wobei ein im Koordinatenursprung fixierter Kreis mit Radius formula_43 und ein Winkel formula_44 zwischen x-Achse und einem Strahl, der den Ursprung schneidet, betrachtet werden.
Die imaginäre Einheit formula_45 müsste auf der anderen Seite der Gleichung stehen. |
1349 | 63384 | https://de.wikipedia.org/wiki?curid=1349 | Einkorn | Einkorn ("Triticum monococcum"), auch "Blicken" oder "Kleiner Spelz" genannt, ist eine der ältesten domestizierten Getreidearten. Einkorn stammt vom wilden Weizen ("Triticum boeoticum" Boiss.) ab, der im Gegensatz zu Einkorn eine brüchige Ährchengabel (Rhachis) hat. Einkorn galt als Vorläufer von Emmer, Dinkel und Saatweizen, bis durch genetische Untersuchungen festgestellt wurde, dass Emmer von Wildem Emmer aus der Südosttürkei abstammt.
Domestikation.
Das Ursprungsgebiet von domestiziertem Einkorn ist umstritten. "Heun" und andere argumentieren anhand genetischer Untersuchungen von Einkorn aus der Türkei, dem Kaukasus und dem Libanon für eine Herkunft aus der südöstlichen Türkei (Karacadağ), während Martin K. Jones et al. (2006) und andere den Ursprung in der südlichen Levante sehen, wo Emmer, Einkorn und Gerste seit dem präkeramischen Neolithikum A 8000–7700 v. Chr. domestiziert wurden. Die Nachweise werden allerdings angezweifelt. Sicher domestiziertes Einkorn stammt aus dem präkeramischen Neolithikum B (6700–6000 v. Chr.), zum Beispiel aus Jericho und Tell Aswad II.
Am oberen Euphrat wurde domestiziertes Einkorn in den vorkeramischen Schichten von Mureybit, Nevalı Çori (7200 v. Chr.) Jerf el Ahmar, Abu Hureyra (7800–7500 v. Chr.) und Dja'de gefunden. Aus Siedlungen wie Cafer Höyük, Nevalı Çori und Cayönü liegt jedoch auch wildes Einkorn vor, was auf die Bedeutung dieser Pflanze als Sammelpflanze bereits im Mesolithikum bzw. Epipaläolithikum hinweist.
Funde.
Einkorn und Emmer gehören zu den wichtigsten Kulturpflanzen der Bandkeramik. Erst in der späten Bandkeramik gewinnt auch Binkelweizen ("T. compactum") an Einfluss. So war Einkorn in der linearbandkeramischen Kultur (zwischen 5700 und 4100 v. Chr.), die sich aufgrund des allgemeinen Klimawandels als neolithische Kultur mit Ackerbau und Viehzucht in Mitteleuropa behaupten konnte, ein fester Bestandteil der agrarischen Produktion. Diese Kultur mit ihren fast dörflichen Siedlungen nutzte zunächst die tief liegenden Lößflächen für ihren Feldbau. Angebaut wurden neben Einkorn ("Triticum monococcum") noch Emmer ("Triticum dicoccum"), Dinkel (Triticum aestivum subsp. spelta), Lein (Linum usitatissimum) und die Hülsenfrüchte Linse und Erbse, vermutlich im Schwendbau. So weisen geoklimatische bzw. geoökologische Forschungen auf ein sehr mildes Klima während der Ausbreitung der bandkeramischen Kultur in Mitteleuropa hin.
Reste von Einkorn wurden unter anderem bei der steinzeitlichen Gletschermumie „Ötzi“ in den Alpen gefunden.
Anbau.
Einkorn ist relativ anspruchslos in Bezug auf die Qualität des Bodens. Außerdem ist es resistent gegen viele Schädlinge wie Wurzelfäule, Spelzenbräune oder den Mutterkorn-Pilz und kann sich besser gegen die Konkurrenz von Ackerunkräutern durchsetzen als moderne Weizensorten. Allerdings ist der Ertrag erheblich geringer als bei den modernen Weizen-Sorten, auf sandigen Böden werden Erträge von lediglich 1,2 bis 2,1 t/ha erzielt.
Wurde der Anbau von Einkorn im 20. Jahrhundert wirtschaftlich nahezu bedeutungslos, so wird Einkorn heute doch z. B. in der Schweiz, in Deutschland, in Österreich im Waldviertel, in Italien als lokale Spezialität im Piemont und der Provinz Brescia und in der Türkei weiterhin angebaut. In Frankreich in der Haute Provence wurde der Anbau von Einkorn in den 1990er Jahren von einer Gruppe von Erzeugern wiederbelebt, die 1997 das Syndicat du Petit Épeautre de Haute-Provence gründeten. Dies führte 2007 zur Einführung einer g.g.A. "Petit épeautre de Haute Provence", die ein geografisches Gebiet von 235 Gemeinden in den Departements Drôme, Alpes-de-Haute-Provence, Hautes-Alpes und Vaucluse in einer Höhe von über 400 m und Qualitätsregeln definiert. Seit 2010 gibt es außerdem eine g.g.A. für das Mehl "Farine de petit épeautre de Haute Provence."
Inhaltsstoffe und Verwendung.
Einkorn enthält relativ mehr Proteine (Aminosäuren), Lipide (meist ungesättigte Fettsäuren), Fructane und Spurenelemente (Mineralstoffe einschließlich Zink und Eisen) als Weizen, andererseits ist es ärmer an Ballaststoffen. Ein hoher Gelbpigmentgehalt an Beta-Carotin gibt dem Einkorn-Mehl eine gelbliche Farbe. Der Gehalt an Carotinen (α und β) in Einkorn (Monlis) übertraf den Gehalt in Weizen (Serio) um etwa das 8-fache; darüber hinaus verlief der Verlust an Carotinoiden beim Lagern in Weizen rascher. Um einem Verlust an Carotinoiden vorzubeugen, wird eine Lagertemperatur unter 20 °C empfohlen.
Zunehmend werden verarbeitete Produkte wie Nudeln und Brot aus Einkorn angeboten. Mit Einkorn-Malz als Zutat kann auch Bier gebraut werden. |